JP2005326168A - 運転支援システム、車両、および運転支援方法 - Google Patents
運転支援システム、車両、および運転支援方法 Download PDFInfo
- Publication number
- JP2005326168A JP2005326168A JP2004142308A JP2004142308A JP2005326168A JP 2005326168 A JP2005326168 A JP 2005326168A JP 2004142308 A JP2004142308 A JP 2004142308A JP 2004142308 A JP2004142308 A JP 2004142308A JP 2005326168 A JP2005326168 A JP 2005326168A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- unit
- outside
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】 自車両の位置を正確に算出することができる運転支援システム、車両、および運転支援方法を提供する。
【解決手段】 車両から外部の画像を撮像するカメラと、自車両の位置を算出するカーナビゲーション装置と、カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、車外画像再生部によって生成された画像と、カメラにより撮像された画像とを比較する画像比較部と、画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部と、車外画像再生部46によって生成された車外の画像を表示する表示装置を備える。そして、車外画像再生部は、詳細位置算出部によって算出された詳細な位置から見られるべき車外の画像を、3D地図を用いて生成する。
【選択図】 図3
【解決手段】 車両から外部の画像を撮像するカメラと、自車両の位置を算出するカーナビゲーション装置と、カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、車外画像再生部によって生成された画像と、カメラにより撮像された画像とを比較する画像比較部と、画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部と、車外画像再生部46によって生成された車外の画像を表示する表示装置を備える。そして、車外画像再生部は、詳細位置算出部によって算出された詳細な位置から見られるべき車外の画像を、3D地図を用いて生成する。
【選択図】 図3
Description
本発明は、自車両の位置を正確に算出することができる運転支援システム、車両および運転支援方法に関する。特に本発明は、車両から撮像した画像を用いて自車両の詳細な位置を算出する、運転支援システム、車両、および運転支援方法に関する。
従来、3D画像を運転手へ表示するカーナビゲーション装置が知られている(例えば、非特許文献1参照)。カーナビゲーション装置は、GPS衛星から受信したGPS情報を用いて車両の現在位置を特定し、運転手は、カーナビゲーション装置によって表示された3D画像を参考にしながら目的地までの運転を行う。
"三菱カーナビゲーション装置 リアルマップ"、[online]、[平成16年4月1日検索]、インターネット<URL:http://www.mitsubishielectric.co.jp/carele/carnavi/h8000/realmap_b.html>
しかしながら、カーナビゲーション装置が受信するGPS情報には誤差が含まれる。このため、カーナビゲーション装置は、GPS情報を用いて算出した位置を、近くの道路上へと強制的に修正するいわゆるマップマッチングを行っている。従って、カーナビゲーション装置が算出する位置は、車両が現在走行している位置とは必ずしも一致しない。このためカーナビゲーション装置が表示する3D画像は、実際に走行した場合に見える風景とは異なる場合があり、このような画像が表示されると運転手は混乱するという課題がある。
このような課題を解決するために、本発明の第1の形態における運転支援システムは、車両から外部の画像を撮像するカメラと、自車両の位置を算出するカーナビゲーション装置と、カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、車外画像再生部によって生成された画像と、カメラにより撮像された画像とを比較する画像比較部と、画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部とを備えた。これにより、自車両の位置を正確に算出することができる。
また本形態における運転支援システムは、車外画像再生部によって生成された車外の画像を表示する表示装置を更に備え、車外画像再生部は、詳細位置算出部によって算出された詳細な位置から見られるべき車外の画像を、3D地図を用いて生成してもよい。これにより、運転手から実際に見える風景に近い画像を表示することができので、運転を適切に支援することができる。
車外画像再生部は、詳細位置算出部によって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成してもよい。このように、運転手から実際に見える風景に近い画像に進行方向を重ねて表示するので、運転手は、進むべき進路、およびその周辺の状況を、事前に正確に知ることができる。
また本形態における運転支援システムは、車両の速度を検出する車速検出部を更に備え、車外画像再生部は、詳細位置算出部によって算出された詳細な位置から、車速検出部によって検出された移動速度で、所定の時間だけ走行した位置から見られるべき車外の画像を、3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成してもよい。このように、運転手が所定の時間経過した後に見る風景と近い画像に進行方向を重ねて表示するので、運転手は、進むべき進路、およびその周辺の状況を、事前に正確に知ることができる。
また本形態における運転支援システムは、詳細位置算出部によって算出された車両の位置が、車外画像再生部によって算出された方向へ進行するのに適していない場合に、車線の変更を運転手に指示する車線変更指示装置を更に備えてもよい。これにより、運転手が車線を誤ることを防ぐことができる。
また本形態における運転支援システムは、画像比較部の比較において画像が一致しなかった場合に、カーナビゲーション装置による自車両の算出位置を補正する現在ルート判断部を更に備えてもよい。例えば、幅の狭い道路が互いに近くを平行するような場合、カーナビゲーション装置は、現在の位置を、隣の道路上へと誤って算出してしまう場合があるが、本発明の運転支援システムは、このような誤りを早く修正することができる。
本発明の第2の形態における車両は、車両から外部の画像を撮像するカメラと、自車両の位置を算出するカーナビゲーション装置と、カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、車外画像再生部によって生成された画像と、カメラにより撮像された画像とを比較する画像比較部と、画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部とを備えた。
車外画像再生部は、詳細位置算出部によって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成してもよい。
本発明の第3の形態における運転支援方法は、カメラによって車両から外部の画像を撮像する撮像ステップと、カーナビゲーション装置によって自車両の位置を算出する位置算出ステップと、カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生ステップと、車外画像再生ステップによって生成された画像と、撮像ステップによって撮像された画像とを比較する画像比較ステップと、画像比較ステップによる比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出ステップとを備えた。
車外画像再生ステップは、詳細位置算出ステップによって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成してもよい。
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求にかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の開発手段に必須であるとは限らない。
図1は、本発明の運転支援システム100を搭載した車両10を示す。本発明の運転支援システム100は、カーナビゲーション装置44およびカメラ42を備える。本実施形態のカーナビゲーション装置44は内部に3D地図を格納しており、車両10の現在の位置から撮像されるべき画像を生成する。カメラ42は、車外を撮像する。本発明では、カメラ42によって撮像された被写体600を含む画像と一致する画像を、予め格納された3D地図から生成することにより、車両10の位置を詳細に算出することのできる運転支援システム100を提供することを目的とする。
図2は、運転支援システム100が表示する3D画像を説明する図である。図2(a)は、運転支援システム100に予め格納された3D地図から生成される3D画像を示す。本図の例では、車両10が道路606を交差点620に向かって走行中に、運転支援システム100のカーナビゲーション装置44は、走行中の道路606、前方の交差点620、および、道路606および交差点620の周囲に存在する複数の建物608〜616を運転手へ表示する。
図2(b)は、カメラ42が撮像した画像を示す。カーナビゲーション装置44は、GPS衛星から受信したGPS情報や、車速パルスおよびジャイロセンサの出力結果を用いて、車両10の現在位置を特定するが、受信するGPS情報や、センサの出力には誤差が含まれる。このような場合、カーナビゲーション装置44は、GPS情報やセンサを用いて算出した位置を、近くの道路上へと強制的に修正するいわゆるマップマッチングを行う。このため、カーナビゲーション装置44が算出する位置は、車両が現在走行している位置とは必ずしも一致しないので、カーナビゲーション装置44が表示する3D画像は、実際に走行した場合に見える風景とは異なる場合がある。
例えば、図2(b)に示す画像は、図2(a)に示す生成された3D画像とは見え方が異なる。本図の例において、図2(b)の画像は、画像に含まれる建物の位置などから、図2(a)の画像よりも後方から撮像されていることがわかる。そこで、本発明の運転支援システム100は、生成した3D画像と、カメラ42によって実際に撮像された画像とが一致した場合における、車両10の計算上の位置を求めることより、車両10のより詳細な位置を求めることを目的とする。尚、運転支援システム100は、道路606上における車両10の左右の位置についても、画像の見え方から詳細な位置を算出することが可能である。そこで本発明の運転支援システム100は、車両10の詳細な位置を用いて、更に、車両10が走行する車線の方向を指示することを目的とする。
尚、図2(b)に示すように、カメラ42が撮像する画像には、道路606の上を走行する車両602および604、歩道を歩く歩行者601等が含まれる。そこで本例の運転支援システム100は、道路上の車両602および604や、移動中の歩行者601を除去した画像を生成する。更に、カメラ42によって撮像された画像には、各建物の窓700〜704、汚れ706、および玄関708等の、運転手に進路を表示する上で必ずしも必要ではない情報が含まれる。そこで本例の運転支援システム100は、更に、これらの不要な情報を除去した画像を生成する。本例の運転支援システム100は、カメラ42により撮像された画像から不要なオブジェクトを除いた画像と、カーナビゲーション装置44が格納する画像とを比較することにより、車両10の現在の位置を正確に算出することを目的とする。図2(c)は、画像処理が施された後の画像の一例を示す。
図3は、運転支援システム100の詳細な構成の一例を示す。運転支援システム100は、カメラ42およびカーナビゲーション装置44に加えて、車外画像再生部46、画像処理部47、画像比較部48、詳細位置算出部50、車線変更指示部52、現在ルート判断部54、表示装置56、車速検出部60、舵角検出部62、および旋回速度算出部64を備える。本例のカーナビゲーション装置44は、3D地図58を有する。
カーナビゲーション装置44は、GPS衛星200から、GPS情報を受け取る。これによりカーナビゲーション装置44は、車両10の現在の位置を取得する。また、カーナビゲーション装置44は、GPS衛星200から受け取ったGPS情報の履歴を格納する。これにより、カーナビゲーション装置44は、車両10の進行方向を特定する。GPS情報に誤差がある場合、カーナビゲーション装置44は、現在の位置および履歴から、地図上における最適な道路を選択し、その道路上における位置を、現在位置として算出する。
車外画像再生部46は、カーナビゲーション装置44によって算出された位置から撮像されるべき車外の画像を、3D地図58を用いて生成する。ここで3D地図58は、3次元の画像情報を予め有する。車外画像再生部46は、カーナビゲーション装置44によって算出された位置を中心とする所定の範囲に含まれるそれぞれの位置から撮像されるべき車外の画像を、3D地図58を用いて生成する。尚、算出された位置を中心とする所定の範囲とは、算出された位置を中心とする長方形の領域や、円形の領域であってよい。
カメラ42は、車両10の外部を撮像する。この場合、カメラ42は、車両10の進行方向に光軸が一致するように車両10に予め配置され、車両10の前方を連続して撮像する。
車速検出部60は車両10の移動速度を検出し、舵角検出部62は、車両10の舵角を検出する。旋回速度算出部64は、車速検出部60が検出した移動速度および、舵角検出部62が検出した舵角に基づいて、車両10の旋回速度を算出する。本例の旋回速度算出部64は、車速検出部60が検出した移動速度に、舵角検出部62が検出した舵角の変化の大きさを乗じることにより、車両10の旋回速度を算出する。
画像処理部47は、カメラ42によって撮像された画像に画像処理を施す。詳細は後述するが、本例の画像処理部47は、車速検出部60が検出した移動速度と、旋回速度算出部64によって算出された旋回速度を用いて、撮像された画像における移動体を除去する。また画像処理部47は、道路の周囲に存在する被写体を検出する。更に、画像処理部47は、画像に含まれる基準値以上の高周波成分を除去する。
画像比較部48は、車外画像再生部46によって生成された画像と、カメラ42により撮像され、更に画像処理部47によって画像処理が施された画像と、車外画像再生部46によって生成された画像とを比較する。この場合、画像比較部48は、画像処理が施された画像と、車外画像再生部46によって生成された複数の画像との差分を求め、この差分が最小となる画像を、複数の生成された画像から選択する。この場合、算出された差分が、予め定められた値よりも小さい場合に、車外画像再生部46は、画像が一致したと判断する。
詳細位置算出部50は、画像比較部48による比較結果を用いて、車両10の詳細な位置を算出する。本例の詳細位置算出部50は、画像が一致した場合に、車外画像再生部46が画像を生成するのに用いた車両10の位置を、車両10の詳細な位置として算出する。すると車外画像再生部46は、詳細位置算出部50によって算出された詳細な位置から見られるべき車外の画像を、3D地図58を用いて生成する。尚、算出された位置からみられるべき画像を生成する動作は後述する。表示装置56は、車外画像再生部46によって生成された車外の画像を表示する。
画像比較部48の比較において画像が一致しなかった場合に、現在ルート判断部54は、カーナビゲーション装置44による自車両10の算出位置を補正する。この場合、本例のカーナビゲーション装置44は、GPS衛星200と再び通信を行い、GPS情報を取得する。そしてカーナビゲーション装置44は、取得したGPS情報を用いて、現在の位置を再度、算出する。これにより、カーナビゲーション装置44が車両10の位置を誤って算出した場合であっても、位置を早く修正することができる。
また、車線変更指示部52は、詳細位置算出部50によって算出された車両10の位置が、車外画像再生部46によって算出された方向へ進行するのに適していない場合に、車線の変更を運転手に指示する。本例の車線変更指示部52は、詳細な位置から撮像されるべき画像と、走行すべき車線の位置から撮像されるべき画像とを生成し、両者の画像が一致しない場合に、詳細位置算出部50によって算出された車両10の位置が、車外画像再生部46によって算出された方向へ進行するのに適していないと判断する。これにより運転手が車線を誤ることを、防ぐことができる。
更に、本発明の車外画像再生部46は、詳細位置算出部50によって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、3D地図58を用いて生成し、車両10が進行すべき方向を示す画像に合成する。また車外画像再生部46は、詳細位置算出部50によって算出された詳細な位置から、車速検出部60によって検出された速度で、所定の時間だけ走行した位置から見られるべき車外の画像を、3D地図58を用いて生成し、車両10が進行すべき方向を示す画像に合成する。これにより運転手は進むべき進路と、その道路の周囲の状況を事前に知ることが出来る。尚、車両10が進行すべき方向を示す画像とは、矢印などのマークであってよい。
以上の説明から明らかなように本実施形態によれば、詳細位置算出部50は画像比較部48による比較結果を用いて、車両10の詳細な位置を算出するので、本発明の運転支援システム100は、車両10の位置を正確に算出することができる。また車外画像再生部46は詳細位置算出部50によって算出された詳細な位置から見られるべき車外の画像を、3D地図58を用いて生成するので、運転手から実際に見える画像と近似した画像を表示することができる。そして、車外画像再生部46は、3D地図58を用いて、所定の距離だけ進んだ位置からみられるべき車外の画像を生成し、或いは、車速検出部60によって検出された速度で、所定の時間だけ走行した位置から見られるべき車外の画像を生成し、車両10が進行すべき方向を示す画像に合成するので、運転手は進むべき進路と、その道路の周囲の状況を事前に知ることが出来る。
図4は、運転支援システム100の動作の一例を示すフローチャートである。カーナビゲーション装置44は、GPS衛星200から、GPS情報を受け取り、自車両10の現在の位置を算出する(S100)。すると車外画像再生部46は、カーナビゲーション装置44によって算出された位置から撮像されるべき車外の画像を、3D地図58を用いて生成する(S105)。この場合、車外画像再生部46は、カーナビゲーション装置44によって算出された位置を中心とする所定の範囲に含まれるそれぞれの位置から撮像されるべき車外の画像を、3D地図58を用いて生成する。
ここでカメラ42は、車両10の進行方向に光軸が一致するように車両10に予め配置され、車両10の前方を連続して撮像する(S110)。すると画像処理部47は、カメラ42によって撮像された画像に画像処理を施す(S115)。尚、画像処理部47の動作の詳細は図7で述べる。この画像処理により、次に行う画像の比較の精度を向上させる。
画像比較部48は、画像処理部47によって画像処理を施された画像と、車外画像再生部46によって生成された画像とを比較する。そして、両者の画像が一致しなかった場合(S120:NO)、現在ルート判断部54は、カーナビゲーション装置44にGPS衛星200と再び通信を行わせ、取得したGPS情報を用いて、再度、車両10の現在の位置を算出する(S125)。これにより現在ルート判断部54は、現在のルートの判断を行う。そして詳細位置算出部50は、画像比較部48による比較結果を用いて、車両10の詳細な位置を算出する(S130)。
画像処理部47によって画像処理を施された画像と、車外画像再生部46によって生成された画像とが一致した場合(S120:YES)、本フローチャートはステップS135へ進む。すると車外画像再生部46は、詳細位置算出部50によって算出された詳細な位置から見られるべき車外の画像を、3D地図58を用いて生成し、表示装置56は、車外画像再生部46によって生成された車外の画像を表示する(S135)。そして、交差点に近づくと、車外画像再生部46は、交差点における進路を表示する(S140)。
ここで、車両10が目的地に到着していない場合(S145:NO)、本フローチャートは、ステップS100へ進み、ステップS100からステップS140までの動作を繰り返す。目的地に到着すると(S145:YES)、本フローチャートは、終了する。
図5は、3D画像の生成について説明する図である。カーナビゲーション装置44は、3D地図58に、交差点および道路が曲がる箇所をノードとして格納すると共に、それぞれの道路を、ノードをつなぐリンクとして格納する。ここでカーナビゲーション装置44は、ノードに対応づけて位置情報を格納し、リンクに対応づけて道路情報を格納する。例えばカーナビゲーション装置44は、ノードに対応づけて緯度および経度で示された位置情報を格納し、リンクに対応づけて、リンクに対応する道路の法定速度等の情報を道路情報として格納する。これらの情報を運転手へ提供することにより、カーナビゲーション装置44は運転手の運転を支援する。
本図は、道路606(図2参照)を走行する車両10を真上から見た様子を示す。説明の便宜上、交差点および道路に対応するノードおよびリンクを重ねて示す。3D地図58は、3D画像を生成するための3次元の画像情報を各リンクに対応づけて格納しており、カーナビゲーション装置44は、各リンクにおける車両10の現在位置に基づいて、格納された画像情報を用いて3D画像を生成する。本例の3D地図58は、3次元の画像情報として、ノードを座標の原点とする3次元座標と、各3次元座標に対応する画素値とを格納する。そしてカーナビゲーション装置44は、リンク上における車両10の位置に基づいて、運転手へ表示するべき3D画像を、随時、生成しながら表示する。本例のカーナビゲーション装置44は、運転手の視点から見た場合における、道路および建物の表面を表す画像を、運転手へ表示するべき3D地図として表示する。
例えば、本図の例では、建物616の表面上における位置820は、ノード800を原点とする3次元座標(X、Y、Z)で定義され、3D地図58は、位置820における画素値Aを格納する。同様にして3D地図58は、道路および道路周辺の全ての位置に対応づけて、3次元座標および画像値を格納している。また、3D地図58は、交差点としてノード800および802を格納し、これらのノードをつなぐリンクとして、リンク806、808〜815を格納している。車両10が矢印804に示されるリンク808上に位置し、矢印816が示す方向、即ちノード800からノード802へ向かって移動している場合、カーナビゲーション装置44は、車両10の運転手から見える道路および各建物の3D画像を生成して表示する。本図の例において、運転手へ表示するべき領域が、点線で示された領域850である場合、カーナビゲーション装置44は、建物608〜616を含む3D画像を表示する。尚、進行方向が矢印816と逆方向である場合、カーナビゲーション装置44は、ノード802を原点とした3次元座標に変換して3D画像を表示する。
図6は、ステップS105の詳細な動作の一例を示すフローチャートである。現在位置を示すGPS情報をGPS衛星200から取得すると、カーナビゲーション装置44は、GPS衛星200から受け取った車両10の位置情報を、リンク上における座標に変換する。本例のカーナビゲーション装置44は、車両10の現在位置を、車両10の進行方向とは逆の方向に接続されたノードを原点とする座標に変換する。図5の例では、カーナビゲーション装置44は、ノード800を原点とする、リンク808上における位置を特定する(S200)。
次に車外画像再生部46は、予め格納された3次元の画像情報において、車両10の現在の位置として運転手へ表示すべき3D画像を生成するために必要な各点の座標と画素値を算出する(S205)。ここで車外画像再生部46は、算出された位置を中心とする所定の範囲807(図5参照)内で、各座標に位置をかえた場合の画像を生成する(S210)。この場合、車外画像再生部46は、算出された位置を中心として、前後左右に位置を変えた場合の画像を生成する。このようにして、車外画像再生部46は、カメラ42によって撮像された画像と比較を行うための画像を生成する。例えば、矢印805(図5参照)における位置から見られるべき画像と、カメラ42によって撮像された画像が一致した場合には、矢印805における位置を、車両10の詳細な位置として算出する。
図7は、ステップS115の詳細な動作の一例を示すフローチャートである。画像処理部47は、まず、カメラ42により撮像された画像の中で、低周波成分の大きさと比較して、大きさが基準値以上に大きな高周波成分の領域がある場合(S300:YES)、この領域における高周波成分を除去する(S305)。
この場合、画像処理部47は、得られた画像をDCT変換(離散コサイン変換)し、変換によって得られたスペクトルにおいて、基準値以上に大きな周波数成分を持つスペクトルの係数をゼロにして、更に逆DCT変換(逆離散コサイン変換)を施すことにより、高周波成分を除去する。尚、高周波成分を除去した画像には、画像が有する直流成分は残るので、画像処理部47は、高周波成分を除去した後の画像として、直流成分の濃度を画素値として有する画像を得る。
ここで車両10が走行することにより、撮像された画像に含まれる各被写体には動き生じる。この被写体の動きは、画像の中央付近では小さく生じ、周囲においては大きい。また車両10から被写体までの距離が近いほど大きくなる。本明細書では、このような車両10の走行状態によって定まる画像内における各被写体の動きをオプティカルフローと呼び、画像内の被写体の実際の動きを移動ベクトルと呼ぶ。そして被写体が静止している場合に、各被写体のオプティカルフローは、車両10の移動速度、車両10からオブジェクトまでの距離、および車両10に対する被写体の方向から定まる。また車両10が微小時間内に旋回を行った場合、画像内の被写体は、左右方向へのオプティカルフローが生じる。このオプティカルフローの方向は、旋回を行った方向と逆方向であり、大きさは旋回速度に比例する。
そこで車速検出部60は車両10の移動速度を検出し、舵角検出部62は車両10の舵角を検出する(S310)。更に、旋回速度算出部64は、車速検出部60が検出した移動速度に、舵角検出部62が検出した舵角の変化の大きさを乗じることで、車両10の旋回速度を算出する(S315)。
ここで、カメラ42は内部に2つのカメラを含む3Dカメラであってもよく、内部に含まれる2つのカメラによって撮像されたオブジェクトの特徴点の位置ずれを用いて、車両10から各オブジェクトまでの距離と車両10に対する方向を求める。ここで、画像処理部47は、各オブジェクトまでの距離および方向と、車速検出部60が検出した移動速度を用いて、車両10が直進した場合に各オブジェクトに生じるオプティカルフローを算出する(S320)。更に、画像処理部47は、算出したオプティカルフローに、旋回した場合に生じた各オブジェクトのオプティカルフローを加算することにより、車両10が旋回しながら進んだ場合におけるオプティカルフローを算出する。これにより、画像処理部47は、被写体が静止していると仮定した場合に、車両10の移動速度および旋回速度によって被写体に生じるオプティカルフローを算出する。
そして画像処理部47は、連続して撮像された画像に含まれる各オブジェクトの特徴点を抽出することにより、移動ベクトルを算出する。そして、先に算出したオプティカルフローとは異なる移動ベクトルを有する場合(S325:YES)、画像処理部47は、このオブジェクトを移動体として検出することにより、移動体を除去する(S330)。この場合、画像処理部47は、オプティカルフローと、移動ベクトルとの差分を算出し、この差分が予め定められた大きさを超えた場合に、この移動ベクトルを有する被写体を移動体と判断する。これにより、画像処理部47は移動体を確実に除去することができる。また、オブジェクトが、算出したオプティカルフローとは異なる移動ベクトルを持たない場合(S325:NO)、本フローチャートは、ステップS335へ進む。
次に画像処理部47は、カメラ42によって撮像される画像中の、道路の周囲の被写体である周囲被写体を検出する。より具体的には、画像処理部47は、画像内において車両10よりも下方に撮像される領域において、オプティカルフローの消失点に向かって伸びる、予め定められた長さ以上の直線成分を検出する。そして、検出された直線を路肩と判断し、検出された路肩の間の領域を、道路上の領域として定める(S335)。尚、画像処理部47は、画像内における車両10よりも下方に撮像される領域を、カメラ42の取り付け角度から予め定める。そして、画像処理部47は、撮像された画像における道路を示す領域以外の領域の被写体を、周囲被写体として選択する(S340)。これにより、画像処理部47は、道路の周辺の被写体を適切に選択することができる。
尚、より簡易には、画像処理部47は、移動体を除去する動作を、次のように行ってもよい。即ち、画像処理部47は、カメラ42によって連続して撮像された画像から、各被写体の移動ベクトルを算出することにより画像全体に生じるオプティカルフローを算出し、算出されたオプティカルフローと異なる向きをもつ移動ベクトルを持つ被写体を、移動体として検出しても良い。
図8は、ステップS140の詳細な動作の一例を示すフローチャートである。車速検出部60は、車両10の移動速度を検出する。そして現在の移動速度で走行した場合、予め定められた時間に、車両10が交差点に得着すると想定される場合、例えば交差点にあと30秒で到着する場合(S400:YES)、或いは、交差点に車両10が予め定められた所定の距離だけ近づいた場合、例えば、交差点にあと200メートルで到着する場合(S405:YES)、本フローチャートは、ステップS410へ進む。尚、所定の距離および所定の時間は、運転手によって予め設定されてよい。
すると車線変更指示部52は、詳細な位置から撮像されるべき画像と、走行すべき車線の位置から撮像されるべき画像とを生成し、両者の画像が異なる場合に、正しい車線を走行していないと判断し(S410:NO)、運転手へ車線の変更を指示する(S415)。この場合、車線変更指示部52は、表示装置56に車線の変更を指示する旨を表示させると共に、カーナビゲーション装置44に車線の変更を指示する旨の音声ガイダンスを行わせる。これにより、本発明の運転支援システム100は、車線の誤りを防ぐことができる。特に交差点での車線の誤りを事前に防ぐことができる。
また、車外画像再生部46は、交差点の画像に、進行すべき方向を示す矢印を合成し(S420)、表示装置56は、合成された画像を表示する。これにより、運転手は進むべき進路と、その道路の周囲の状況を事前に知ることが出来る。正しい車線を走行している場合(S410:YES)には、本フローチャートは、ステップS415の処理を行わずに、ステップS420へ進む。尚、車両10が交差点に近づかない場合(S400:NO、およびS405:NO)、ステップS410からステップS420までの処理は行われない。
尚、本実施形態において、カメラ42は、車両10の前方を撮像したが、撮像する方向は前方には限られない。例えばカメラ42は、車両10から見て横方向や、後ろ方向の画像を撮像してもよく、この場合、異なる方向の画像を組合せて用いることで、位置を算出する精度を向上させてもよい。また、より簡易には、画像処理部47が行った画像処理を省略することもできる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることができることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれることが、特許請求の範囲の記載から明らかである。
10・・・車両、42・・・カメラ、44・・・カーナビゲーション装置、46・・・車外画像再生部、47・・・画像処理部、48・・・画像比較部、50・・・詳細位置算出部、52・・・車線変更指示部、54・・・現在ルート判断部、56・・・表示装置、58・・・3D地図、60・・・車速検出部、62・・・舵角検出部、64・・・旋回速度算出部、100・・・運転支援システム、200・・・GPS衛星、600・・・被写体
601・・・歩行者、602、604・・・車両、606・・・道路、608、610、612、614、616・・・建物、620・・・交差点、700、702、704・・・窓、706・・・汚れ、708・・・玄関、800、802・・・ノード、804、805・・・矢印、807・・・範囲、806、808、810、812、814、815・・・リンク、820・・・位置、850・・・領域
601・・・歩行者、602、604・・・車両、606・・・道路、608、610、612、614、616・・・建物、620・・・交差点、700、702、704・・・窓、706・・・汚れ、708・・・玄関、800、802・・・ノード、804、805・・・矢印、807・・・範囲、806、808、810、812、814、815・・・リンク、820・・・位置、850・・・領域
Claims (10)
- 車両から外部の画像を撮像するカメラと、
自車両の位置を算出するカーナビゲーション装置と、
前記カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、
前記車外画像再生部によって生成された画像と、前記カメラにより撮像された画像とを比較する画像比較部と、
前記画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部と
を備える運転支援システム。 - 前記車外画像再生部によって生成された車外の画像を表示する表示装置を更に備え、
前記車外画像再生部は、前記詳細位置算出部によって算出された詳細な位置から見られるべき車外の画像を、前記3D地図を用いて生成する請求項1に記載の運転支援システム。 - 前記車外画像再生部は、前記詳細位置算出部によって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、前記3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成する請求項1に記載の運転支援システム。
- 車両の移動速度を検出する車速検出部を更に備え、
前記車外画像再生部は、前記詳細位置算出部によって算出された詳細な位置から、前記車速検出部によって検出された速度で、所定の時間だけ走行した位置から見られるべき車外の画像を前記3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成する請求項1に記載の運転支援システム。 - 前記詳細位置算出部によって算出された車両の位置が、前記車外画像再生部によって算出された方向へ進行するのに適していない場合に、車線の変更を運転手に指示する車線変更指示部を更に備える請求項1に記載の運転支援システム。
- 前記画像比較部の比較において画像が一致しなかった場合に、前記カーナビゲーション装置による自車両の算出位置を補正する現在ルート判断部を更に備える請求項1に記載の運転支援システム。
- 車両から外部の画像を撮像するカメラと、
自車両の位置を算出するカーナビゲーション装置と、
前記カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生部と、
前記車外画像再生部によって生成された画像と、前記カメラにより撮像された画像とを比較する画像比較部と、
前記画像比較部による比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出部と
を備える車両。 - 前記車外画像再生部は、前記詳細位置算出部によって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、前記3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成する請求項7に記載の車両。
- カメラによって車両から外部の画像を撮像する撮像ステップと、
カーナビゲーション装置によって自車両の位置を算出する位置算出ステップと、
前記カーナビゲーション装置によって算出された位置から撮像されるべき車外の画像を、3D地図を用いて生成する車外画像再生ステップと、
前記車外画像再生ステップによって生成された画像と、前記撮像ステップによって撮像された画像とを比較する画像比較ステップと、
前記画像比較ステップによる比較結果を用いて、自車両の詳細な位置を算出する詳細位置算出ステップと
を備える運転支援方法。 - 前記車外画像再生ステップは、前記詳細位置算出ステップによって算出された詳細な位置から、所定の距離だけ進んだ位置から見られるべき車外の画像を、前記3D地図を用いて生成し、車両が進行すべき方向を示す画像に合成する請求項9に記載の運転支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004142308A JP2005326168A (ja) | 2004-05-12 | 2004-05-12 | 運転支援システム、車両、および運転支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004142308A JP2005326168A (ja) | 2004-05-12 | 2004-05-12 | 運転支援システム、車両、および運転支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005326168A true JP2005326168A (ja) | 2005-11-24 |
Family
ID=35472645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004142308A Pending JP2005326168A (ja) | 2004-05-12 | 2004-05-12 | 運転支援システム、車両、および運転支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005326168A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227888A (ja) * | 2010-03-31 | 2011-11-10 | Aisin Aw Co Ltd | 画像処理システム及び位置測位システム |
WO2012086821A1 (ja) | 2010-12-20 | 2012-06-28 | 日本電気株式会社 | 測位装置、測位方法 |
JP2012185011A (ja) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | 移動体位置測定装置 |
JP2013032953A (ja) * | 2011-08-01 | 2013-02-14 | Aisin Aw Co Ltd | 位置判定装置およびナビゲーション装置並びに位置判定方法,プログラム |
US20130162824A1 (en) * | 2011-12-22 | 2013-06-27 | Electronics And Telecommunications Research Institute | Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor |
JP2013148355A (ja) * | 2012-01-17 | 2013-08-01 | Nissan Motor Co Ltd | 車両位置算出装置 |
JP2013148354A (ja) * | 2012-01-17 | 2013-08-01 | Nissan Motor Co Ltd | 車両位置算出装置 |
WO2013133129A1 (ja) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
JP2016099172A (ja) * | 2014-11-19 | 2016-05-30 | 株式会社豊田中央研究所 | 車両位置推定装置及びプログラム |
DE102017125356A1 (de) | 2016-12-27 | 2018-06-28 | Toyota Jidosha Kabushiki Kaisha | Positionsberechnungsvorrichtung |
JP2018117204A (ja) * | 2017-01-17 | 2018-07-26 | トヨタ自動車株式会社 | 撮像装置 |
JP2019045892A (ja) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
JP2019191133A (ja) * | 2018-04-27 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | 位置推定装置 |
AT522549A2 (de) * | 2019-04-18 | 2020-11-15 | Dreamwaves Gmbh | Verfahren zum Leiten von Verkehrsteilnehmern |
-
2004
- 2004-05-12 JP JP2004142308A patent/JP2005326168A/ja active Pending
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227888A (ja) * | 2010-03-31 | 2011-11-10 | Aisin Aw Co Ltd | 画像処理システム及び位置測位システム |
US9794519B2 (en) | 2010-12-20 | 2017-10-17 | Nec Corporation | Positioning apparatus and positioning method regarding a position of mobile object |
WO2012086821A1 (ja) | 2010-12-20 | 2012-06-28 | 日本電気株式会社 | 測位装置、測位方法 |
US20130271607A1 (en) * | 2010-12-20 | 2013-10-17 | Katsuhiko Takahashi | Positioning apparatus and positioning method |
JP2012185011A (ja) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | 移動体位置測定装置 |
JP2013032953A (ja) * | 2011-08-01 | 2013-02-14 | Aisin Aw Co Ltd | 位置判定装置およびナビゲーション装置並びに位置判定方法,プログラム |
US20130162824A1 (en) * | 2011-12-22 | 2013-06-27 | Electronics And Telecommunications Research Institute | Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor |
US9208389B2 (en) * | 2011-12-22 | 2015-12-08 | Electronics And Telecommunications Research Institute | Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor |
JP2013148355A (ja) * | 2012-01-17 | 2013-08-01 | Nissan Motor Co Ltd | 車両位置算出装置 |
JP2013148354A (ja) * | 2012-01-17 | 2013-08-01 | Nissan Motor Co Ltd | 車両位置算出装置 |
WO2013133129A1 (ja) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 |
CN104204726A (zh) * | 2012-03-06 | 2014-12-10 | 日产自动车株式会社 | 移动物体位置姿态估计装置和移动物体位置姿态估计方法 |
US10032278B2 (en) | 2014-11-19 | 2018-07-24 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Vehicle position estimation device, method and computer readable recording medium |
JP2016099172A (ja) * | 2014-11-19 | 2016-05-30 | 株式会社豊田中央研究所 | 車両位置推定装置及びプログラム |
US11519738B2 (en) | 2016-12-27 | 2022-12-06 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
US10731996B2 (en) | 2016-12-27 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Position calculating apparatus |
DE102017125356A1 (de) | 2016-12-27 | 2018-06-28 | Toyota Jidosha Kabushiki Kaisha | Positionsberechnungsvorrichtung |
JP2018117204A (ja) * | 2017-01-17 | 2018-07-26 | トヨタ自動車株式会社 | 撮像装置 |
US10462378B2 (en) | 2017-01-17 | 2019-10-29 | Toyota Jidosha Kabushiki Kaisha | Imaging apparatus |
US11288860B2 (en) | 2017-08-29 | 2022-03-29 | Sony Corporation | Information processing apparatus, information processing method, program, and movable object |
JP2019045892A (ja) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
JP7043755B2 (ja) | 2017-08-29 | 2022-03-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
WO2019208101A1 (ja) * | 2018-04-27 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | 位置推定装置 |
US11538241B2 (en) | 2018-04-27 | 2022-12-27 | Hitachi Astemo, Ltd. | Position estimating device |
JP2019191133A (ja) * | 2018-04-27 | 2019-10-31 | 日立オートモティブシステムズ株式会社 | 位置推定装置 |
JP7190261B2 (ja) | 2018-04-27 | 2022-12-15 | 日立Astemo株式会社 | 位置推定装置 |
AT522549A2 (de) * | 2019-04-18 | 2020-11-15 | Dreamwaves Gmbh | Verfahren zum Leiten von Verkehrsteilnehmern |
AT522549B1 (de) * | 2019-04-18 | 2022-09-15 | Dreamwaves Gmbh | Verfahren zum Leiten von Verkehrsteilnehmern |
US20220221296A1 (en) * | 2019-04-18 | 2022-07-14 | Dreamwaves Gmbh | Computer implemented method for guiding traffic participants |
AT522549A3 (de) * | 2019-04-18 | 2021-12-15 | Dreamwaves Gmbh | Verfahren zum Leiten von Verkehrsteilnehmern |
US11835353B2 (en) | 2019-04-18 | 2023-12-05 | Dreamwaves Gmbh | Computer implemented method for guiding traffic participants |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4293917B2 (ja) | ナビゲーション装置及び交差点案内方法 | |
JP5057184B2 (ja) | 画像処理システム及び車両制御システム | |
JP4600357B2 (ja) | 測位装置 | |
JP4459717B2 (ja) | 地図更新システム | |
JP4946238B2 (ja) | 車両周辺撮影送信装置および車両周辺撮影送信プログラム | |
JP4914726B2 (ja) | 現在位置算出装置、現在位置算出方法 | |
JP4844323B2 (ja) | 駐車支援装置および駐車支援方法 | |
JP2019045379A (ja) | 自車位置推定装置 | |
JP2005326168A (ja) | 運転支援システム、車両、および運転支援方法 | |
JP2008139148A (ja) | 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置 | |
KR102037129B1 (ko) | 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량 | |
JP2009211624A (ja) | 運転支援装置、運転支援方法及びコンピュータプログラム | |
JP2016090344A (ja) | ナビゲーション装置、及びナビゲーションプログラム | |
JP2007198962A (ja) | 車両用案内表示装置 | |
JP4702149B2 (ja) | 車両位置測位装置 | |
JP2008059082A (ja) | 交差点情報提供システム及び運転支援システム | |
EP2988097B1 (en) | Driving support system, method, and program | |
JP2006284281A (ja) | 自車情報認識装置及び自車情報認識方法 | |
JP2002104117A (ja) | 車両用運転支援システム | |
JP2008080959A (ja) | 駐車支援装置および駐車支援方法 | |
JP2008032596A (ja) | 3次元マップマッチング処理装置、3次元マップマッチング処理方法、3次元マップマッチング処理プログラム、ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム、および、自動車 | |
JP2011174748A (ja) | 地図表示装置、方法およびプログラム | |
JP6953088B2 (ja) | 電子装置および駐車支援方法 | |
JP2007290077A (ja) | 自律移動体および情報構築システム | |
JP2009220592A (ja) | 車載用縦列駐車支援装置および車載用縦列駐車支援装置のプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061211 |