JP2012007983A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2012007983A
JP2012007983A JP2010143530A JP2010143530A JP2012007983A JP 2012007983 A JP2012007983 A JP 2012007983A JP 2010143530 A JP2010143530 A JP 2010143530A JP 2010143530 A JP2010143530 A JP 2010143530A JP 2012007983 A JP2012007983 A JP 2012007983A
Authority
JP
Japan
Prior art keywords
map information
vehicle
information
image
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010143530A
Other languages
English (en)
Inventor
Toshio Ito
敏夫 伊東
Masuo Kawazoe
満寿男 川添
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2010143530A priority Critical patent/JP2012007983A/ja
Publication of JP2012007983A publication Critical patent/JP2012007983A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】取得された地図情報に基づいて生成されるナビゲーション情報を撮影画像中の正確な位置に重畳表示することができる技術を提供する。
【解決手段】車載カメラ4による撮影画像に含まれる被撮影物の特徴部分の位置と、自車位置推定部7により検出された自車1の位置に応じて取得された地図情報に含まれる被撮影物の特徴部分に対応する位置とが照合されることにより、地図情報上における撮影画像の位置が走行環境認識部8により同定されることで、撮影画像に含まれる被撮影物の地図情報上における位置、すなわち、撮影画像に地図情報上のどこの位置が撮影されているのかが正確に同定されので、取得された地図情報に基づいて生成されるナビゲーション情報が表示されるべき地図情報上の位置と、撮影画像上の位置とが正確に対応付けされているため、ナビゲーション情報を撮影画像中の正確な位置に重畳表示することができる。
【選択図】図1

Description

この発明は、撮影手段により撮影された撮影画像にナビゲーション情報を重畳表示することにより運転支援を行う技術に関する。
従来、車載カメラなどの撮影手段による実写画像にガイド図形などのナビゲーション情報を重畳表示することにより運転支援を行う技術が知られている。このように、実写画像にナビゲーション情報を重畳表示するためには、実写画像にどこの場所の風景が撮影されているのか、すなわち、実写画像の地図上の位置が同定されなければならない。
そこで、例えば、特許文献1に記載のナビゲーション装置では、ハードディスクドライブ(HDD)やDVDなどの記憶手段にナビゲーション用の地図データが格納されており、GPS(Global Positioning System)測位情報や車速センサなどの自律センサの情報などに基づいて自車位置が検出され、検出された自車位置に関する情報や、撮影手段の自車への取付状態および撮影方向に関する情報などに基づいて、実写画像の地図データ上における位置が同定される。そして、実写画像の地図データ上の位置が同定された結果、地図データに基づいて設定された案内経路に該当する交差点などが実写画像に含まれていると判断されるときには、ナビゲーション情報が表示されるべき当該交差点などの地図データ上での位置に相当すると推定される実写画像中の位置にナビゲーション情報が重畳表示される。
国際公開第2007/145190号(段落[0037]〜[0043]、図8,9など)
ところで、自車両にGPSの受信機を搭載することにより、この受信機により受信されたGPS測位情報に基づいて走行中の自車位置が検出されるが、GPSの測位状況によっては自車位置の検出誤差が数m〜100m以上となる。そこで、自車位置をより正確に検出するために、GPSの測位情報に基づいて検出された自車位置は、自車両に搭載された車速センサなどの自律センサの情報などに基づいてさらに補正される。
しかしながら、自律センサの情報などにより検出された自車位置が補正されても、GPSの測位状況に起因する自車位置の検出誤差を完全には補正できず、補正された自車位置にも数十mの誤差が含まれているため、数十mの誤差を含む自車位置に関する情報に基づいて実写画像(撮影画像)の地図データ上における位置が同定される。したがって、同定された撮影画像の地図データ上の位置に誤差が含まれるため、撮影画像に地図データ上のどの位置の風景が撮影されているのかを正確に同定できず、同定された撮影画像の地図データ上の位置が実際の位置からずれているおそれがあり、この場合、撮影画像中の適切な位置にナビゲーション情報が重畳表示されなかったり、表示されるべきナビゲーション情報が撮影画像に重畳表示されないという問題があった。
本発明は、上記課題に鑑みてなされたものであり、取得された地図情報に基づいて生成されるナビゲーション情報を撮影画像中の正確な位置に重畳表示することができる技術を提供することを目的とする。
上記した目的を達成するために、本発明の運転支援装置は、自車位置を検出する検出手段と、前記検出手段により検出された自車位置に応じた地図情報を取得する取得手段と、自車に搭載された自車両周辺を撮影する撮影手段と、前記撮影手段による撮影画像に含まれる被撮影物の特徴部分の位置と、前記取得手段により取得された前記地図情報に含まれる前記被撮影物の特徴部分に対応する位置とを照合することにより、前記地図情報上における前記撮影画像の位置を同定するマッチング手段と、前記地図情報に基づいて生成されるナビゲーション情報を前記マッチング手段による同定が行われた前記撮影画像に重畳して表示する表示手段とを備えることを特徴としている(請求項1)。
また、前記マッチング手段は、1または2以上の前記被撮影物の複数の前記特徴部分の位置について照合を行うようにするとよい(請求項2)。
請求項1の発明によれば、撮影手段による撮影画像に含まれる被撮影物の特徴部分の位置と、検出手段により検出された自車位置に応じて取得手段により取得された地図情報に含まれる被撮影物の特徴部分に対応する位置とが照合されることにより、地図情報上における撮影画像の位置がマッチング手段により同定されることで、撮影画像に含まれる被撮影物の地図情報上における位置、すなわち、撮影画像に地図情報上のどこの位置が撮影されているのかが正確に同定される。したがって、取得された地図情報に基づいて生成されるナビゲーション情報が表示されるべき地図情報上の位置と、撮影画像上の位置とが正確に対応付けされているため、ナビゲーション情報を撮影画像中の正確な位置に表示手段により重畳表示することができる。
また、撮影画像の地図情報上の位置が正確に同定されることにより、撮影手段の自車への取付状態および撮影方向などから、検出手段による地図情報上における自車位置を正確に補正することができるため、補正された自車位置に関する情報および地図情報に基づいて目的地までの最適なナビゲーション情報を生成することができる。したがって、最短経路で目的地に向かうことができるので、低燃費化を図ることができる。
請求項2の発明によれば、1または2以上の被撮影物の複数の特徴部分の位置について照合が行われることにより、撮影画像の地図情報上の位置をより正確にマッチング手段により同定することができる。
本発明の一実施形態のブロック図である。 地図情報上における撮影画像の位置を同定する処理を説明するための図である。 表示されるナビゲーション情報の一例を示す図である。 ナビゲーション処理を示すフローチャートである。
本発明の一実施形態について、図1〜図4を参照して説明する。
図1は本発明の運転支援装置2の一実施形態のブロック図である。図2は地図情報M上における撮影画像Fの位置を同定する処理を説明するための図であって、(a)は撮影画像Fの一例を示し、(b)は走行環境認識部8により取得された地図情報Mの一例を示す図である。図3は表示されるナビゲーション情報の一例を示す図であって、(a)は地図情報M上においてナビゲーション情報が表示されるべき位置を示す図であって、(b)は撮影画像Fにナビゲーション情報が重畳表示された状態を示す図である。図4はナビゲーション処理を示すフローチャートである。
図1に示す自車1は、車載カメラ4による撮影画像Fにナビゲーション情報を重畳表示することにより運転支援を行う運転支援装置2を備えている。以下、運転支援装置2が備える種々の機能について説明する。
記憶部3は、フラッシュメモリ等の書き換え自在の固体情報記憶素子やHDDなどの記憶媒体により形成され、車載カメラ4により時々刻々と出力される撮影画像Fの画像データやナビゲーション用の地図情報M、以下で説明する各種機能により使用される各種データや各種機能により得られる各種データを記憶する。なお、この実施形態において記憶部3により記憶されるナビゲーション用の地図情報Mには、交差点、道路に設けられた横断歩道や車速、追越禁止、Uターン禁止などの各種道路標示、信号機、標識、ガソリンスタンド、飲食店などの各種店舗、モニュメントなどのランドマークなど、ドライバに対するナビゲーション情報を生成するための道路上の特徴部分CPに関する位置情報、すなわち、“何”が“何処”にあるのかという互いの位置関係を把握するための位置情報が含まれている。なお、道路上の特徴物(特徴部分)の互いの位置関係を把握することができれば、地図情報Mは、所謂、3次元地図データであっても2次元地図データであってもよい。
車載カメラ4(本発明の「撮影手段」に相当)は、自車両周辺を撮影するものであって、この実施形態では、自車1の前方の撮影が可能なモノクロあるいはカラー撮影が可能なカメラから成り、連続的に時々刻々と撮影した撮影画像Fの信号を出力する(図2(a)参照)。また、この実施形態では、車載カメラ4は、ドライバの視線とほぼ同じ視線で自車1の前方の路面撮影を行うことができるように、自車1の車内の前方の上部位置に、上方から適当な角度で斜め下の路面をねらうように設けられている。
自車位置推定部7(本発明の「検出手段」に相当)は、GPS受信部5により受信した自車位置のGPSの測位情報や、CAN(Controller Area Network)通信部6により受信した速度センサ、加速度センサ、舵角センサ、ヨーレートセンサ等の自車に設けられた走行に関連する各種自律センサの検出情報を収集して管理される自車1の車両情報などに基づいて、各時刻における自車1の地図情報M上における位置を推定する。
走行環境認識部8(本発明の「取得手段」、「マッチング手段」に相当)は、記憶部3に記憶されたナビゲーション用の地図情報Mのうち、自車位置推定部7により推定された自車1の地図情報M上の位置に応じた地図情報Mを取得する(図2(b)参照)。また、走行環境認識部8は、車載カメラ4による撮影画像Fに含まれる1または2以上の、交差点の角、道路に設けられた横断歩道や車速、追越禁止、Uターン禁止などの各種道路標示の端点、信号機、標識、ガソリンスタンド、飲食店などの各種店舗、モニュメントなどのランドマークなどの被撮影物Oの特徴部分CPをパターン認識により認識する。
そして、走行環境認識部8は、撮影画像Fに被撮影物Oとして“何”が“何処”に撮影されているのか、といった撮影画像Fに含まれる各特徴部分CPの位置と、自車位置推定部7により推定された自車1の地図情報M上の位置に応じて取得した地図情報Mに含まれる特徴部分CPの位置とを照合することにより、撮影画像Fに地図情報M上のどの位置が撮影されているのかを認識して、地図情報M上における撮影画像Fの位置を同定するマッチング処理を行う。
なお、地図情報Mが2次元地図データとして記憶部3に格納されているときには、走行環境認識部8は、撮影画像Fを上方視の画像に射影変換すると共に上方視画像に認識した被撮影物Oの特徴部分CPの位置情報を追加し、特徴部分CPの位置情報が追加された上方視画像と、特徴部分CPが含まれる地図情報Mとの位置関係とをパターン認識により照合することで、地図情報M上における撮影画像Fの位置を同定するようにしてもよい。
表示画像生成部9(本発明の「表示手段」に相当)は、走行環境認識部8により撮影画像Fの地図情報M上の位置が同定された結果、図3(a)に示すように、地図情報Mと自車1の位置とに基づいて設定された案内経路に該当する交差点ISなどが撮影画像Fに含まれていると判断されるときには、ガイド図形Gなどのナビゲーション情報が表示されるべき当該交差点ISなどの地図情報M上での位置に相当すると推定される撮影画像F中の位置に当該ナビゲーション情報を重畳した画像データを生成する。
車載モニタ10(本発明の「表示手段」に相当)は、ドライバに対してカーナビゲーション用の地図などを表示するものであって、例えばインストルメントパネルなどに取付けられたCRT、液晶ディスプレイなどの液晶モニタなどにより形成されており、表示画像生成部9により生成された画像データであって、地図情報Mに基づいて生成されるナビゲーション情報が撮影画像Fに重畳された画像を表示する(図3(b)参照)。
なお、表示画像生成部9は、ナビゲーション情報が表示されるべき交差点ISなどが撮影画像F中に含まれていないときには、車載モニタ10に表示される画像として、ナビゲーション情報が重畳表示されない撮影画像Fの画像データを生成する。
また、撮影画像Fの地図情報M上の位置が正確に同定されることにより、車載カメラ4の自車1への取付状態および撮影方向などから、自車位置推定部7により推定される地図情報M上における自車1の位置を正確に補正することができる。したがって、表示画像生成部9は、自車位置推定部7による自車1の位置と地図情報Mとに基づいたナビゲーション情報が表示されるべき撮影画像F中の位置を自車1の位置を基準として導出し、撮影画像F中の自車1の位置を基準とした位置にナビゲーション情報を重畳して、車載モニタ10に表示するための画像データを生成してもよい。
また、撮影画像Fに重畳表示されるナビゲーション情報としては、図3(b)に示すような進行方向を示すガイド図形Gに限られず、各種店舗情報や、ランドマークに関する情報など、どのようなものであってもよい。
そして、自車位置推定部7、走行環境認識部8、表示画像生成部9は、マイクロコンピュータのソフトウェア処理によって形成される。
次に、自車1に搭載される運転支援装置2による処理の一例について図4を参照して説明する。
図4はナビゲーション処理を示し、車載カメラ4により撮影されて記憶部3に記憶された撮影画像Fが、走行環境認識部8により取得されて(ステップS1)、撮影画像Fに含まれる被撮影物Oの特徴部分CPがパターン認識により認識されることで特徴部分CPの互いの位置関係などが抽出される(ステップS2)。
次に、自車位置推定部7により推定された自車1の位置に基づいて、記憶部3に記憶されたナビゲーション用の地図情報Mから、自車1周辺の地図情報Mが走行環境認識部8により取得される(ステップS3)。そして、撮影画像Fに含まれる被撮影物Oの特徴部分CPの位置と、取得された自車1周辺の地図情報Mに含まれる特徴部分CPの位置とが照合されることにより、撮影画像Fの地図情報M上の位置を同定するマッチング処理が走行環境認識部8により実行される(ステップS4)。
続いて、マッチング処理の結果に応じて、撮影画像F中の所定の位置にナビゲーション情報が重畳された画像データが表示画像生成部9により生成されて(ステップS5)、生成された画像データが車載モニタ10に表示される(ステップS6)。
以上のように、この実施形態によれば、車載カメラ4による撮影画像Fに含まれる被撮影物Oの特徴部分CPの位置と、自車位置推定部7により検出された自車1の位置に応じて取得された地図情報Mに含まれる被撮影物Oの特徴部分CPに対応する位置とが照合されることにより、地図情報M上における撮影画像Fの位置が走行環境認識部8により同定されることで、撮影画像Fに含まれる被撮影物Oの地図情報M上における位置、すなわち、撮影画像Fに地図情報M上のどこの位置が撮影されているのかが正確に同定される。したがって、取得された地図情報Mに基づいて生成されるナビゲーション情報が表示されるべき地図情報M上の位置と、撮影画像F上の位置とが正確に対応付けされているため、ナビゲーション情報を撮影画像F中の正確な位置に重畳表示することができる。
また、撮影画像Fの地図情報M上の位置が正確に同定されることにより、車載カメラ4の自車1への取付状態および撮影方向などから、自車位置推定部7による地図情報M上における自車1の位置を正確に補正することができるため、補正された自車1の位置に関する情報および地図情報Mに基づいて目的地までの最適なナビゲーション情報を生成することができる。したがって、最短経路で目的地に向かうことができるので、低燃費化を図ることができる。
また、1または2以上の被撮影物Oの複数の特徴部分CPの位置について照合が行われることにより、撮影画像Fの地図情報M上の位置をより正確に走行環境認識部8により同定することができる。
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、ナビゲーション用の地図情報Mをサーバなどに格納しておき、無線通信手段などによりサーバ上の地図情報Mを取得するようにしてもよい。
また、撮影画像Fの地図情報M上の位置を正確に同定することができるのであれが、必ずしも複数の特徴部分CPを用いて撮影画像Fおよび地図情報Mの位置の同定を行わなくともよい。また、撮影画像Fおよび地図情報Mに含まれる複数の特徴部分CPの全ての位置関係が一致しなくとも、所定の割合以上の特徴部分CPの位置関係が一致することを条件として、撮影画像Fの地図情報M上の位置を同定するようにしてもよい。
また、上記した実施形態では、常に車載カメラ4による撮影画像Fを車載モニタ10に表示するように構成されているが、通常は、一般的なカーナビゲーション用の地図を車載モニタ10に表示し、自車1が交差点などのナビゲーション情報が必要な場所に近づいたときだけ、ナビゲーション情報が重畳された撮影画像Fを車載モニタ10に表示するようにしてもよい。また、このとき、ナビゲーション情報が重畳された撮影画像Fを、一般的なカーナビゲーション用の地図にスーパーインポーズして車載モニタ10に表示してよい。
また、車載カメラ4による撮影画像Fを、ドライバの視線により近い画像に変換して車載モニタ10に表示してもよい。
また、運転支援装置2は図1の構成に限るものではないのは勿論である。
また、本発明は、撮影手段により撮影された撮影画像Fにナビゲーション情報を重畳表示することによる種々の運転支援に適用することができる。
1 自車
4 車載カメラ(撮影手段)
7 自車位置推定部(検出手段)
8 走行環境認識部(取得手段、マッチング手段)
9 表示画像生成部(表示手段)
10 車載モニタ(表示手段)
CP 特徴部分
F 撮影画像
G ガイド図形(ナビゲーション情報)
M 地図情報
O 被撮影物

Claims (2)

  1. 自車位置を検出する検出手段と、
    前記検出手段により検出された自車位置に応じた地図情報を取得する取得手段と、
    自車に搭載された自車両周辺を撮影する撮影手段と、
    前記撮影手段による撮影画像に含まれる被撮影物の特徴部分の位置と、前記取得手段により取得された前記地図情報に含まれる前記被撮影物の特徴部分に対応する位置とを照合することにより、前記地図情報上における前記撮影画像の位置を同定するマッチング手段と、
    前記地図情報に基づいて生成されるナビゲーション情報を前記マッチング手段による同定が行われた前記撮影画像に重畳して表示する表示手段と
    を備えることを特徴とする運転支援装置。
  2. 請求項1に記載の運転支援装置において、
    前記マッチング手段は、1または2以上の前記被撮影物の複数の前記特徴部分の位置について照合を行うことを特徴とする運転支援装置。
JP2010143530A 2010-06-24 2010-06-24 運転支援装置 Withdrawn JP2012007983A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010143530A JP2012007983A (ja) 2010-06-24 2010-06-24 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010143530A JP2012007983A (ja) 2010-06-24 2010-06-24 運転支援装置

Publications (1)

Publication Number Publication Date
JP2012007983A true JP2012007983A (ja) 2012-01-12

Family

ID=45538703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010143530A Withdrawn JP2012007983A (ja) 2010-06-24 2010-06-24 運転支援装置

Country Status (1)

Country Link
JP (1) JP2012007983A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246319A (ja) * 2012-05-25 2013-12-09 Fuji Television Network Inc 画像表示装置及び画像表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246319A (ja) * 2012-05-25 2013-12-09 Fuji Television Network Inc 画像表示装置及び画像表示方法

Similar Documents

Publication Publication Date Title
JP4847090B2 (ja) 位置測位装置、および位置測位方法
US10885791B2 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
JP4940168B2 (ja) 駐車スペース認識装置
JP6241422B2 (ja) 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体
JP4696248B2 (ja) 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP6775188B2 (ja) ヘッドアップディスプレイ装置および表示制御方法
JP6033689B2 (ja) クルーズコントロール装置及びその方法、並びに車両特定装置
CN110998684B (zh) 图像收集系统、图像收集方法、图像收集装置、记录介质
JP2006284281A (ja) 自車情報認識装置及び自車情報認識方法
US11938945B2 (en) Information processing system, program, and information processing method
WO2016031229A1 (ja) 道路地図作成システム、データ処理装置および車載装置
JP2008082932A (ja) ナビゲーション装置、その制御方法及び制御プログラム
JPWO2004048895A1 (ja) 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US9014964B2 (en) Navigation apparatus capable of providing real-time navigation images
JP4953015B2 (ja) 自車位置認識装置と自車位置認識プログラム、及びこれを用いたナビゲーション装置
CN112414430B (zh) 一种电子导航地图质量检测方法及装置
JP4800252B2 (ja) 車載装置及び交通情報提示方法
WO2019119358A1 (en) Method, device and system for displaying augmented reality poi information
JP5573266B2 (ja) 車両用対象物画像認識装置、車両用対象物画像認識方法及びコンピュータプログラム
JP2012007983A (ja) 運転支援装置
JP2007010515A (ja) ナビゲーション装置
JP2006010328A (ja) 車両位置特定装置
JP2014074627A (ja) 車両用ナビゲーションシステム
JP2013077122A (ja) 事故解析装置、事故解析方法、および、プログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903