JP7051335B2 - Driving support device and driving support method - Google Patents
Driving support device and driving support method Download PDFInfo
- Publication number
- JP7051335B2 JP7051335B2 JP2017167380A JP2017167380A JP7051335B2 JP 7051335 B2 JP7051335 B2 JP 7051335B2 JP 2017167380 A JP2017167380 A JP 2017167380A JP 2017167380 A JP2017167380 A JP 2017167380A JP 7051335 B2 JP7051335 B2 JP 7051335B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- driving support
- image representing
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、運転支援技術に関する。 The present invention relates to a driving assist technique.
車両に搭載されたナビゲーション装置は、当該車両の現在位置から目的地までの走行経路を算出して案内する。具体的には、当該ナビゲーション装置は、当該車両の現在位置近傍の地図画像に案内経路を重畳した画像を表示装置に表示させ、右折指示や左折指示などの経路案内に関する音声ガイダンスをスピーカに出力させて、当該車両の現在位置から目的地までの走行経路を案内する。また、右折や左折が必要な場合に右折や左折を指示する矢印などを重畳した画像を表示装置に表示させる機能を有するナビゲーション装置も存在する。 The navigation device mounted on the vehicle calculates and guides the traveling route from the current position of the vehicle to the destination. Specifically, the navigation device displays an image in which a guidance route is superimposed on a map image near the current position of the vehicle on the display device, and outputs voice guidance regarding route guidance such as a right turn instruction or a left turn instruction to a speaker. Then, the travel route from the current position of the vehicle to the destination is guided. In addition, there is also a navigation device having a function of displaying an image on which an arrow indicating a right turn or a left turn is superimposed when a right turn or a left turn is required on the display device.
しかしながら、上記の音声ガイダンスや矢印表示は、どのように車両を運転すれば良いかが分かり難い場合があり、運転者が適切な運転を実行し難い場合がある。例えば、五叉路などの右折候補や左折候補となる道路が複数存在する交差点において、上記の音声ガイダンスや矢印表示によって右折や左折が指示されても、運転者が適切な走行路を直感的に把握できない場合がある。 However, the above voice guidance and arrow display may make it difficult to understand how to drive the vehicle, and it may be difficult for the driver to perform appropriate driving. For example, at an intersection where there are multiple roads that are candidates for right or left turns, such as a five-forked road, even if the above voice guidance or arrow display indicates a right or left turn, the driver can intuitively find the appropriate road. It may not be possible to grasp.
なお、特許文献1で開示されている車輌用画像表示システムでは、自動運転システムが自車輌に予定した走行行動と異なる予定外の走行行動を取らせようとする場合に、事前に予定外の走行行動を仮想車輌によって視覚的に表すイメージ画像を予告表示している。特許文献1で開示されている車輌用画像表示システムは、自動運転システムが自車輌に予定した走行行動と異なる予定外の走行行動を取らせようとする場合を想定しているため、目的地までの経路を案内する運転支援に適用することができない。
In the vehicle image display system disclosed in
本発明は、上記課題に鑑みて、運転者の負担を軽減しながら自車両を目的地まで誘導することができる運転支援技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a driving support technique capable of guiding an own vehicle to a destination while reducing the burden on the driver.
本発明に係る運転支援装置は、仮想車両を表す像を生成する生成部と、自車両の周辺の風景を表す風景画像に前記仮想車両を表す像を重畳する重畳部と、を備え、前記仮想車両を表す像は、前記風景画像中において前記自車両がこれから走行すべき位置に対応する領域に重畳され、前記自車両がこれから走行すべき位置は、前記自車両の目的地までの案内経路に沿って移動する構成(第1の構成)である。 The driving support device according to the present invention includes a generation unit that generates an image representing a virtual vehicle, and a superimposing unit that superimposes an image representing the virtual vehicle on a landscape image representing the scenery around the own vehicle. The image representing the vehicle is superimposed on the region corresponding to the position where the own vehicle should travel in the landscape image, and the position where the own vehicle should travel from now on is the guide route to the destination of the own vehicle. It is a configuration that moves along (first configuration).
上記第1の構成の運転支援装置において、前記生成部は、前記自車両を表す像をさらに生成し、前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳される構成(第2の構成)であってもよい。 In the driving support device of the first configuration, the generation unit further generates an image representing the own vehicle, and the image representing the own vehicle is a region corresponding to the current position of the own vehicle in the landscape image. It may be a configuration (second configuration) superimposed on the.
上記第1又は第2の構成の運転支援装置において、前記仮想車両を表す像は、前記風景画像中において、前記自車両の現在位置に出現し、その後前記自車両がこれから走行すべき位置まで移動する構成(第3の構成)であってもよい。 In the driving support device of the first or second configuration, the image representing the virtual vehicle appears at the current position of the own vehicle in the landscape image, and then moves to the position where the own vehicle should travel from now on. It may be the configuration (third configuration).
上記第1~第3いずれかの構成の運転支援装置において、前記自車両がこれから走行すべき位置が前記目的地に到達すると、前記仮想車両を表す像は、前記風景画像中において前記目的地で停止し、その後前記自車両の現在位置が前記目的地に到達すると前記風景画像中から消滅する構成(第4の構成)であってもよい。 In the driving support device having any of the first to third configurations, when the position where the own vehicle should travel reaches the destination, the image representing the virtual vehicle is displayed at the destination in the landscape image. It may be a configuration (fourth configuration) in which the vehicle stops and then disappears from the landscape image when the current position of the own vehicle reaches the destination.
上記第1~第4いずれかの構成の運転支援装置において、前記仮想車両を表す像に対して前記自車両の現在位置が追従しているか否かを判定する判定部と、前記判定部の判定結果に応じて前記仮想車両を表す像の態様を変更する態様変更部と、を備える構成(第5の構成)であってもよい。 In the driving support device having any of the first to fourth configurations, a determination unit for determining whether or not the current position of the own vehicle is following the image representing the virtual vehicle, and a determination unit for determining whether or not the current position of the own vehicle is following. The configuration may include a mode changing unit that changes the mode of the image representing the virtual vehicle according to the result (fifth configuration).
上記第1~第5いずれかの構成の運転支援装置において、前記仮想車両を表す像に対して前記自車両の現在位置が追従していない状態が所定のレベルより悪化すると、前記仮想車両を表す像は、前記風景画像中から消滅する構成(第6の構成)であってもよい。 In the driving support device having any of the first to fifth configurations, when the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle becomes worse than a predetermined level, the virtual vehicle is represented. The image may have a configuration (sixth configuration) that disappears from the landscape image.
上記第1~第6いずれかの構成の運転支援装置において、前記仮想車両を表す像は、前記案内経路の長さが所定値になった時点で、前記風景画像中において出現する構成(第7の構成)であってもよい。 In the driving support device having any of the first to sixth configurations, the image representing the virtual vehicle appears in the landscape image when the length of the guide path reaches a predetermined value (seventh). The configuration of) may be used.
本発明に係る運転支援方法は、仮想車両を表す像を生成する生成工程と、自車両の周辺の風景を表す風景画像に前記仮想車両を表す像を重畳する重畳工程と、を備え、前記仮想車両を表す像は、前記風景画像中において前記自車両がこれから走行すべき位置に対応する領域に重畳され、前記自車両がこれから走行すべき位置は、前記自車両の目的地までの案内経路に沿って移動する構成(第8の構成)である。 The driving support method according to the present invention includes a generation step of generating an image representing a virtual vehicle and a superimposing step of superimposing an image representing the virtual vehicle on a landscape image representing the scenery around the own vehicle. The image representing the vehicle is superimposed on the region corresponding to the position where the own vehicle should travel in the landscape image, and the position where the own vehicle should travel from now on is the guide route to the destination of the own vehicle. It is a configuration that moves along (eighth configuration).
本発明によると、仮想車両に追従する運転が可能となるので、運転者の負担を軽減しながら自車両を目的地まで誘導することができる。 According to the present invention, since it is possible to drive following the virtual vehicle, it is possible to guide the own vehicle to the destination while reducing the burden on the driver.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.
<1.運転支援装置の構成例>
図1は運転支援装置の構成例を示す図である。図1に示す運転支援装置201は、例えば自動車などの車両に搭載されている。以下、運転支援装置201が搭載される車両を「自車両」という。また、自車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方」という。また、自車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」という。
<1. Configuration example of driving support device>
FIG. 1 is a diagram showing a configuration example of a driving support device. The
図1に示すフロントカメラ11、バックカメラ12、左サイドカメラ13、右サイドカメラ14、ナビゲーション装置15、車両制御ECU16、運転支援装置201、表示装置31、及びスピーカ32は自車両に搭載される。
The
図2は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)が自車両V1に配置される位置を例示する図である。
FIG. 2 is a diagram illustrating positions where four in-vehicle cameras (
フロントカメラ11は自車両V1の前端に設けられる。フロントカメラ11の光軸11aは上からの平面視で自車両V1の前後方向に沿っている。フロントカメラ11は自車両V1の前方向を撮影する。バックカメラ12は自車両V1の後端に設けられる。バックカメラ12の光軸12aは上からの平面視で自車両V1の前後方向に沿っている。バックカメラ12は自車両V1の後方向を撮影する。フロントカメラ11及びバックカメラ12の取付位置は、自車両V1の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
The
左サイドカメラ13は自車両V1の左側ドアミラーM1に設けられる。左サイドカメラ13の光軸13aは上からの平面視で自車両V1の左右方向に沿っている。左サイドカメラ13は自車両V1の左方向を撮影する。右サイドカメラ14は自車両V1の右側ドアミラーM2に設けられる。右サイドカメラ14の光軸14aは上からの平面視で自車両V1の左右方向に沿っている。右サイドカメラ14は自車両V1の右方向を撮影する。なお、自車両V1がいわゆるドアミラーレス車である場合には、左サイドカメラ13は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ14は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。
The
各車載カメラの水平方向の画角θは180度以上である。このため、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)によって、自車両V1の水平方向における全周囲を撮影することができる。なお、本実施形態では、車載カメラの数を4つとしているが、車載カメラの撮影画像を用いて後述する俯瞰画像を作成するために必要な車載カメラの数は4つに限られることはなく、複数のカメラであればよい。一例として、各車載カメラの水平方向の画角θが比較的広い場合は、4つよりも少ない3つのカメラから取得される3つの撮影画像に基づき俯瞰画像を生成してもよい。さらに、別の例として、各車載カメラの水平方向の画角θが比較的狭い場合は、4つよりも多い5つのカメラから得られる5つの撮影画像に基づき俯瞰画像を生成してもよい。
The horizontal angle of view θ of each vehicle-mounted camera is 180 degrees or more. Therefore, four in-vehicle cameras (
図1に戻って、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)は、撮影画像を運転支援装置201に出力する。ナビゲーション装置15は、自車両の現在位置情報及び地図情報を運転支援装置201に出力する。車両制御ECU16は、自車両の車速情報を運転支援装置201に出力する。車両制御ECU16の代わりに車速センサが自車両の車速情報を運転支援装置201に直接出力するようにしてもよい。
Returning to FIG. 1, the four vehicle-mounted cameras (
運転支援装置201は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)から出力される撮影画像を処理し、処理後の画像を表示装置31に出力する。また、運転支援装置201は、音声をスピーカ32から出力させる制御を行う。
The driving
表示装置31は、自車両のドライバーが表示装置31の表示画面を視認できる位置に設けられ、運転支援装置201から出力される画像を表示する。表示装置31としては、例えばセンターコンソールに設置されるディスプレイ、運転席の対向位置に設置されるメータディスプレイ、フロントガラスに画像を投影するヘッドアップディスプレイなどを挙げることができる。
The
スピーカ32は、運転支援装置201の制御に従って音声を出力する。
The
運転支援装置201は、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等のハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて運転支援装置201を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、当該プログラムをプログラム実行装置上で実行することによって、その機能を実現するようにしてもよい。プログラム実行装置としては、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータを挙げることができる。
The driving
運転支援装置201は、撮影画像取得部21と、画像生成部22と、音声制御部23と、を備える。
The driving
撮影画像取得部21は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した撮影画像がアナログの場合には、撮影画像取得部21は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。撮影画像取得部21は、取得した撮影画像、或いは、取得及び変換した撮影画像を、画像生成部22に出力する。
The captured
画像生成部22は、俯瞰画像生成部22aと、仮想車両生成部22bと、案内経路取得部22cと、重畳部22dと、判定部22eと、態様変更部22fと、を備える。
The
俯瞰画像生成部22aは、撮影画像取得部21によって取得された撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、俯瞰画像生成部22aは、図3に示す仮想的な三次元空間における仮想投影面100の第1領域R1にフロントカメラ11の撮影画像を投影して、フロントカメラ11の撮影画像を第1の投影画像に変換する。同様に、俯瞰画像生成部22aは、図3に示す仮想投影面100の第2~第4領域R2~R4それぞれにバックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像を投影して、バックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像それぞれを第2~第4の投影画像に変換する。
The bird's-eye view
図3に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、自車両V1が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、自車両V1から離れた位置に存在する物体の像の歪みを少なくすることができる。また、第1~第4領域R1~R4それぞれは、隣接する他の領域と重複する部分を有している。このような重複部分を設けることで、領域の境界部分に投影される物体の像が投影画像から消失することを防止することができる。
The
俯瞰画像生成部22aは、複数の投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、俯瞰画像生成部22aは、第1~第4の投影画像を仮想投影面100の第1~第4領域R1~R4に仮想的に貼り付ける。
The bird's-eye view
また、俯瞰画像生成部22aは、自車両V1の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両V1のモデルは、仮想投影面100が設定される仮想的な三次元空間において、自車両V1が存在する位置として定められた位置(仮想投影面100の中心部分)に第1領域R1が前側、第4領域R4が後ろ側に成るように配置される。
Further, the bird's-eye view
さらに、俯瞰画像生成部22aは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視野方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視野方向は、任意の視点位置及び任意の視野方向に設定することができる。本実施形態では、仮想視点の視点位置を自車両より後方且つ上方とし、仮想視点の視野方向を自車両の前方且つ下方とする。これにより、俯瞰画像生成部22aが生成する仮想視点画像が俯瞰画像となる。また、仮想視点の視点位置を自車両より後方且つ上方とし、仮想視点の視野方向を自車両の前方且つ下方とすることで、運転者は自車両と後述する仮想車両との位置関係をより的確に確認することができる。なお、本実施形態とは異なり、例えば視点位置を標準的な運転者の目の位置とし、視野方向を自車両の前方にしてもよい。
Further, the bird's-eye view
俯瞰画像生成部22aは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出す。また、俯瞰画像生成部22aは、設定した仮想視点に応じて、ポリゴンのモデルに関してレンダリングを行い、自車両V1のレンダリング像を生成する。そして、俯瞰画像生成部22aは、切り出した画像に対して自車両V1のレンダリング像を重畳した俯瞰画像を生成する。すなわち、俯瞰画像生成部22aは、自車両を表す像を生成している。また、自車両V1のレンダリング像(自車両を表す像)は、俯瞰画像中の自車両の現在位置に対応する領域に重畳されている。
The bird's-eye view
仮想車両生成部22bは、CG(Computer Graphics)を用いて仮想車両を表す像を生成する。
The virtual
案内経路取得部22cは、自車両の現在位置から目的地までの案内経路に関する情報(案内経路情報)を取得する。例えば、案内経路取得部22cは、自車両の現在位置と地図情報から案内経路取得部22c自身が案内経路情報を生成することで案内経路情報を取得してもよく、目的地がナビゲーション装置15において設定されている目的地と一致する場合にはナビゲーション装置15から案内経路情報を取得してもよい。
The guidance route acquisition unit 22c acquires information (guidance route information) regarding the guidance route from the current position of the own vehicle to the destination. For example, the guide route acquisition unit 22c may acquire the guide route information by generating the guide route information by the guide route acquisition unit 22c itself from the current position of the own vehicle and the map information, and the destination is the
重畳部22dは、仮想車両を表す像を俯瞰画像に重畳する。仮想車両を表す像は、俯瞰画像中において自車両がこれから走行すべき位置に対応する領域に重畳される。自車両の走行に伴って、自車両の現在位置及び自車両がこれから走行すべき位置が変化する。このため、自車両がこれから走行すべき位置は、自車両の目的地までの案内経路に沿って移動する。
The superimposing
判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従しているか否かを判定する。
The
態様変更部22fは、判定部22eの判定結果に応じて仮想車両を表す像の態様を変更する。
The
音声制御部23は、例えば仮想車両を表す像の出現時や消滅時に仮想車両を表す像が出現したことや消滅したことを報知する通知音をスピーカ32に発生させる。
The
<2.運転支援装置の動作例>
図4は、運転支援装置201の動作例を示すフローチャートである。運転支援装置201は起動完了後に図4に示すフロー動作を開始する。
<2. Operation example of driving support device>
FIG. 4 is a flowchart showing an operation example of the driving
図4に示すフロー動作が開始されると、まず撮影画像取得部21が4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)から撮影画像を取得する(ステップS10)。
When the flow operation shown in FIG. 4 is started, the captured
次に俯瞰画像生成部22aが撮影画像取得部21によって取得された撮影画像を用いて俯瞰画像を生成する(ステップS20)。
Next, the bird's-eye view
次に画像生成部22は目的地の有無を判定する(ステップS30)。目的地は、運転支援装置201に操作部を設けて操作部を用いた入力操作によって設定されてもよく、ナビゲーション装置15による案内に連動して自動的に設定されてもよい。
Next, the
例えば、ナビゲーション装置15によって交差点での左折が指示される場合には、交差点での左折が完了してから少し進んだ位置を運転支援装置201での目的地に設定してもよい。例えば、ナビゲーション装置15による案内の目的地が所定の駐車場である場合は、所定の駐車場の入り口に設置されている発券機の隣接位置或いは所定の駐車場内の駐車位置を運転支援装置201での目的地に設定してもよい。
For example, when the
運転支援装置201での目的地は自車両の周辺状況などに応じて自動的に変更されることが望ましい。例えば、運転支援装置201が、左折時に自車両の左後方から接近してくる二輪車などの障害物を検知した場合、運転支援装置201での目的地を、交差点での左折が完了してから少し進んだ位置から交差点の手前位置に変更し、障害物の通過を確認した後に運転支援装置201での目的地を、交差点での左折が完了してから少し進んだ位置に戻せばよい。なお、障害物の検知には、例えば車載カメラの撮影画像を用いたり、自車両に搭載したレーダ装置から出力される情報、クラウドセンターとの通信、車車間通信、路車間通信などで得られる情報などを用いたりすることができる。
It is desirable that the destination of the driving
目的地がなければステップS10に戻り、目的地があればステップS40に移行する。以下の説明では、運転支援装置201での目的地を所定の駐車場の入り口に設置されている発券機の隣接位置とする。
If there is no destination, the process returns to step S10, and if there is a destination, the process proceeds to step S40. In the following description, the destination of the driving
ステップS40において、仮想車両生成部22bが仮想車両を表す像を生成する。
In step S40, the virtual
ステップS40に続くステップS50において、重畳部22dが仮想車両を表す像を俯瞰画像に重畳する。
In step S50 following step S40, the superimposing
本実施形態では、仮想車両を表す像が、俯瞰画像中において、自車両の現在位置に出現し、その後自車両がこれから走行すべき位置まで移動するように、重畳部22dが仮想車両を表す像を俯瞰画像に重畳する。
In the present embodiment, an image representing the virtual vehicle appears in the bird's-eye view image at the current position of the own vehicle, and then the superimposing
具体的には、仮想車両を表す像が俯瞰画像に重畳されていない状態で、ステップS50の処理を行う場合には、仮想車両を表す像は、俯瞰画像中の自車両の現在位置に対応する領域に重畳される。したがって、ステップS50の処理により、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図5に示す俯瞰画像から図6に示す俯瞰画像に変化する。図5に示す俯瞰画像には自車両のレンダリング像VR1が重畳されており、図6に示す俯瞰画像には自車両のレンダリング像VR1及び仮想車両を表す像V2が重畳されている。なお、仮想車両を表す像V2は透過性を有する像である。
Specifically, when the process of step S50 is performed in a state where the image representing the virtual vehicle is not superimposed on the bird's-eye view image, the image representing the virtual vehicle corresponds to the current position of the own vehicle in the bird's-eye view image. Overlaid on the area. Therefore, the bird's-eye view image output from the driving
一方、すでに仮想車両を表す像が俯瞰画像に重畳されている状態で、ステップS50の処理を行う場合には、仮想車両を表す像は、俯瞰画像中において自車両がこれから走行すべき位置(案内経路上の自車両の現在位置より先行した位置)に対応した領域に重畳される。したがって、ステップS50の処理が繰り返されることにより、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図6に示す俯瞰画像から図7に示す俯瞰画像に変化する。そして、その後、仮想車両を表す像が俯瞰画像中の目的地まで来ると、仮想車両を表す像はその目的地の位置で停止する(後述する図8~図10参照)。
On the other hand, when the process of step S50 is performed in a state where the image representing the virtual vehicle is already superimposed on the bird's-eye view image, the image representing the virtual vehicle is the position (guidance) from which the own vehicle should travel in the bird's-eye view image. It is superimposed on the area corresponding to the position (position ahead of the current position of the own vehicle on the route). Therefore, by repeating the process of step S50, the bird's-eye view image output from the driving
仮想車両を表す像の出現当初は仮想車両の車速を自車両の車速より速くして、仮想車両を表す像を自車両の現在位置から自車両がこれから走行すべき位置に移動させる。そして、仮想車両が案内経路上で自車両から所定距離先行した時点で仮想車両の車速を自車両の車速に一致させて、仮想車両が自車両から離れすぎることを防止する。 At the beginning of the appearance of the image representing the virtual vehicle, the vehicle speed of the virtual vehicle is made faster than the vehicle speed of the own vehicle, and the image representing the virtual vehicle is moved from the current position of the own vehicle to the position where the own vehicle should travel from now on. Then, when the virtual vehicle precedes the own vehicle by a predetermined distance on the guide path, the vehicle speed of the virtual vehicle is matched with the vehicle speed of the own vehicle to prevent the virtual vehicle from being too far from the own vehicle.
上記のように仮想車両が自車両がこれから走行すべき位置に存在するため、仮想車両が自車両にとっての先導車となる。したがって、仮想車両に追従する運転が可能となり、運転者の負担を軽減しながら自車両を目的地まで誘導することができる。 Since the virtual vehicle exists at the position where the own vehicle should travel as described above, the virtual vehicle becomes the leading vehicle for the own vehicle. Therefore, it is possible to drive following the virtual vehicle, and it is possible to guide the own vehicle to the destination while reducing the burden on the driver.
また、上記のように自車両と仮想車両が俯瞰画像に含まれるため、運転者は自車両と仮想車両との位置関係を直感的に把握することができる。したがって、仮想車両に追従する運転が容易になる。 Further, since the own vehicle and the virtual vehicle are included in the bird's-eye view image as described above, the driver can intuitively grasp the positional relationship between the own vehicle and the virtual vehicle. Therefore, the driving following the virtual vehicle becomes easy.
また、上記のように仮想車両を表す像が自車両の現在位置に出現し、その後自車両がこれから走行すべき位置に移動することで、仮想車両があたかも自車両から分離して先行するように見えるため、運転者は仮想車両の走行経路が自車両の走行すべき経路であることを直感的に把握することができる。 In addition, as described above, an image representing the virtual vehicle appears at the current position of the own vehicle, and then the own vehicle moves to the position where it should travel, so that the virtual vehicle is separated from the own vehicle and precedes. Since it is visible, the driver can intuitively grasp that the travel route of the virtual vehicle is the route that the own vehicle should travel.
ステップS50に続くステップS60において、判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従しているか否かを判定する。具体的には、判定部22eは、仮想車両の走行経路すなわち案内経路取得部22cによって取得された案内経路上から自車両が車幅方向に第1閾値以上離れている場合に、仮想車両を表す像に対して自車両の現在位置が追従していないと判定する。運転支援装置201は第1閾値を不揮発的に記憶している。
In step S60 following step S50, the
仮想車両を表す像に対して自車両の現在位置が追従していれば、ステップS70に移行する。ステップS70において、画像生成部22は、自車両の現在位置に基づいて、自車両の現在位置が目的地に到着したか否かを判定する。
If the current position of the own vehicle follows the image representing the virtual vehicle, the process proceeds to step S70. In step S70, the
自車両の現在位置が目的地に到着していなければ、直ちにステップS10に戻る。一方、自車両の現在位置が目的地に到着していれば、仮想車両を表す像と自車両を表す像とが重なり、重なった直後に重畳部22は仮想車両を表す像を俯瞰画像中から消滅させ(ステップS80)、画像生成部22が目的地の設定をリセットしてからステップS10に戻る。なお、目的地の設定がリセットされた直後に、次の目的地が設定される場合もあり、次の目的地が設定されない場合もある。したがって、ステップS80の処理により、自車両が目的地に到着する直前から自車両が目的地に到着した直後において、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図8に示す俯瞰画像、図9に示す俯瞰画像、図10に示す俯瞰画像、図11に示す俯瞰画像の順に変化する。なお、図8~図11に示す俯瞰画像中の発券機A1の隣接位置が目的地の位置である。
If the current position of the own vehicle has not arrived at the destination, the process immediately returns to step S10. On the other hand, if the current position of the own vehicle has arrived at the destination, the image representing the virtual vehicle and the image representing the own vehicle overlap, and immediately after the overlapping, the superimposing
上記のように仮想車両に表す像は目的地に到達しても自車両が目的地に到達するまでは消滅しない。これにより、運転者にとって、自車両を目的地の位置で正確に停止させることが容易になる。例えば、本例のように発券機A1の隣接位置が目的地の位置である場合には、目的地の位置から数十センチメートルずれただけで運転者が駐車券を取ることが困難になるので、特に有用である。 As described above, the image represented by the virtual vehicle does not disappear until the own vehicle reaches the destination even if it reaches the destination. This makes it easier for the driver to accurately stop the vehicle at the destination position. For example, when the adjacent position of the ticket issuing machine A1 is the position of the destination as in this example, it is difficult for the driver to take the parking ticket even if the position is deviated by several tens of centimeters from the position of the destination. , Especially useful.
また、上記のように仮想車両を表す像と自車両を表す像とが重なった直後に仮想車両を表す像が俯瞰画像中から消滅することにより、運転者は、自車両が目的地の位置で正確に停止したことを直感的に把握することができる。 Further, as described above, the image representing the virtual vehicle disappears from the bird's-eye view image immediately after the image representing the virtual vehicle and the image representing the own vehicle overlap, so that the driver can see the own vehicle at the destination position. It is possible to intuitively grasp that the vehicle has stopped accurately.
ステップS60の判定処理において、仮想車両を表す像に対して自車両の現在位置が追従していないと判定された場合には、ステップS90に移行する。 If it is determined in the determination process of step S60 that the current position of the own vehicle does not follow the image representing the virtual vehicle, the process proceeds to step S90.
ステップS90において、画像生成部22は、仮想車両を表す像を警告用の態様に変更する。この警告用の態様は、仮想車両を表す像に対する自車両の現在位置の追従が回復するまで維持される。非警告用の態様と警告用の態様の組合せ例としては、非警告用の態様が透過性を有する黄色表示であり警告用の態様が透過性を有する赤色表示である組合せ、非警告用の態様が非点滅表示であり警告用の態様が点滅表示である組合せなどを挙げることができる。
In step S90, the
上記のようにステップS60の判定処理での判定結果に応じて、仮想車両を表す像の態様が変更されることにより、運転者は自車両が案内経路から外れて走行していることを直感的に把握することができ、運転者の運転操作を正しい運転操作に導くことができる。 As described above, the mode of the image representing the virtual vehicle is changed according to the determination result in the determination process of step S60, so that the driver intuitively understands that the own vehicle is traveling off the guidance route. It is possible to guide the driver's driving operation to the correct driving operation.
ステップS90に続くステップS100において、判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化しているか否かを判定する。例えば、自車両の現在位置が追従していない状態が所定期間継続した場合に所定のレベルより悪化したと判定してもよく、案内経路上から自車両が車幅方向に第2閾値以上離れている場合に所定のレベルより悪化したと判定してもよい。なお、第2閾値は第1閾値よりも大きい値である。
In step S100 following step S90, the
仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化していなければ、ステップS70に移行する。一方、仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化していれば、重畳部22は仮想車両を表す像を俯瞰画像中から消滅させ(ステップS110)、運転支援装置201は、案内経路及び目的地の少なくとも一つを変更し(ステップS120)、その後ステップS10に戻る。なお、ステップS120での変更は、案内経路や目的地を削除する場合も含む。
If the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle is not worse than the predetermined level, the process proceeds to step S70. On the other hand, if the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle is worse than a predetermined level, the superimposing
上記のように仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化した場合に、仮想車両を表す像を俯瞰画像中から消滅させることにより、仮想車両による無駄な案内の発生を防止することができる。 When the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle becomes worse than a predetermined level as described above, the image representing the virtual vehicle disappears from the bird's-eye view image of the virtual vehicle. It is possible to prevent the occurrence of unnecessary guidance due to.
<3.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の変形例は可能な範囲で組み合わせて実施されてよい。
<3. Others>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. In addition, the plurality of modifications shown in the present specification may be combined and implemented to the extent possible.
例えば、運転支援装置201は、図4に示すフロー動作の代わりに、図12に示すフロー動作を行ってもよい。図12に示すフローチャートは、図4に示すフローチャートにステップS31を追加したものである。ステップS31は、ステップS30とステップS40との間に設けられる。
For example, the
ステップS31において、画像生成部22は、案内経路の長さが所定値以下であるか否かを判定する。案内経路の長さが所定値以下でなければ、ステップS10に戻り、案内経路の長さが所定値以下であれば、ステップS40に移行する。これにより、仮想車両を表す像を適切なタイミング(仮想車両による誘導が必要となるタイミング)で出現させることができる。
In step S31, the
ステップS31で用いる所定値は自車両の車速に応じて可変することが望ましい。画像生成部22は、例えば図13に示す自車両の車速と所定値との関係をデータテーブルや関係式の形式で不揮発的に記憶しておき、車両制御ECU16から自車両の車速情報を取得し、その取得した情報に基づいて所定値を変更する。自車両の車速と所定値との関係は図13のように自車両の車速に対して所定値が連続的に変化する関係に限定されることはなく、例えば図14に示すように自車両の車速に対して所定値が連続的に変化しない関係であってもよい。
It is desirable that the predetermined value used in step S31 is variable according to the vehicle speed of the own vehicle. For example, the
また、上述した実施形態では、仮想車両を表す像の出現位置が自車両の現在位置であったが、仮想車両を表す像の出現位置が出現当初から自車両がこれから走行すべき位置であってもよい。 Further, in the above-described embodiment, the appearance position of the image representing the virtual vehicle is the current position of the own vehicle, but the appearance position of the image representing the virtual vehicle is the position where the own vehicle should travel from the beginning of appearance. May be good.
また、上述した実施形態では、運転支援装置201から表示装置31に出力される画像(出力画像)の生成に撮影画像を用いたが、撮影画像を用いずに自車両周辺の風景を表すCG(Computer Graphics)を用いて出力画像を生成してもよい。自車両周辺の風景を表すCGを用いて出力画像を生成する場合には、運転支援装置201は例えばナビゲーション装置15から自車両周辺の風景を表すCGを取得するようにすればよい。
Further, in the above-described embodiment, the captured image is used to generate the image (output image) output from the driving
また、上述した実施形態では、自車両の進行方向は前方であったが、自車両の進行方向は後方であるときにも本発明を適用することができる。 Further, in the above-described embodiment, the traveling direction of the own vehicle is forward, but the present invention can be applied even when the traveling direction of the own vehicle is backward.
また、運転支援装置201から表示装置31に出力される出力画像に、自車両の車速情報や自車両のシフトレバーのレンジ情報などを含めてもよい。
Further, the output image output from the driving
また、上述した実施形態では、運転者が自車両と仮想車両との位置関係を直感的に把握できるように、仮想車両を表す像だけでなく自車両を表す像も俯瞰画像に重畳したが、自車両を表す像を俯瞰画像に重畳しないようにしてもよい。 Further, in the above-described embodiment, not only the image representing the virtual vehicle but also the image representing the own vehicle is superimposed on the bird's-eye view image so that the driver can intuitively grasp the positional relationship between the own vehicle and the virtual vehicle. The image representing the own vehicle may not be superimposed on the bird's-eye view image.
また、上述した実施形態では、運転支援装置が出力する出力画像は俯瞰画像であったが、運転支援装置が出力する出力画像は俯瞰画像に限定されることはなく、例えばフロントカメラ11の撮影画像に仮想車両を表す像などを重畳してもよい。 Further, in the above-described embodiment, the output image output by the driving support device is a bird's-eye view image, but the output image output by the driving support device is not limited to the bird's-eye view image. An image representing a virtual vehicle may be superimposed on the image.
21 カメラ画像取得部
22 画像生成部
23 音声制御部
201 運転支援装置
21 Camera
Claims (7)
前記自車両の周辺の風景を表す風景画像に前記仮想車両を表す像及び前記自車両を表す像を重畳する重畳部と、を備える運転支援装置であって、
前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳され、
前記仮想車両を表す像は、前記風景画像中において、案内経路上の前記自車両の現在位置より所定距離先行した位置に対応する領域に重畳され、
前記案内経路上の前記自車両の現在位置より所定距離先行した位置は、前記自車両の前記運転支援装置での目的地までの前記案内経路に沿って移動し、
前記運転支援装置での目的地は、ナビゲーション装置による前記自車両の現在位置から前記ナビゲーション装置での目的地までの走行経路の案内に連動して自動的に設定され、
前記風景画像は、前記自車両に設けられたカメラの撮影画像、前記撮影画像に基づき生成される俯瞰画像、又は、前記ナビゲーション装置から取得されるCG(Computer Graphics)のいずれかである、運転支援装置。 A generator that generates an image representing a virtual vehicle and an image representing the own vehicle,
A driving support device including a superimposing portion for superimposing an image representing the virtual vehicle and an image representing the own vehicle on a landscape image representing the scenery around the own vehicle.
The image representing the own vehicle is superimposed on the region corresponding to the current position of the own vehicle in the landscape image.
The image representing the virtual vehicle is superimposed on the region corresponding to the position corresponding to the position ahead of the current position of the own vehicle on the guide path by a predetermined distance in the landscape image.
A position that precedes the current position of the own vehicle on the guide path by a predetermined distance moves along the guide path to the destination of the driving support device of the own vehicle.
The destination in the driving support device is automatically set in conjunction with the guidance of the traveling route from the current position of the own vehicle to the destination in the navigation device by the navigation device.
The landscape image is either a captured image of a camera provided in the own vehicle, a bird's-eye view image generated based on the captured image, or CG (Computer Graphics) acquired from the navigation device. Device.
前記仮想車両を表す像は、前記風景画像中において、前記運転支援装置での目的地があると前記生成部によって判定されると前記自車両の現在位置に表示され、その後、時間の経過と共に前記仮想車両を表す像の表示位置は、前記案内経路上の前記自車両の現在位置より所定距離先行した位置まで移動する、請求項1に記載の運転支援装置。 The generation unit determines the presence or absence of a destination in the driving support device, and determines whether or not there is a destination.
The image representing the virtual vehicle is displayed at the current position of the own vehicle when the generation unit determines that there is a destination in the driving support device in the landscape image, and then, with the passage of time, the image is displayed. The driving support device according to claim 1, wherein the display position of the image representing the virtual vehicle moves to a position ahead of the current position of the own vehicle on the guide path by a predetermined distance.
前記判定部の判定結果に応じて前記仮想車両を表す像の態様を変更する態様変更部と、を備える、請求項1~3のいずれか一項に記載の運転支援装置。 A determination unit that determines whether or not the current position of the own vehicle follows the image representing the virtual vehicle based on the degree of deviation of the own vehicle from the guide path.
The driving support device according to any one of claims 1 to 3, further comprising an aspect changing unit that changes the aspect of an image representing the virtual vehicle according to a determination result of the determination unit.
前記自車両の周辺の風景を表す風景画像に前記仮想車両を表す像及び前記自車両を表す像を重畳する重畳工程と、を備える運転支援方法であって、、
前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳され、
前記仮想車両を表す像は、前記風景画像中において、案内経路上の前記自車両の現在位置より所定距離先行した位置に対応する領域に重畳され、
前記案内経路上の前記自車両の現在位置より所定距離先行した位置は、前記自車両の前記運転支援方法での目的地までの前記案内経路に沿って移動し、
前記運転支援方法での目的地は、ナビゲーション装置による前記自車両の現在位置から前記ナビゲーション装置での目的地までの走行経路の案内に連動して自動的に設定され、
前記風景画像は、前記自車両に設けられたカメラの撮影画像、前記撮影画像に基づき生成される俯瞰画像、又は、前記ナビゲーション装置から取得されるCG(Computer Graphics)のいずれかである、運転支援方法。 A generation process that generates an image representing a virtual vehicle and an image representing an own vehicle,
A driving support method comprising a superimposing step of superimposing an image representing the virtual vehicle and an image representing the own vehicle on a landscape image representing the scenery around the own vehicle.
The image representing the own vehicle is superimposed on the region corresponding to the current position of the own vehicle in the landscape image.
The image representing the virtual vehicle is superimposed on the region corresponding to the position corresponding to the position ahead of the current position of the own vehicle on the guide path by a predetermined distance in the landscape image.
A position that precedes the current position of the own vehicle on the guide path by a predetermined distance moves along the guide path to the destination in the driving support method of the own vehicle.
The destination in the driving support method is automatically set in conjunction with the guidance of the traveling route from the current position of the own vehicle to the destination by the navigation device by the navigation device.
The landscape image is either a captured image of a camera provided in the own vehicle, a bird's-eye view image generated based on the captured image, or CG (Computer Graphics) acquired from the navigation device. Method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017167380A JP7051335B2 (en) | 2017-08-31 | 2017-08-31 | Driving support device and driving support method |
US16/040,836 US20190066382A1 (en) | 2017-08-31 | 2018-07-20 | Driving support device, driving support method, information providing device and information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017167380A JP7051335B2 (en) | 2017-08-31 | 2017-08-31 | Driving support device and driving support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019045257A JP2019045257A (en) | 2019-03-22 |
JP7051335B2 true JP7051335B2 (en) | 2022-04-11 |
Family
ID=65814686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017167380A Active JP7051335B2 (en) | 2017-08-31 | 2017-08-31 | Driving support device and driving support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7051335B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004317275A (en) | 2003-04-16 | 2004-11-11 | Alpine Electronics Inc | Navigation system |
JP2005127996A (en) | 2003-09-30 | 2005-05-19 | Mazda Motor Corp | Route guidance system, method, and program |
JP2007198962A (en) | 2006-01-27 | 2007-08-09 | Matsushita Electric Ind Co Ltd | Guidance display device for vehicle |
JP2009198267A (en) | 2008-02-20 | 2009-09-03 | Pioneer Electronic Corp | Navigation device, display control method, display control program, and recording medium |
JP2013238529A (en) | 2012-05-16 | 2013-11-28 | Toyota Motor Corp | Information processor of mobile body, information processing method of mobile body, and driving support device |
JP2016182891A (en) | 2015-03-26 | 2016-10-20 | 修一 田山 | Vehicular image display system and method |
-
2017
- 2017-08-31 JP JP2017167380A patent/JP7051335B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004317275A (en) | 2003-04-16 | 2004-11-11 | Alpine Electronics Inc | Navigation system |
JP2005127996A (en) | 2003-09-30 | 2005-05-19 | Mazda Motor Corp | Route guidance system, method, and program |
JP2007198962A (en) | 2006-01-27 | 2007-08-09 | Matsushita Electric Ind Co Ltd | Guidance display device for vehicle |
JP2009198267A (en) | 2008-02-20 | 2009-09-03 | Pioneer Electronic Corp | Navigation device, display control method, display control program, and recording medium |
JP2013238529A (en) | 2012-05-16 | 2013-11-28 | Toyota Motor Corp | Information processor of mobile body, information processing method of mobile body, and driving support device |
JP2016182891A (en) | 2015-03-26 | 2016-10-20 | 修一 田山 | Vehicular image display system and method |
Also Published As
Publication number | Publication date |
---|---|
JP2019045257A (en) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6414096B2 (en) | In-vehicle device, control method for in-vehicle device, and control program for in-vehicle device | |
JP6669299B2 (en) | Image processing device | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
WO2019038903A1 (en) | Surrounding vehicle display method and surrounding vehicle display apparatus | |
JP6350247B2 (en) | Image processing device | |
JP6665605B2 (en) | Display control device and display control method | |
US20220172652A1 (en) | Display control device and display control program product | |
JPWO2014174575A1 (en) | Head-up display device for vehicle | |
US11803053B2 (en) | Display control device and non-transitory tangible computer-readable medium therefor | |
JP2019207155A (en) | Display control device, and display control program | |
EP3967554B1 (en) | Vehicular display system | |
JP2019046069A (en) | Driving support device and driving support method | |
JP2008151507A (en) | Apparatus and method for merge guidance | |
US11850940B2 (en) | Display control device and non-transitory computer-readable storage medium for display control on head-up display | |
JP2015226304A (en) | Projection device for vehicle and head-up display system | |
JP7151073B2 (en) | Display device and computer program | |
WO2016088312A1 (en) | Image processing device | |
JP6631572B2 (en) | Display control device for vehicle and display unit for vehicle | |
JP6962397B2 (en) | Display control device and display control method | |
US20190066382A1 (en) | Driving support device, driving support method, information providing device and information providing method | |
JP7217090B2 (en) | Information providing device and information providing method | |
JP7051335B2 (en) | Driving support device and driving support method | |
WO2018020751A1 (en) | Display control device for vehicle, display system for vehicle, display control method for vehicle, and program | |
JP2018019155A (en) | Display controller for vehicle, display system for vehicle, display control method for vehicle and program | |
JP7143728B2 (en) | Superimposed image display device and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211020 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051335 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |