JP7051335B2 - Driving support device and driving support method - Google Patents

Driving support device and driving support method Download PDF

Info

Publication number
JP7051335B2
JP7051335B2 JP2017167380A JP2017167380A JP7051335B2 JP 7051335 B2 JP7051335 B2 JP 7051335B2 JP 2017167380 A JP2017167380 A JP 2017167380A JP 2017167380 A JP2017167380 A JP 2017167380A JP 7051335 B2 JP7051335 B2 JP 7051335B2
Authority
JP
Japan
Prior art keywords
vehicle
image
driving support
image representing
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017167380A
Other languages
Japanese (ja)
Other versions
JP2019045257A (en
Inventor
竜樹 久保
環 武内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017167380A priority Critical patent/JP7051335B2/en
Priority to US16/040,836 priority patent/US20190066382A1/en
Publication of JP2019045257A publication Critical patent/JP2019045257A/en
Application granted granted Critical
Publication of JP7051335B2 publication Critical patent/JP7051335B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運転支援技術に関する。 The present invention relates to a driving assist technique.

車両に搭載されたナビゲーション装置は、当該車両の現在位置から目的地までの走行経路を算出して案内する。具体的には、当該ナビゲーション装置は、当該車両の現在位置近傍の地図画像に案内経路を重畳した画像を表示装置に表示させ、右折指示や左折指示などの経路案内に関する音声ガイダンスをスピーカに出力させて、当該車両の現在位置から目的地までの走行経路を案内する。また、右折や左折が必要な場合に右折や左折を指示する矢印などを重畳した画像を表示装置に表示させる機能を有するナビゲーション装置も存在する。 The navigation device mounted on the vehicle calculates and guides the traveling route from the current position of the vehicle to the destination. Specifically, the navigation device displays an image in which a guidance route is superimposed on a map image near the current position of the vehicle on the display device, and outputs voice guidance regarding route guidance such as a right turn instruction or a left turn instruction to a speaker. Then, the travel route from the current position of the vehicle to the destination is guided. In addition, there is also a navigation device having a function of displaying an image on which an arrow indicating a right turn or a left turn is superimposed when a right turn or a left turn is required on the display device.

特開2016-182891号公報Japanese Unexamined Patent Publication No. 2016-182891

しかしながら、上記の音声ガイダンスや矢印表示は、どのように車両を運転すれば良いかが分かり難い場合があり、運転者が適切な運転を実行し難い場合がある。例えば、五叉路などの右折候補や左折候補となる道路が複数存在する交差点において、上記の音声ガイダンスや矢印表示によって右折や左折が指示されても、運転者が適切な走行路を直感的に把握できない場合がある。 However, the above voice guidance and arrow display may make it difficult to understand how to drive the vehicle, and it may be difficult for the driver to perform appropriate driving. For example, at an intersection where there are multiple roads that are candidates for right or left turns, such as a five-forked road, even if the above voice guidance or arrow display indicates a right or left turn, the driver can intuitively find the appropriate road. It may not be possible to grasp.

なお、特許文献1で開示されている車輌用画像表示システムでは、自動運転システムが自車輌に予定した走行行動と異なる予定外の走行行動を取らせようとする場合に、事前に予定外の走行行動を仮想車輌によって視覚的に表すイメージ画像を予告表示している。特許文献1で開示されている車輌用画像表示システムは、自動運転システムが自車輌に予定した走行行動と異なる予定外の走行行動を取らせようとする場合を想定しているため、目的地までの経路を案内する運転支援に適用することができない。 In the vehicle image display system disclosed in Patent Document 1, when the automatic driving system attempts to cause the own vehicle to take an unscheduled driving behavior different from the planned driving behavior, the vehicle travels unplanned in advance. An image image that visually represents the action by a virtual vehicle is displayed in advance. Since the image display system for a vehicle disclosed in Patent Document 1 assumes a case where the automatic driving system tries to cause the own vehicle to take an unplanned driving behavior different from the planned driving behavior, it reaches the destination. It cannot be applied to driving support that guides the route of.

本発明は、上記課題に鑑みて、運転者の負担を軽減しながら自車両を目的地まで誘導することができる運転支援技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a driving support technique capable of guiding an own vehicle to a destination while reducing the burden on the driver.

本発明に係る運転支援装置は、仮想車両を表す像を生成する生成部と、自車両の周辺の風景を表す風景画像に前記仮想車両を表す像を重畳する重畳部と、を備え、前記仮想車両を表す像は、前記風景画像中において前記自車両がこれから走行すべき位置に対応する領域に重畳され、前記自車両がこれから走行すべき位置は、前記自車両の目的地までの案内経路に沿って移動する構成(第1の構成)である。 The driving support device according to the present invention includes a generation unit that generates an image representing a virtual vehicle, and a superimposing unit that superimposes an image representing the virtual vehicle on a landscape image representing the scenery around the own vehicle. The image representing the vehicle is superimposed on the region corresponding to the position where the own vehicle should travel in the landscape image, and the position where the own vehicle should travel from now on is the guide route to the destination of the own vehicle. It is a configuration that moves along (first configuration).

上記第1の構成の運転支援装置において、前記生成部は、前記自車両を表す像をさらに生成し、前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳される構成(第2の構成)であってもよい。 In the driving support device of the first configuration, the generation unit further generates an image representing the own vehicle, and the image representing the own vehicle is a region corresponding to the current position of the own vehicle in the landscape image. It may be a configuration (second configuration) superimposed on the.

上記第1又は第2の構成の運転支援装置において、前記仮想車両を表す像は、前記風景画像中において、前記自車両の現在位置に出現し、その後前記自車両がこれから走行すべき位置まで移動する構成(第3の構成)であってもよい。 In the driving support device of the first or second configuration, the image representing the virtual vehicle appears at the current position of the own vehicle in the landscape image, and then moves to the position where the own vehicle should travel from now on. It may be the configuration (third configuration).

上記第1~第3いずれかの構成の運転支援装置において、前記自車両がこれから走行すべき位置が前記目的地に到達すると、前記仮想車両を表す像は、前記風景画像中において前記目的地で停止し、その後前記自車両の現在位置が前記目的地に到達すると前記風景画像中から消滅する構成(第4の構成)であってもよい。 In the driving support device having any of the first to third configurations, when the position where the own vehicle should travel reaches the destination, the image representing the virtual vehicle is displayed at the destination in the landscape image. It may be a configuration (fourth configuration) in which the vehicle stops and then disappears from the landscape image when the current position of the own vehicle reaches the destination.

上記第1~第4いずれかの構成の運転支援装置において、前記仮想車両を表す像に対して前記自車両の現在位置が追従しているか否かを判定する判定部と、前記判定部の判定結果に応じて前記仮想車両を表す像の態様を変更する態様変更部と、を備える構成(第5の構成)であってもよい。 In the driving support device having any of the first to fourth configurations, a determination unit for determining whether or not the current position of the own vehicle is following the image representing the virtual vehicle, and a determination unit for determining whether or not the current position of the own vehicle is following. The configuration may include a mode changing unit that changes the mode of the image representing the virtual vehicle according to the result (fifth configuration).

上記第1~第5いずれかの構成の運転支援装置において、前記仮想車両を表す像に対して前記自車両の現在位置が追従していない状態が所定のレベルより悪化すると、前記仮想車両を表す像は、前記風景画像中から消滅する構成(第6の構成)であってもよい。 In the driving support device having any of the first to fifth configurations, when the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle becomes worse than a predetermined level, the virtual vehicle is represented. The image may have a configuration (sixth configuration) that disappears from the landscape image.

上記第1~第6いずれかの構成の運転支援装置において、前記仮想車両を表す像は、前記案内経路の長さが所定値になった時点で、前記風景画像中において出現する構成(第7の構成)であってもよい。 In the driving support device having any of the first to sixth configurations, the image representing the virtual vehicle appears in the landscape image when the length of the guide path reaches a predetermined value (seventh). The configuration of) may be used.

本発明に係る運転支援方法は、仮想車両を表す像を生成する生成工程と、自車両の周辺の風景を表す風景画像に前記仮想車両を表す像を重畳する重畳工程と、を備え、前記仮想車両を表す像は、前記風景画像中において前記自車両がこれから走行すべき位置に対応する領域に重畳され、前記自車両がこれから走行すべき位置は、前記自車両の目的地までの案内経路に沿って移動する構成(第8の構成)である。 The driving support method according to the present invention includes a generation step of generating an image representing a virtual vehicle and a superimposing step of superimposing an image representing the virtual vehicle on a landscape image representing the scenery around the own vehicle. The image representing the vehicle is superimposed on the region corresponding to the position where the own vehicle should travel in the landscape image, and the position where the own vehicle should travel from now on is the guide route to the destination of the own vehicle. It is a configuration that moves along (eighth configuration).

本発明によると、仮想車両に追従する運転が可能となるので、運転者の負担を軽減しながら自車両を目的地まで誘導することができる。 According to the present invention, since it is possible to drive following the virtual vehicle, it is possible to guide the own vehicle to the destination while reducing the burden on the driver.

運転支援装置の構成例を示す図The figure which shows the configuration example of the driving support device 4つの車載カメラが車両に配置される位置を例示する図The figure which illustrates the position where four in-vehicle cameras are arranged in a vehicle 仮想投影面の例を示す図Diagram showing an example of a virtual projection plane 運転支援装置の動作例を示すフローチャートFlow chart showing an operation example of the driving support device 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 出力画像の一例を示す図A diagram showing an example of an output image 運転支援装置の他の動作例を示すフローチャートFlow chart showing other operation examples of the driving support device 自車両の車速と所定値との関係の一例を示す図A diagram showing an example of the relationship between the vehicle speed of the own vehicle and a predetermined value. 自車両の車速と所定値との関係の一例を示す図A diagram showing an example of the relationship between the vehicle speed of the own vehicle and a predetermined value.

以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings.

<1.運転支援装置の構成例>
図1は運転支援装置の構成例を示す図である。図1に示す運転支援装置201は、例えば自動車などの車両に搭載されている。以下、運転支援装置201が搭載される車両を「自車両」という。また、自車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方」という。また、自車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」という。また、自車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」という。
<1. Configuration example of driving support device>
FIG. 1 is a diagram showing a configuration example of a driving support device. The driving support device 201 shown in FIG. 1 is mounted on a vehicle such as an automobile. Hereinafter, the vehicle on which the driving support device 201 is mounted is referred to as "own vehicle". In addition, the direction in which the vehicle travels straight from the driver's seat to the steering is called "forward". In addition, the direction in which the vehicle travels straight from the steering wheel to the driver's seat is called "rear". Further, the direction from the right side to the left side of the driver facing forward, which is the direction perpendicular to the straight line and the vertical line of the own vehicle, is referred to as "left direction". Further, the direction from the left side to the right side of the driver facing forward, which is the direction perpendicular to the straight line and the vertical direction of the own vehicle, is referred to as "right direction".

図1に示すフロントカメラ11、バックカメラ12、左サイドカメラ13、右サイドカメラ14、ナビゲーション装置15、車両制御ECU16、運転支援装置201、表示装置31、及びスピーカ32は自車両に搭載される。 The front camera 11, the back camera 12, the left side camera 13, the right side camera 14, the navigation device 15, the vehicle control ECU 16, the driving support device 201, the display device 31, and the speaker 32 shown in FIG. 1 are mounted on the own vehicle.

図2は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)が自車両V1に配置される位置を例示する図である。 FIG. 2 is a diagram illustrating positions where four in-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14) are arranged in the own vehicle V1.

フロントカメラ11は自車両V1の前端に設けられる。フロントカメラ11の光軸11aは上からの平面視で自車両V1の前後方向に沿っている。フロントカメラ11は自車両V1の前方向を撮影する。バックカメラ12は自車両V1の後端に設けられる。バックカメラ12の光軸12aは上からの平面視で自車両V1の前後方向に沿っている。バックカメラ12は自車両V1の後方向を撮影する。フロントカメラ11及びバックカメラ12の取付位置は、自車両V1の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。 The front camera 11 is provided at the front end of the own vehicle V1. The optical axis 11a of the front camera 11 is along the front-rear direction of the own vehicle V1 in a plan view from above. The front camera 11 photographs the front direction of the own vehicle V1. The back camera 12 is provided at the rear end of the own vehicle V1. The optical axis 12a of the back camera 12 is along the front-rear direction of the own vehicle V1 in a plan view from above. The back camera 12 photographs the rear direction of the own vehicle V1. The mounting positions of the front camera 11 and the back camera 12 are preferably at the center of the left and right of the own vehicle V1, but may be slightly deviated from the center of the left and right in the left-right direction.

左サイドカメラ13は自車両V1の左側ドアミラーM1に設けられる。左サイドカメラ13の光軸13aは上からの平面視で自車両V1の左右方向に沿っている。左サイドカメラ13は自車両V1の左方向を撮影する。右サイドカメラ14は自車両V1の右側ドアミラーM2に設けられる。右サイドカメラ14の光軸14aは上からの平面視で自車両V1の左右方向に沿っている。右サイドカメラ14は自車両V1の右方向を撮影する。なお、自車両V1がいわゆるドアミラーレス車である場合には、左サイドカメラ13は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ14は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。 The left side camera 13 is provided on the left door mirror M1 of the own vehicle V1. The optical axis 13a of the left side camera 13 is along the left-right direction of the own vehicle V1 in a plan view from above. The left side camera 13 photographs the left direction of the own vehicle V1. The right side camera 14 is provided on the right door mirror M2 of the own vehicle V1. The optical axis 14a of the right side camera 14 is along the left-right direction of the own vehicle V1 in a plan view from above. The right side camera 14 captures the right direction of the own vehicle V1. When the own vehicle V1 is a so-called door mirrorless vehicle, the left side camera 13 is attached around the rotation axis (hinge portion) of the left side door without passing through the door mirror, and the right side camera 14 is the right side door. It can be attached around the rotating shaft (hinge part) of the door without going through the door mirror.

各車載カメラの水平方向の画角θは180度以上である。このため、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)によって、自車両V1の水平方向における全周囲を撮影することができる。なお、本実施形態では、車載カメラの数を4つとしているが、車載カメラの撮影画像を用いて後述する俯瞰画像を作成するために必要な車載カメラの数は4つに限られることはなく、複数のカメラであればよい。一例として、各車載カメラの水平方向の画角θが比較的広い場合は、4つよりも少ない3つのカメラから取得される3つの撮影画像に基づき俯瞰画像を生成してもよい。さらに、別の例として、各車載カメラの水平方向の画角θが比較的狭い場合は、4つよりも多い5つのカメラから得られる5つの撮影画像に基づき俯瞰画像を生成してもよい。 The horizontal angle of view θ of each vehicle-mounted camera is 180 degrees or more. Therefore, four in-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14) can photograph the entire circumference of the own vehicle V1 in the horizontal direction. In the present embodiment, the number of in-vehicle cameras is four, but the number of in-vehicle cameras required to create a bird's-eye view image described later using the images taken by the in-vehicle cameras is not limited to four. , It may be multiple cameras. As an example, when the horizontal angle of view θ of each vehicle-mounted camera is relatively wide, a bird's-eye view image may be generated based on three captured images acquired from three cameras, which are less than four. Further, as another example, when the horizontal angle of view θ of each vehicle-mounted camera is relatively narrow, a bird's-eye view image may be generated based on five captured images obtained from five cameras, which is more than four.

図1に戻って、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)は、撮影画像を運転支援装置201に出力する。ナビゲーション装置15は、自車両の現在位置情報及び地図情報を運転支援装置201に出力する。車両制御ECU16は、自車両の車速情報を運転支援装置201に出力する。車両制御ECU16の代わりに車速センサが自車両の車速情報を運転支援装置201に直接出力するようにしてもよい。 Returning to FIG. 1, the four vehicle-mounted cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14) output captured images to the driving support device 201. The navigation device 15 outputs the current position information and the map information of the own vehicle to the driving support device 201. The vehicle control ECU 16 outputs the vehicle speed information of the own vehicle to the driving support device 201. Instead of the vehicle control ECU 16, the vehicle speed sensor may directly output the vehicle speed information of the own vehicle to the driving support device 201.

運転支援装置201は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)から出力される撮影画像を処理し、処理後の画像を表示装置31に出力する。また、運転支援装置201は、音声をスピーカ32から出力させる制御を行う。 The driving support device 201 processes the captured images output from the four in-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14), and outputs the processed images to the display device 31. do. Further, the driving support device 201 controls to output the sound from the speaker 32.

表示装置31は、自車両のドライバーが表示装置31の表示画面を視認できる位置に設けられ、運転支援装置201から出力される画像を表示する。表示装置31としては、例えばセンターコンソールに設置されるディスプレイ、運転席の対向位置に設置されるメータディスプレイ、フロントガラスに画像を投影するヘッドアップディスプレイなどを挙げることができる。 The display device 31 is provided at a position where the driver of the own vehicle can visually recognize the display screen of the display device 31, and displays an image output from the driving support device 201. Examples of the display device 31 include a display installed on the center console, a meter display installed at a position facing the driver's seat, a head-up display that projects an image on the windshield, and the like.

スピーカ32は、運転支援装置201の制御に従って音声を出力する。 The speaker 32 outputs sound according to the control of the driving support device 201.

運転支援装置201は、ASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等のハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて運転支援装置201を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、当該プログラムをプログラム実行装置上で実行することによって、その機能を実現するようにしてもよい。プログラム実行装置としては、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータを挙げることができる。 The driving support device 201 can be configured by hardware such as an ASIC (application specific integrated circuit) or FPGA (field-programmable gate array), or a combination of hardware and software. When the operation support device 201 is configured by using software, the block diagram of the part realized by the software represents the functional block diagram of the part. A function realized by using software may be described as a program, and the function may be realized by executing the program on a program execution device. Examples of the program execution device include a computer equipped with a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory).

運転支援装置201は、撮影画像取得部21と、画像生成部22と、音声制御部23と、を備える。 The driving support device 201 includes a captured image acquisition unit 21, an image generation unit 22, and a voice control unit 23.

撮影画像取得部21は、4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した撮影画像がアナログの場合には、撮影画像取得部21は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。撮影画像取得部21は、取得した撮影画像、或いは、取得及び変換した撮影画像を、画像生成部22に出力する。 The captured image acquisition unit 21 captures analog or digital captured images from four in-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14) in a predetermined cycle (for example, 1/30 second cycle). ) To get continuously in time. When the acquired captured image is analog, the captured image acquisition unit 21 converts the analog captured image into a digital captured image (A / D conversion). The captured image acquisition unit 21 outputs the acquired captured image or the acquired and converted captured image to the image generation unit 22.

画像生成部22は、俯瞰画像生成部22aと、仮想車両生成部22bと、案内経路取得部22cと、重畳部22dと、判定部22eと、態様変更部22fと、を備える。 The image generation unit 22 includes a bird's-eye view image generation unit 22a, a virtual vehicle generation unit 22b, a guide path acquisition unit 22c, a superimposition unit 22d, a determination unit 22e, and a mode change unit 22f.

俯瞰画像生成部22aは、撮影画像取得部21によって取得された撮影画像を仮想投影面に投影して投影画像に変換する。具体的には、俯瞰画像生成部22aは、図3に示す仮想的な三次元空間における仮想投影面100の第1領域R1にフロントカメラ11の撮影画像を投影して、フロントカメラ11の撮影画像を第1の投影画像に変換する。同様に、俯瞰画像生成部22aは、図3に示す仮想投影面100の第2~第4領域R2~R4それぞれにバックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像を投影して、バックカメラ12の撮影画像、左サイドカメラ13の撮影画像、及び右サイドカメラ14の撮影画像それぞれを第2~第4の投影画像に変換する。 The bird's-eye view image generation unit 22a projects the captured image acquired by the captured image acquisition unit 21 onto a virtual projection surface and converts it into a projected image. Specifically, the bird's-eye view image generation unit 22a projects the captured image of the front camera 11 onto the first region R1 of the virtual projection surface 100 in the virtual three-dimensional space shown in FIG. 3, and the captured image of the front camera 11. Is converted into the first projected image. Similarly, the bird's-eye view image generation unit 22a has a captured image of the back camera 12, a captured image of the left side camera 13, and a captured image of the right side camera 14 in the second to fourth regions R2 to R4 of the virtual projection surface 100 shown in FIG. The captured image of the above is projected, and the captured image of the back camera 12, the captured image of the left side camera 13, and the captured image of the right side camera 14 are each converted into the second to fourth projected images.

図3に示す仮想投影面100は、例えば略半球状(お椀形状)をしている。仮想投影面100の中心部分(お椀の底部分)は、自車両V1が存在する位置として定められている。このように仮想投影面100が曲面を含むようにすることで、自車両V1から離れた位置に存在する物体の像の歪みを少なくすることができる。また、第1~第4領域R1~R4それぞれは、隣接する他の領域と重複する部分を有している。このような重複部分を設けることで、領域の境界部分に投影される物体の像が投影画像から消失することを防止することができる。 The virtual projection surface 100 shown in FIG. 3 has, for example, a substantially hemispherical shape (bowl shape). The central portion (bottom portion of the bowl) of the virtual projection surface 100 is defined as the position where the own vehicle V1 exists. By including the curved surface in the virtual projection surface 100 in this way, it is possible to reduce the distortion of the image of the object existing at the position away from the own vehicle V1. Further, each of the first to fourth regions R1 to R4 has a portion overlapping with other adjacent regions. By providing such an overlapping portion, it is possible to prevent the image of the object projected on the boundary portion of the region from disappearing from the projected image.

俯瞰画像生成部22aは、複数の投影画像に基づいて仮想視点からみた仮想視点画像を生成する。具体的には、俯瞰画像生成部22aは、第1~第4の投影画像を仮想投影面100の第1~第4領域R1~R4に仮想的に貼り付ける。 The bird's-eye view image generation unit 22a generates a virtual viewpoint image viewed from a virtual viewpoint based on a plurality of projected images. Specifically, the bird's-eye view image generation unit 22a virtually pastes the first to fourth projected images on the first to fourth regions R1 to R4 of the virtual projection surface 100.

また、俯瞰画像生成部22aは、自車両V1の三次元形状を示すポリゴンのモデルを仮想的に構成する。この自車両V1のモデルは、仮想投影面100が設定される仮想的な三次元空間において、自車両V1が存在する位置として定められた位置(仮想投影面100の中心部分)に第1領域R1が前側、第4領域R4が後ろ側に成るように配置される。 Further, the bird's-eye view image generation unit 22a virtually configures a polygon model showing the three-dimensional shape of the own vehicle V1. The model of the own vehicle V1 has a first region R1 at a position (central portion of the virtual projection surface 100) defined as a position where the own vehicle V1 exists in a virtual three-dimensional space in which the virtual projection surface 100 is set. Is arranged so that is on the front side and the fourth region R4 is on the rear side.

さらに、俯瞰画像生成部22aは、仮想投影面100が設定される仮想的な三次元空間において、仮想視点を設定する。仮想視点は、視点位置及び視野方向によって規定される。仮想投影面100の少なくとも一部が視野に入る限り、仮想視点の視点位置及び視野方向は、任意の視点位置及び任意の視野方向に設定することができる。本実施形態では、仮想視点の視点位置を自車両より後方且つ上方とし、仮想視点の視野方向を自車両の前方且つ下方とする。これにより、俯瞰画像生成部22aが生成する仮想視点画像が俯瞰画像となる。また、仮想視点の視点位置を自車両より後方且つ上方とし、仮想視点の視野方向を自車両の前方且つ下方とすることで、運転者は自車両と後述する仮想車両との位置関係をより的確に確認することができる。なお、本実施形態とは異なり、例えば視点位置を標準的な運転者の目の位置とし、視野方向を自車両の前方にしてもよい。 Further, the bird's-eye view image generation unit 22a sets a virtual viewpoint in a virtual three-dimensional space in which the virtual projection surface 100 is set. The virtual viewpoint is defined by the viewpoint position and the viewing direction. As long as at least a part of the virtual projection surface 100 is in the field of view, the viewpoint position and the viewing direction of the virtual viewpoint can be set to an arbitrary viewpoint position and an arbitrary viewing direction. In the present embodiment, the viewpoint position of the virtual viewpoint is set to be rearward and above the own vehicle, and the viewing direction of the virtual viewpoint is set to be forward and downward of the own vehicle. As a result, the virtual viewpoint image generated by the bird's-eye view image generation unit 22a becomes the bird's-eye view image. Further, by setting the viewpoint position of the virtual viewpoint to be rearward and above the own vehicle and the viewing direction of the virtual viewpoint to be forward and downward of the own vehicle, the driver can more accurately determine the positional relationship between the own vehicle and the virtual vehicle described later. Can be confirmed in. In addition, unlike the present embodiment, for example, the viewpoint position may be the standard driver's eye position, and the viewing direction may be the front of the own vehicle.

俯瞰画像生成部22aは、設定した仮想視点に応じて、仮想投影面100における必要な領域(仮想視点からみえる領域)の画像を仮想的に切り出す。また、俯瞰画像生成部22aは、設定した仮想視点に応じて、ポリゴンのモデルに関してレンダリングを行い、自車両V1のレンダリング像を生成する。そして、俯瞰画像生成部22aは、切り出した画像に対して自車両V1のレンダリング像を重畳した俯瞰画像を生成する。すなわち、俯瞰画像生成部22aは、自車両を表す像を生成している。また、自車両V1のレンダリング像(自車両を表す像)は、俯瞰画像中の自車両の現在位置に対応する領域に重畳されている。 The bird's-eye view image generation unit 22a virtually cuts out an image of a necessary region (a region seen from the virtual viewpoint) on the virtual projection surface 100 according to the set virtual viewpoint. Further, the bird's-eye view image generation unit 22a renders the polygon model according to the set virtual viewpoint, and generates a rendered image of the own vehicle V1. Then, the bird's-eye view image generation unit 22a generates a bird's-eye view image in which the rendered image of the own vehicle V1 is superimposed on the cut out image. That is, the bird's-eye view image generation unit 22a generates an image representing the own vehicle. Further, the rendered image of the own vehicle V1 (the image representing the own vehicle) is superimposed on the region corresponding to the current position of the own vehicle in the bird's-eye view image.

仮想車両生成部22bは、CG(Computer Graphics)を用いて仮想車両を表す像を生成する。 The virtual vehicle generation unit 22b uses CG (Computer Graphics) to generate an image representing a virtual vehicle.

案内経路取得部22cは、自車両の現在位置から目的地までの案内経路に関する情報(案内経路情報)を取得する。例えば、案内経路取得部22cは、自車両の現在位置と地図情報から案内経路取得部22c自身が案内経路情報を生成することで案内経路情報を取得してもよく、目的地がナビゲーション装置15において設定されている目的地と一致する場合にはナビゲーション装置15から案内経路情報を取得してもよい。 The guidance route acquisition unit 22c acquires information (guidance route information) regarding the guidance route from the current position of the own vehicle to the destination. For example, the guide route acquisition unit 22c may acquire the guide route information by generating the guide route information by the guide route acquisition unit 22c itself from the current position of the own vehicle and the map information, and the destination is the navigation device 15. If it matches the set destination, the guide route information may be acquired from the navigation device 15.

重畳部22dは、仮想車両を表す像を俯瞰画像に重畳する。仮想車両を表す像は、俯瞰画像中において自車両がこれから走行すべき位置に対応する領域に重畳される。自車両の走行に伴って、自車両の現在位置及び自車両がこれから走行すべき位置が変化する。このため、自車両がこれから走行すべき位置は、自車両の目的地までの案内経路に沿って移動する。 The superimposing unit 22d superimposes an image representing a virtual vehicle on the bird's-eye view image. The image representing the virtual vehicle is superimposed on the area corresponding to the position where the own vehicle should travel in the bird's-eye view image. As the own vehicle travels, the current position of the own vehicle and the position where the own vehicle should travel from now on change. Therefore, the position where the own vehicle should travel from now on moves along the guide route to the destination of the own vehicle.

判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従しているか否かを判定する。 The determination unit 22e determines whether or not the current position of the own vehicle follows the image representing the virtual vehicle.

態様変更部22fは、判定部22eの判定結果に応じて仮想車両を表す像の態様を変更する。 The aspect changing unit 22f changes the aspect of the image representing the virtual vehicle according to the determination result of the determination unit 22e.

音声制御部23は、例えば仮想車両を表す像の出現時や消滅時に仮想車両を表す像が出現したことや消滅したことを報知する通知音をスピーカ32に発生させる。 The voice control unit 23 generates, for example, a notification sound for notifying the appearance or disappearance of the image representing the virtual vehicle at the time of appearance or disappearance of the image representing the virtual vehicle in the speaker 32.

<2.運転支援装置の動作例>
図4は、運転支援装置201の動作例を示すフローチャートである。運転支援装置201は起動完了後に図4に示すフロー動作を開始する。
<2. Operation example of driving support device>
FIG. 4 is a flowchart showing an operation example of the driving support device 201. The operation support device 201 starts the flow operation shown in FIG. 4 after the activation is completed.

図4に示すフロー動作が開始されると、まず撮影画像取得部21が4つの車載カメラ(フロントカメラ11、バックカメラ12、左サイドカメラ13、及び右サイドカメラ14)から撮影画像を取得する(ステップS10)。 When the flow operation shown in FIG. 4 is started, the captured image acquisition unit 21 first acquires captured images from four in-vehicle cameras (front camera 11, back camera 12, left side camera 13, and right side camera 14). Step S10).

次に俯瞰画像生成部22aが撮影画像取得部21によって取得された撮影画像を用いて俯瞰画像を生成する(ステップS20)。 Next, the bird's-eye view image generation unit 22a generates a bird's-eye view image using the photographed image acquired by the photographed image acquisition unit 21 (step S20).

次に画像生成部22は目的地の有無を判定する(ステップS30)。目的地は、運転支援装置201に操作部を設けて操作部を用いた入力操作によって設定されてもよく、ナビゲーション装置15による案内に連動して自動的に設定されてもよい。 Next, the image generation unit 22 determines the presence or absence of a destination (step S30). The destination may be set by providing an operation unit in the driving support device 201 by an input operation using the operation unit, or may be automatically set in conjunction with the guidance by the navigation device 15.

例えば、ナビゲーション装置15によって交差点での左折が指示される場合には、交差点での左折が完了してから少し進んだ位置を運転支援装置201での目的地に設定してもよい。例えば、ナビゲーション装置15による案内の目的地が所定の駐車場である場合は、所定の駐車場の入り口に設置されている発券機の隣接位置或いは所定の駐車場内の駐車位置を運転支援装置201での目的地に設定してもよい。 For example, when the navigation device 15 instructs a left turn at an intersection, a position slightly advanced after the completion of the left turn at the intersection may be set as the destination of the driving support device 201. For example, when the destination of guidance by the navigation device 15 is a predetermined parking lot, the driving support device 201 sets the position adjacent to the ticketing machine installed at the entrance of the predetermined parking lot or the parking position in the predetermined parking lot. It may be set as the destination of.

運転支援装置201での目的地は自車両の周辺状況などに応じて自動的に変更されることが望ましい。例えば、運転支援装置201が、左折時に自車両の左後方から接近してくる二輪車などの障害物を検知した場合、運転支援装置201での目的地を、交差点での左折が完了してから少し進んだ位置から交差点の手前位置に変更し、障害物の通過を確認した後に運転支援装置201での目的地を、交差点での左折が完了してから少し進んだ位置に戻せばよい。なお、障害物の検知には、例えば車載カメラの撮影画像を用いたり、自車両に搭載したレーダ装置から出力される情報、クラウドセンターとの通信、車車間通信、路車間通信などで得られる情報などを用いたりすることができる。 It is desirable that the destination of the driving support device 201 is automatically changed according to the surrounding conditions of the own vehicle. For example, when the driving support device 201 detects an obstacle such as a two-wheeled vehicle approaching from the left rear of the own vehicle when turning left, the destination of the driving support device 201 is set a little after the left turn at the intersection is completed. The position may be changed from the advanced position to the position in front of the intersection, and after confirming the passage of the obstacle, the destination of the driving support device 201 may be returned to the slightly advanced position after the left turn at the intersection is completed. For obstacle detection, for example, information taken by an in-vehicle camera, information output from a radar device mounted on the own vehicle, communication with a cloud center, vehicle-to-vehicle communication, road-to-vehicle communication, etc. can be obtained. Etc. can be used.

目的地がなければステップS10に戻り、目的地があればステップS40に移行する。以下の説明では、運転支援装置201での目的地を所定の駐車場の入り口に設置されている発券機の隣接位置とする。 If there is no destination, the process returns to step S10, and if there is a destination, the process proceeds to step S40. In the following description, the destination of the driving support device 201 is a position adjacent to the ticket issuing machine installed at the entrance of a predetermined parking lot.

ステップS40において、仮想車両生成部22bが仮想車両を表す像を生成する。 In step S40, the virtual vehicle generation unit 22b generates an image representing the virtual vehicle.

ステップS40に続くステップS50において、重畳部22dが仮想車両を表す像を俯瞰画像に重畳する。 In step S50 following step S40, the superimposing unit 22d superimposes an image representing the virtual vehicle on the bird's-eye view image.

本実施形態では、仮想車両を表す像が、俯瞰画像中において、自車両の現在位置に出現し、その後自車両がこれから走行すべき位置まで移動するように、重畳部22dが仮想車両を表す像を俯瞰画像に重畳する。 In the present embodiment, an image representing the virtual vehicle appears in the bird's-eye view image at the current position of the own vehicle, and then the superimposing portion 22d represents the virtual vehicle so that the own vehicle moves to the position where the own vehicle should travel from now on. Is superimposed on the bird's-eye view image.

具体的には、仮想車両を表す像が俯瞰画像に重畳されていない状態で、ステップS50の処理を行う場合には、仮想車両を表す像は、俯瞰画像中の自車両の現在位置に対応する領域に重畳される。したがって、ステップS50の処理により、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図5に示す俯瞰画像から図6に示す俯瞰画像に変化する。図5に示す俯瞰画像には自車両のレンダリング像VR1が重畳されており、図6に示す俯瞰画像には自車両のレンダリング像VR1及び仮想車両を表す像V2が重畳されている。なお、仮想車両を表す像V2は透過性を有する像である。 Specifically, when the process of step S50 is performed in a state where the image representing the virtual vehicle is not superimposed on the bird's-eye view image, the image representing the virtual vehicle corresponds to the current position of the own vehicle in the bird's-eye view image. Overlaid on the area. Therefore, the bird's-eye view image output from the driving support device 201 to the display device 31 by the process of step S50 changes from, for example, the bird's-eye view image shown in FIG. 5 to the bird's-eye view image shown in FIG. The rendered image VR1 of the own vehicle is superimposed on the bird's-eye view image shown in FIG. 5, and the rendered image VR1 of the own vehicle and the image V2 representing the virtual vehicle are superimposed on the bird's-eye view image shown in FIG. The image V2 representing the virtual vehicle is a transparent image.

一方、すでに仮想車両を表す像が俯瞰画像に重畳されている状態で、ステップS50の処理を行う場合には、仮想車両を表す像は、俯瞰画像中において自車両がこれから走行すべき位置(案内経路上の自車両の現在位置より先行した位置)に対応した領域に重畳される。したがって、ステップS50の処理が繰り返されることにより、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図6に示す俯瞰画像から図7に示す俯瞰画像に変化する。そして、その後、仮想車両を表す像が俯瞰画像中の目的地まで来ると、仮想車両を表す像はその目的地の位置で停止する(後述する図8~図10参照)。 On the other hand, when the process of step S50 is performed in a state where the image representing the virtual vehicle is already superimposed on the bird's-eye view image, the image representing the virtual vehicle is the position (guidance) from which the own vehicle should travel in the bird's-eye view image. It is superimposed on the area corresponding to the position (position ahead of the current position of the own vehicle on the route). Therefore, by repeating the process of step S50, the bird's-eye view image output from the driving support device 201 to the display device 31 changes from, for example, the bird's-eye view image shown in FIG. 6 to the bird's-eye view image shown in FIG. 7. After that, when the image representing the virtual vehicle reaches the destination in the bird's-eye view image, the image representing the virtual vehicle stops at the position of the destination (see FIGS. 8 to 10 described later).

仮想車両を表す像の出現当初は仮想車両の車速を自車両の車速より速くして、仮想車両を表す像を自車両の現在位置から自車両がこれから走行すべき位置に移動させる。そして、仮想車両が案内経路上で自車両から所定距離先行した時点で仮想車両の車速を自車両の車速に一致させて、仮想車両が自車両から離れすぎることを防止する。 At the beginning of the appearance of the image representing the virtual vehicle, the vehicle speed of the virtual vehicle is made faster than the vehicle speed of the own vehicle, and the image representing the virtual vehicle is moved from the current position of the own vehicle to the position where the own vehicle should travel from now on. Then, when the virtual vehicle precedes the own vehicle by a predetermined distance on the guide path, the vehicle speed of the virtual vehicle is matched with the vehicle speed of the own vehicle to prevent the virtual vehicle from being too far from the own vehicle.

上記のように仮想車両が自車両がこれから走行すべき位置に存在するため、仮想車両が自車両にとっての先導車となる。したがって、仮想車両に追従する運転が可能となり、運転者の負担を軽減しながら自車両を目的地まで誘導することができる。 Since the virtual vehicle exists at the position where the own vehicle should travel as described above, the virtual vehicle becomes the leading vehicle for the own vehicle. Therefore, it is possible to drive following the virtual vehicle, and it is possible to guide the own vehicle to the destination while reducing the burden on the driver.

また、上記のように自車両と仮想車両が俯瞰画像に含まれるため、運転者は自車両と仮想車両との位置関係を直感的に把握することができる。したがって、仮想車両に追従する運転が容易になる。 Further, since the own vehicle and the virtual vehicle are included in the bird's-eye view image as described above, the driver can intuitively grasp the positional relationship between the own vehicle and the virtual vehicle. Therefore, the driving following the virtual vehicle becomes easy.

また、上記のように仮想車両を表す像が自車両の現在位置に出現し、その後自車両がこれから走行すべき位置に移動することで、仮想車両があたかも自車両から分離して先行するように見えるため、運転者は仮想車両の走行経路が自車両の走行すべき経路であることを直感的に把握することができる。 In addition, as described above, an image representing the virtual vehicle appears at the current position of the own vehicle, and then the own vehicle moves to the position where it should travel, so that the virtual vehicle is separated from the own vehicle and precedes. Since it is visible, the driver can intuitively grasp that the travel route of the virtual vehicle is the route that the own vehicle should travel.

ステップS50に続くステップS60において、判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従しているか否かを判定する。具体的には、判定部22eは、仮想車両の走行経路すなわち案内経路取得部22cによって取得された案内経路上から自車両が車幅方向に第1閾値以上離れている場合に、仮想車両を表す像に対して自車両の現在位置が追従していないと判定する。運転支援装置201は第1閾値を不揮発的に記憶している。 In step S60 following step S50, the determination unit 22e determines whether or not the current position of the own vehicle follows the image representing the virtual vehicle. Specifically, the determination unit 22e represents a virtual vehicle when the own vehicle is separated from the travel route of the virtual vehicle, that is, the guidance route acquired by the guidance route acquisition unit 22c, by the first threshold value or more in the vehicle width direction. It is determined that the current position of the own vehicle does not follow the image. The driving support device 201 non-volatilely stores the first threshold value.

仮想車両を表す像に対して自車両の現在位置が追従していれば、ステップS70に移行する。ステップS70において、画像生成部22は、自車両の現在位置に基づいて、自車両の現在位置が目的地に到着したか否かを判定する。 If the current position of the own vehicle follows the image representing the virtual vehicle, the process proceeds to step S70. In step S70, the image generation unit 22 determines whether or not the current position of the own vehicle has arrived at the destination based on the current position of the own vehicle.

自車両の現在位置が目的地に到着していなければ、直ちにステップS10に戻る。一方、自車両の現在位置が目的地に到着していれば、仮想車両を表す像と自車両を表す像とが重なり、重なった直後に重畳部22は仮想車両を表す像を俯瞰画像中から消滅させ(ステップS80)、画像生成部22が目的地の設定をリセットしてからステップS10に戻る。なお、目的地の設定がリセットされた直後に、次の目的地が設定される場合もあり、次の目的地が設定されない場合もある。したがって、ステップS80の処理により、自車両が目的地に到着する直前から自車両が目的地に到着した直後において、運転支援装置201から表示装置31に出力される俯瞰画像は、例えば図8に示す俯瞰画像、図9に示す俯瞰画像、図10に示す俯瞰画像、図11に示す俯瞰画像の順に変化する。なお、図8~図11に示す俯瞰画像中の発券機A1の隣接位置が目的地の位置である。 If the current position of the own vehicle has not arrived at the destination, the process immediately returns to step S10. On the other hand, if the current position of the own vehicle has arrived at the destination, the image representing the virtual vehicle and the image representing the own vehicle overlap, and immediately after the overlapping, the superimposing unit 22 displays the image representing the virtual vehicle from the bird's-eye view image. It disappears (step S80), the image generation unit 22 resets the destination setting, and then returns to step S10. The next destination may be set immediately after the destination setting is reset, or the next destination may not be set. Therefore, the bird's-eye view image output from the driving support device 201 to the display device 31 immediately after the own vehicle arrives at the destination from immediately before the own vehicle arrives at the destination by the process of step S80 is shown in FIG. 8, for example. The bird's-eye view image, the bird's-eye view image shown in FIG. 9, the bird's-eye view image shown in FIG. 10, and the bird's-eye view image shown in FIG. 11 change in this order. The position adjacent to the ticket issuing machine A1 in the bird's-eye view images shown in FIGS. 8 to 11 is the position of the destination.

上記のように仮想車両に表す像は目的地に到達しても自車両が目的地に到達するまでは消滅しない。これにより、運転者にとって、自車両を目的地の位置で正確に停止させることが容易になる。例えば、本例のように発券機A1の隣接位置が目的地の位置である場合には、目的地の位置から数十センチメートルずれただけで運転者が駐車券を取ることが困難になるので、特に有用である。 As described above, the image represented by the virtual vehicle does not disappear until the own vehicle reaches the destination even if it reaches the destination. This makes it easier for the driver to accurately stop the vehicle at the destination position. For example, when the adjacent position of the ticket issuing machine A1 is the position of the destination as in this example, it is difficult for the driver to take the parking ticket even if the position is deviated by several tens of centimeters from the position of the destination. , Especially useful.

また、上記のように仮想車両を表す像と自車両を表す像とが重なった直後に仮想車両を表す像が俯瞰画像中から消滅することにより、運転者は、自車両が目的地の位置で正確に停止したことを直感的に把握することができる。 Further, as described above, the image representing the virtual vehicle disappears from the bird's-eye view image immediately after the image representing the virtual vehicle and the image representing the own vehicle overlap, so that the driver can see the own vehicle at the destination position. It is possible to intuitively grasp that the vehicle has stopped accurately.

ステップS60の判定処理において、仮想車両を表す像に対して自車両の現在位置が追従していないと判定された場合には、ステップS90に移行する。 If it is determined in the determination process of step S60 that the current position of the own vehicle does not follow the image representing the virtual vehicle, the process proceeds to step S90.

ステップS90において、画像生成部22は、仮想車両を表す像を警告用の態様に変更する。この警告用の態様は、仮想車両を表す像に対する自車両の現在位置の追従が回復するまで維持される。非警告用の態様と警告用の態様の組合せ例としては、非警告用の態様が透過性を有する黄色表示であり警告用の態様が透過性を有する赤色表示である組合せ、非警告用の態様が非点滅表示であり警告用の態様が点滅表示である組合せなどを挙げることができる。 In step S90, the image generation unit 22 changes the image representing the virtual vehicle into a warning mode. This warning aspect is maintained until the current position of the own vehicle is restored to follow the image representing the virtual vehicle. Examples of combinations of the non-warning mode and the warning mode include a combination in which the non-warning mode is a transparent yellow display and the warning mode is a transparent red display, and a non-warning mode. Can be mentioned as a combination in which is a non-blinking display and the warning mode is a blinking display.

上記のようにステップS60の判定処理での判定結果に応じて、仮想車両を表す像の態様が変更されることにより、運転者は自車両が案内経路から外れて走行していることを直感的に把握することができ、運転者の運転操作を正しい運転操作に導くことができる。 As described above, the mode of the image representing the virtual vehicle is changed according to the determination result in the determination process of step S60, so that the driver intuitively understands that the own vehicle is traveling off the guidance route. It is possible to guide the driver's driving operation to the correct driving operation.

ステップS90に続くステップS100において、判定部22eは、仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化しているか否かを判定する。例えば、自車両の現在位置が追従していない状態が所定期間継続した場合に所定のレベルより悪化したと判定してもよく、案内経路上から自車両が車幅方向に第2閾値以上離れている場合に所定のレベルより悪化したと判定してもよい。なお、第2閾値は第1閾値よりも大きい値である。 In step S100 following step S90, the determination unit 22e determines whether or not the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle is worse than a predetermined level. For example, if the current position of the own vehicle does not follow for a predetermined period of time, it may be determined that the level has deteriorated from the predetermined level, and the own vehicle is separated from the guide path by the second threshold value or more in the vehicle width direction. If so, it may be determined that the level has deteriorated from a predetermined level. The second threshold value is larger than the first threshold value.

仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化していなければ、ステップS70に移行する。一方、仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化していれば、重畳部22は仮想車両を表す像を俯瞰画像中から消滅させ(ステップS110)、運転支援装置201は、案内経路及び目的地の少なくとも一つを変更し(ステップS120)、その後ステップS10に戻る。なお、ステップS120での変更は、案内経路や目的地を削除する場合も含む。 If the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle is not worse than the predetermined level, the process proceeds to step S70. On the other hand, if the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle is worse than a predetermined level, the superimposing unit 22 eliminates the image representing the virtual vehicle from the bird's-eye view image (step). S110), the driving support device 201 changes at least one of the guide route and the destination (step S120), and then returns to step S10. The change in step S120 also includes the case of deleting the guide route and the destination.

上記のように仮想車両を表す像に対して自車両の現在位置が追従していない状態が所定のレベルより悪化した場合に、仮想車両を表す像を俯瞰画像中から消滅させることにより、仮想車両による無駄な案内の発生を防止することができる。 When the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle becomes worse than a predetermined level as described above, the image representing the virtual vehicle disappears from the bird's-eye view image of the virtual vehicle. It is possible to prevent the occurrence of unnecessary guidance due to.

<3.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の変形例は可能な範囲で組み合わせて実施されてよい。
<3. Others>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. In addition, the plurality of modifications shown in the present specification may be combined and implemented to the extent possible.

例えば、運転支援装置201は、図4に示すフロー動作の代わりに、図12に示すフロー動作を行ってもよい。図12に示すフローチャートは、図4に示すフローチャートにステップS31を追加したものである。ステップS31は、ステップS30とステップS40との間に設けられる。 For example, the operation support device 201 may perform the flow operation shown in FIG. 12 instead of the flow operation shown in FIG. The flowchart shown in FIG. 12 is obtained by adding step S31 to the flowchart shown in FIG. Step S31 is provided between step S30 and step S40.

ステップS31において、画像生成部22は、案内経路の長さが所定値以下であるか否かを判定する。案内経路の長さが所定値以下でなければ、ステップS10に戻り、案内経路の長さが所定値以下であれば、ステップS40に移行する。これにより、仮想車両を表す像を適切なタイミング(仮想車両による誘導が必要となるタイミング)で出現させることができる。 In step S31, the image generation unit 22 determines whether or not the length of the guide path is equal to or less than a predetermined value. If the length of the guide path is not a predetermined value or less, the process returns to step S10, and if the length of the guide path is not a predetermined value or less, the process proceeds to step S40. As a result, an image representing the virtual vehicle can be made to appear at an appropriate timing (timing when guidance by the virtual vehicle is required).

ステップS31で用いる所定値は自車両の車速に応じて可変することが望ましい。画像生成部22は、例えば図13に示す自車両の車速と所定値との関係をデータテーブルや関係式の形式で不揮発的に記憶しておき、車両制御ECU16から自車両の車速情報を取得し、その取得した情報に基づいて所定値を変更する。自車両の車速と所定値との関係は図13のように自車両の車速に対して所定値が連続的に変化する関係に限定されることはなく、例えば図14に示すように自車両の車速に対して所定値が連続的に変化しない関係であってもよい。 It is desirable that the predetermined value used in step S31 is variable according to the vehicle speed of the own vehicle. For example, the image generation unit 22 non-volatilely stores the relationship between the vehicle speed of the own vehicle and the predetermined value shown in FIG. 13 in the form of a data table or a relational expression, and acquires the vehicle speed information of the own vehicle from the vehicle control ECU 16. , Change the predetermined value based on the acquired information. The relationship between the vehicle speed of the own vehicle and the predetermined value is not limited to the relationship in which the predetermined value continuously changes with respect to the vehicle speed of the own vehicle as shown in FIG. 13, for example, as shown in FIG. The relationship may be such that the predetermined value does not continuously change with respect to the vehicle speed.

また、上述した実施形態では、仮想車両を表す像の出現位置が自車両の現在位置であったが、仮想車両を表す像の出現位置が出現当初から自車両がこれから走行すべき位置であってもよい。 Further, in the above-described embodiment, the appearance position of the image representing the virtual vehicle is the current position of the own vehicle, but the appearance position of the image representing the virtual vehicle is the position where the own vehicle should travel from the beginning of appearance. May be good.

また、上述した実施形態では、運転支援装置201から表示装置31に出力される画像(出力画像)の生成に撮影画像を用いたが、撮影画像を用いずに自車両周辺の風景を表すCG(Computer Graphics)を用いて出力画像を生成してもよい。自車両周辺の風景を表すCGを用いて出力画像を生成する場合には、運転支援装置201は例えばナビゲーション装置15から自車両周辺の風景を表すCGを取得するようにすればよい。 Further, in the above-described embodiment, the captured image is used to generate the image (output image) output from the driving support device 201 to the display device 31, but the CG (CG) representing the scenery around the own vehicle without using the captured image. Computer Graphics) may be used to generate the output image. When the output image is generated using the CG representing the scenery around the own vehicle, the driving support device 201 may acquire the CG representing the scenery around the own vehicle from, for example, the navigation device 15.

また、上述した実施形態では、自車両の進行方向は前方であったが、自車両の進行方向は後方であるときにも本発明を適用することができる。 Further, in the above-described embodiment, the traveling direction of the own vehicle is forward, but the present invention can be applied even when the traveling direction of the own vehicle is backward.

また、運転支援装置201から表示装置31に出力される出力画像に、自車両の車速情報や自車両のシフトレバーのレンジ情報などを含めてもよい。 Further, the output image output from the driving support device 201 to the display device 31 may include vehicle speed information of the own vehicle, range information of the shift lever of the own vehicle, and the like.

また、上述した実施形態では、運転者が自車両と仮想車両との位置関係を直感的に把握できるように、仮想車両を表す像だけでなく自車両を表す像も俯瞰画像に重畳したが、自車両を表す像を俯瞰画像に重畳しないようにしてもよい。 Further, in the above-described embodiment, not only the image representing the virtual vehicle but also the image representing the own vehicle is superimposed on the bird's-eye view image so that the driver can intuitively grasp the positional relationship between the own vehicle and the virtual vehicle. The image representing the own vehicle may not be superimposed on the bird's-eye view image.

また、上述した実施形態では、運転支援装置が出力する出力画像は俯瞰画像であったが、運転支援装置が出力する出力画像は俯瞰画像に限定されることはなく、例えばフロントカメラ11の撮影画像に仮想車両を表す像などを重畳してもよい。 Further, in the above-described embodiment, the output image output by the driving support device is a bird's-eye view image, but the output image output by the driving support device is not limited to the bird's-eye view image. An image representing a virtual vehicle may be superimposed on the image.

21 カメラ画像取得部
22 画像生成部
23 音声制御部
201 運転支援装置
21 Camera image acquisition unit 22 Image generation unit 23 Voice control unit 201 Driving support device

Claims (7)

仮想車両を表す像及び自車両を表す像を生成する生成部と、
前記自車両の周辺の風景を表す風景画像に前記仮想車両を表す像及び前記自車両を表す像を重畳する重畳部と、を備える運転支援装置であって
前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳され、
前記仮想車両を表す像は、前記風景画像中において、案内経路上の前記自車両の現在位置より所定距離先行した位置に対応する領域に重畳され、
前記案内経路上の前記自車両の現在位置より所定距離先行した位置は、前記自車両の前記運転支援装置での目的地までの前記案内経路に沿って移動し、
前記運転支援装置での目的地は、ナビゲーション装置による前記自車両の現在位置から前記ナビゲーション装置での目的地までの走行経路の案内に連動して自動的に設定され、
前記風景画像は、前記自車両に設けられたカメラの撮影画像、前記撮影画像に基づき生成される俯瞰画像、又は、前記ナビゲーション装置から取得されるCG(Computer Graphics)のいずれかである、運転支援装置。
A generator that generates an image representing a virtual vehicle and an image representing the own vehicle,
A driving support device including a superimposing portion for superimposing an image representing the virtual vehicle and an image representing the own vehicle on a landscape image representing the scenery around the own vehicle.
The image representing the own vehicle is superimposed on the region corresponding to the current position of the own vehicle in the landscape image.
The image representing the virtual vehicle is superimposed on the region corresponding to the position corresponding to the position ahead of the current position of the own vehicle on the guide path by a predetermined distance in the landscape image.
A position that precedes the current position of the own vehicle on the guide path by a predetermined distance moves along the guide path to the destination of the driving support device of the own vehicle.
The destination in the driving support device is automatically set in conjunction with the guidance of the traveling route from the current position of the own vehicle to the destination in the navigation device by the navigation device.
The landscape image is either a captured image of a camera provided in the own vehicle, a bird's-eye view image generated based on the captured image, or CG (Computer Graphics) acquired from the navigation device. Device.
前記生成部は、前記運転支援装置での目的地の有無を判定し、
前記仮想車両を表す像は、前記風景画像中において、前記運転支援装置での目的地があると前記生成部によって判定されると前記自車両の現在位置に表示され、その後、時間の経過と共に前記仮想車両を表す像の表示位置は、前記案内経路上の前記自車両の現在位置より所定距離先行した位置まで移動する、請求項1に記載の運転支援装置。
The generation unit determines the presence or absence of a destination in the driving support device, and determines whether or not there is a destination.
The image representing the virtual vehicle is displayed at the current position of the own vehicle when the generation unit determines that there is a destination in the driving support device in the landscape image, and then, with the passage of time, the image is displayed. The driving support device according to claim 1, wherein the display position of the image representing the virtual vehicle moves to a position ahead of the current position of the own vehicle on the guide path by a predetermined distance.
前記案内経路上の前記自車両の現在位置より所定距離先行した位置が前記運転支援装置での目的地に到達すると、前記仮想車両を表す像は、前記風景画像中において前記運転支援装置での目的地で停止し、その後前記自車両の現在位置が前記運転支援装置での目的地に到達すると前記風景画像中から消滅する、請求項1又は請求項2のいずれか一項に記載の運転支援装置。 When a position on the guide path ahead of the current position of the own vehicle by a predetermined distance reaches the destination in the driving support device, the image representing the virtual vehicle is the object in the driving support device in the landscape image. The driving support device according to claim 1 or 2, wherein the vehicle stops at the ground and then disappears from the landscape image when the current position of the own vehicle reaches the destination in the driving support device. .. 前記仮想車両を表す像に対して前記自車両の現在位置が追従しているか否かを前記自車両の前記案内経路からの外れ度合いに基づき判定する判定部と、
前記判定部の判定結果に応じて前記仮想車両を表す像の態様を変更する態様変更部と、を備える、請求項1~3のいずれか一項に記載の運転支援装置。
A determination unit that determines whether or not the current position of the own vehicle follows the image representing the virtual vehicle based on the degree of deviation of the own vehicle from the guide path.
The driving support device according to any one of claims 1 to 3, further comprising an aspect changing unit that changes the aspect of an image representing the virtual vehicle according to a determination result of the determination unit.
前記仮想車両を表す像に対して前記自車両の現在位置が追従していない状態が所定のレベルより悪化すると、前記仮想車両を表す像は、前記風景画像中から消滅する、請求項1~4のいずれか一項に記載の運転支援装置。 Claims 1 to 4 that the image representing the virtual vehicle disappears from the landscape image when the state in which the current position of the own vehicle does not follow the image representing the virtual vehicle becomes worse than a predetermined level. The driving support device according to any one of the above. 前記運転支援装置での目的地は、前記自車両の現在位置の周辺を移動中の障害物に応じて前記自車両と前記障害物との衝突が回避されるように自動的に変更される、請求項1~5のいずれか一項に記載の運転支援装置。 The destination in the driving support device is automatically changed so as to avoid a collision between the own vehicle and the obstacle according to an obstacle moving around the current position of the own vehicle. The driving support device according to any one of claims 1 to 5. 仮想車両を表す像及び自車両を表す像を生成する生成工程と、
前記自車両の周辺の風景を表す風景画像に前記仮想車両を表す像及び前記自車両を表す像を重畳する重畳工程と、を備える運転支援方法であって、、
前記自車両を表す像は、前記風景画像中の前記自車両の現在位置に対応する領域に重畳され、
前記仮想車両を表す像は、前記風景画像中において、案内経路上の前記自車両の現在位置より所定距離先行した位置に対応する領域に重畳され、
前記案内経路上の前記自車両の現在位置より所定距離先行した位置は、前記自車両の前記運転支援方法での目的地までの前記案内経路に沿って移動し、
前記運転支援方法での目的地は、ナビゲーション装置による前記自車両の現在位置から前記ナビゲーション装置での目的地までの走行経路の案内に連動して自動的に設定され、
前記風景画像は、前記自車両に設けられたカメラの撮影画像、前記撮影画像に基づき生成される俯瞰画像、又は、前記ナビゲーション装置から取得されるCG(Computer Graphics)のいずれかである、運転支援方法。
A generation process that generates an image representing a virtual vehicle and an image representing an own vehicle,
A driving support method comprising a superimposing step of superimposing an image representing the virtual vehicle and an image representing the own vehicle on a landscape image representing the scenery around the own vehicle.
The image representing the own vehicle is superimposed on the region corresponding to the current position of the own vehicle in the landscape image.
The image representing the virtual vehicle is superimposed on the region corresponding to the position corresponding to the position ahead of the current position of the own vehicle on the guide path by a predetermined distance in the landscape image.
A position that precedes the current position of the own vehicle on the guide path by a predetermined distance moves along the guide path to the destination in the driving support method of the own vehicle.
The destination in the driving support method is automatically set in conjunction with the guidance of the traveling route from the current position of the own vehicle to the destination by the navigation device by the navigation device.
The landscape image is either a captured image of a camera provided in the own vehicle, a bird's-eye view image generated based on the captured image, or CG (Computer Graphics) acquired from the navigation device. Method.
JP2017167380A 2017-08-31 2017-08-31 Driving support device and driving support method Active JP7051335B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017167380A JP7051335B2 (en) 2017-08-31 2017-08-31 Driving support device and driving support method
US16/040,836 US20190066382A1 (en) 2017-08-31 2018-07-20 Driving support device, driving support method, information providing device and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167380A JP7051335B2 (en) 2017-08-31 2017-08-31 Driving support device and driving support method

Publications (2)

Publication Number Publication Date
JP2019045257A JP2019045257A (en) 2019-03-22
JP7051335B2 true JP7051335B2 (en) 2022-04-11

Family

ID=65814686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167380A Active JP7051335B2 (en) 2017-08-31 2017-08-31 Driving support device and driving support method

Country Status (1)

Country Link
JP (1) JP7051335B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317275A (en) 2003-04-16 2004-11-11 Alpine Electronics Inc Navigation system
JP2005127996A (en) 2003-09-30 2005-05-19 Mazda Motor Corp Route guidance system, method, and program
JP2007198962A (en) 2006-01-27 2007-08-09 Matsushita Electric Ind Co Ltd Guidance display device for vehicle
JP2009198267A (en) 2008-02-20 2009-09-03 Pioneer Electronic Corp Navigation device, display control method, display control program, and recording medium
JP2013238529A (en) 2012-05-16 2013-11-28 Toyota Motor Corp Information processor of mobile body, information processing method of mobile body, and driving support device
JP2016182891A (en) 2015-03-26 2016-10-20 修一 田山 Vehicular image display system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317275A (en) 2003-04-16 2004-11-11 Alpine Electronics Inc Navigation system
JP2005127996A (en) 2003-09-30 2005-05-19 Mazda Motor Corp Route guidance system, method, and program
JP2007198962A (en) 2006-01-27 2007-08-09 Matsushita Electric Ind Co Ltd Guidance display device for vehicle
JP2009198267A (en) 2008-02-20 2009-09-03 Pioneer Electronic Corp Navigation device, display control method, display control program, and recording medium
JP2013238529A (en) 2012-05-16 2013-11-28 Toyota Motor Corp Information processor of mobile body, information processing method of mobile body, and driving support device
JP2016182891A (en) 2015-03-26 2016-10-20 修一 田山 Vehicular image display system and method

Also Published As

Publication number Publication date
JP2019045257A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6414096B2 (en) In-vehicle device, control method for in-vehicle device, and control program for in-vehicle device
JP6669299B2 (en) Image processing device
US11535155B2 (en) Superimposed-image display device and computer program
WO2019038903A1 (en) Surrounding vehicle display method and surrounding vehicle display apparatus
JP6350247B2 (en) Image processing device
JP6665605B2 (en) Display control device and display control method
US20220172652A1 (en) Display control device and display control program product
JPWO2014174575A1 (en) Head-up display device for vehicle
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP2019207155A (en) Display control device, and display control program
EP3967554B1 (en) Vehicular display system
JP2019046069A (en) Driving support device and driving support method
JP2008151507A (en) Apparatus and method for merge guidance
US11850940B2 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
JP2015226304A (en) Projection device for vehicle and head-up display system
JP7151073B2 (en) Display device and computer program
WO2016088312A1 (en) Image processing device
JP6631572B2 (en) Display control device for vehicle and display unit for vehicle
JP6962397B2 (en) Display control device and display control method
US20190066382A1 (en) Driving support device, driving support method, information providing device and information providing method
JP7217090B2 (en) Information providing device and information providing method
JP7051335B2 (en) Driving support device and driving support method
WO2018020751A1 (en) Display control device for vehicle, display system for vehicle, display control method for vehicle, and program
JP2018019155A (en) Display controller for vehicle, display system for vehicle, display control method for vehicle and program
JP7143728B2 (en) Superimposed image display device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150