JP2018184091A - Driving assistance device, driving assistance method and program - Google Patents

Driving assistance device, driving assistance method and program Download PDF

Info

Publication number
JP2018184091A
JP2018184091A JP2017087295A JP2017087295A JP2018184091A JP 2018184091 A JP2018184091 A JP 2018184091A JP 2017087295 A JP2017087295 A JP 2017087295A JP 2017087295 A JP2017087295 A JP 2017087295A JP 2018184091 A JP2018184091 A JP 2018184091A
Authority
JP
Japan
Prior art keywords
vehicle
image
predicted
host vehicle
course
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017087295A
Other languages
Japanese (ja)
Other versions
JP6821124B2 (en
Inventor
山田 哲
Satoru Yamada
哲 山田
富光夫 塚本
Tomio Tsukamoto
富光夫 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017087295A priority Critical patent/JP6821124B2/en
Publication of JP2018184091A publication Critical patent/JP2018184091A/en
Application granted granted Critical
Publication of JP6821124B2 publication Critical patent/JP6821124B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To display a predicted route for an own vehicle more clearly.SOLUTION: A driving assistance device 10 includes: an acquisition unit 22 for acquiring information to be used for route prediction for an own vehicle and information showing surrounding conditions of the own vehicle; a route prediction unit 24 for calculating a predicted route for the own vehicle by using the information acquired by the acquisition unit 22, and detecting obstacles on the predicted route for the own vehicle; an image generation unit 26 for superimposing a vehicle image showing a predicted position of the own vehicle on a vehicle surrounding image for the own vehicle acquired by the acquisition unit 22, and generating a predicted route image in which a display position of a vehicle image changes along the predicted route for the own vehicle on the vehicle peripheral image; and a display control unit 28 for displaying the predicted route image on a display device. When an obstacle is detected on the predicted route of the own vehicle, the image generation unit 26 generate a predicted route image with a different display mode than in a situation where no obstacle is detected.SELECTED DRAWING: Figure 2

Description

本発明は、運転支援装置、運転支援方法およびプログラムに関する。   The present invention relates to a driving support device, a driving support method, and a program.

近年、駐車時の運転を支援する目的で、車載カメラで撮像した車両周辺画像を運転者に提示する装置が知られている。例えば、車両後方を撮像した後方画像が表示されたり、複数の車載カメラからの画像を結合して生成される俯瞰画像が表示されたりする。また、俯瞰画像には、自車両の前方障害物に対する接触防止用のガイド表示や、自車両の操舵量に応じて自車両の駐車予定位置を示すガイド表示などが重畳される(例えば、特許文献1参照)。   2. Description of the Related Art In recent years, there has been known an apparatus that presents a driver with a vehicle periphery image captured by an in-vehicle camera for the purpose of assisting driving during parking. For example, a rear image obtained by imaging the rear of the vehicle is displayed, or an overhead image generated by combining images from a plurality of in-vehicle cameras is displayed. In addition, a guide display for preventing contact with an obstacle ahead of the host vehicle, a guide display indicating a planned parking position of the host vehicle according to the steering amount of the host vehicle, and the like are superimposed on the overhead image (for example, Patent Documents). 1).

特開2006−27334号公報JP 2006-27334 A

駐車時には、自車両の周辺の他車両や障害物への接触に注意しつつ、ステアリングホイールの舵角を調整しながら自車両を運転する必要がある。駐車場のスペースが狭い場合などには、自車両の位置に応じて舵角を変化させつつ、自車両を少しずつ前進または後退させなければならないことも多い。このような状況下において、運転者の適切な運転操作をより細やかに支援できる表示がなされることが好ましい。   When parking, it is necessary to drive the host vehicle while adjusting the steering angle of the steering wheel while paying attention to contact with other vehicles and obstacles around the host vehicle. When the parking space is small, it is often necessary to move the vehicle forward or backward little by little while changing the rudder angle according to the position of the vehicle. Under such circumstances, it is preferable that a display capable of supporting the driver's appropriate driving operation more precisely is provided.

本発明は、上述の事情に鑑みてなされたものであり、自車両の予測進路をより分かりやすく表示する技術を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for displaying the predicted course of the host vehicle in an easy-to-understand manner.

本発明のある態様の運転支援装置は、自車両の進路予測に用いる情報および自車両の周辺状況を示す情報を取得する取得部と、取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って車両画像の表示位置が車両周辺画像上で変化する予測進路画像を生成する画像生成部と、予測進路画像を表示装置に表示させる表示制御部と、を備える。画像生成部は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なる予測進路画像を生成する。   A driving support device according to an aspect of the present invention uses an acquisition unit that acquires information used for course prediction of the host vehicle and information indicating a surrounding situation of the host vehicle, and a predicted course of the host vehicle using information acquired by the acquisition unit. And a vehicle path image indicating the predicted position of the host vehicle is superimposed on the vehicle surrounding image of the host vehicle acquired by the acquiring unit, and the obstacle prediction unit detects the obstacle on the predicted path of the host vehicle. The image generation part which produces | generates the predicted course image from which the display position of a vehicle image changes on a vehicle periphery image along a predicted course, and the display control part which displays a predicted course image on a display apparatus are provided. When an obstacle is detected on the predicted route of the host vehicle, the image generation unit generates a predicted route image having a different display mode compared to the case where the obstacle is not.

本発明の別の態様は、運転支援方法である。この方法は、自車両の進路予測に用いる情報を取得して自車両の予測進路を算出するステップと、自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知するステップと、自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って車両画像の表示位置が車両周辺画像上で変化する予測進路画像を生成するステップと、予測進路画像を表示装置に表示させるステップと、を備える。予測進路画像は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なるように生成される。   Another aspect of the present invention is a driving support method. This method obtains information used for predicting the course of the host vehicle and calculates the predicted course of the host vehicle, acquires information indicating the surrounding situation of the host vehicle and detects an obstacle on the predicted course of the host vehicle. The vehicle image indicating the predicted position of the host vehicle is superimposed on the vehicle peripheral image obtained by imaging the periphery of the host vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the host vehicle. Generating a predicted course image; and displaying the predicted course image on a display device. The predicted course image is generated such that when an obstacle is detected on the predicted course of the host vehicle, the display mode is different from that when the obstacle is not detected.

なお、以上の構成要素の任意の組合せや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。   Note that any combination of the above-described constituent elements and the constituent elements and expressions of the present invention replaced with each other among methods, apparatuses, systems, etc. are also effective as an aspect of the present invention.

本発明によれば、自車両の予測進路をより分かりやすく表示できる。   According to the present invention, the predicted course of the host vehicle can be displayed more easily.

自車両を駐車スペースに駐車させる状況を模式的に示す図である。It is a figure which shows typically the condition which parks the own vehicle in a parking space. 運転支援装置の構成を模式的に示す機能ブロック図である。It is a functional block diagram which shows typically the structure of a driving assistance device. 予測進路の軌跡を模式的に示す図である。It is a figure which shows typically the locus | trajectory of a prediction course. 予測進路上の障害物の検知方法を模式的に説明するための図である。It is a figure for demonstrating typically the detection method of the obstruction on a prediction course. 予測進路上の障害物の検知方法を模式的に説明するための図である。It is a figure for demonstrating typically the detection method of the obstruction on a prediction course. 予測進路画像を模式的に示す図である。It is a figure which shows a predicted course image typically. 予測進路画像のアニメーション表示を模式的に示す図である。It is a figure which shows typically the animation display of a predicted course image. 予測進路画像のアニメーション表示を模式的に示す図である。It is a figure which shows typically the animation display of a predicted course image. 図9(a)及び(b)は、変形例に係る予測進路画像を模式的に示す図である。FIGS. 9A and 9B are diagrams schematically illustrating a predicted course image according to a modification. 変形例に係る予測進路画像のアニメーション表示を模式的に示す図である。It is a figure which shows typically the animation display of the predicted course image which concerns on a modification. 変形例に係る予測進路画像のアニメーション表示を模式的に示す図である。It is a figure which shows typically the animation display of the predicted course image which concerns on a modification. 運転支援方法の流れを模式的に示すフローチャートである。It is a flowchart which shows the flow of a driving assistance method typically.

以下、本発明の実施の形態について、図面を参照しつつ説明する。かかる実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Embodiments of the present invention will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、自車両60を駐車スペース52に駐車させる状況を模式的に示す図であり、自車両60を後退させて駐車スペース52に進入させる様子を示す。駐車場50には、複数の駐車スペースが並んで配置されており、空いている駐車スペース52の両側には他車両62a,62bが駐車されている。また、駐車スペース52の前方にも他車両62c,62dが駐車されている。このような状況下において、自車両60を運転する運転者は、自車の周辺に位置する他車両62a,62b,62c,62dへの接触を防ぎながら、空いている駐車スペース52内に自車両60が収まるように運転操作をする必要がある。   FIG. 1 is a diagram schematically illustrating a situation in which the host vehicle 60 is parked in the parking space 52, and shows a state in which the host vehicle 60 is moved backward to enter the parking space 52. A plurality of parking spaces are arranged in the parking lot 50, and other vehicles 62 a and 62 b are parked on both sides of the vacant parking space 52. Other vehicles 62c and 62d are also parked in front of the parking space 52. Under such circumstances, the driver driving the host vehicle 60 prevents the vehicle from coming into contact with other vehicles 62a, 62b, 62c, and 62d located in the vicinity of the host vehicle, while in the vacant parking space 52. It is necessary to perform a driving operation so that 60 is contained.

熟練した運転者であれば、駐車時の運転操作がそれほど難しくない場合もある。しかしながら、駐車を苦手とする運転者は一定数存在し、特に駐車場50内の限られたスペースの中で周辺の障害物との接触を避けながら、駐車スペース52に向けてスムーズに自車両60を進めることに困難性を感じることが多い。その原因として、自車両60の周辺の状況を正確に把握することが難しいこと、及び、自車両60の進路を正確に予測することが難しいことが挙げられる。その結果、ステアリングホイールの舵角を調整しながら少しずつ自車両60を後退または前進させ、その都度、周囲の状況を把握する手間が生じる。また、周辺の障害物と自車両60が接触しそうな場合や、駐車スペース52の枠から自車両60がはみ出てしまうような場合には、駐車をはじめからやり直したり、切り返しが必要となったりするため、非常に手間となる。さらには、駐車のやり直しや切り返しにおいても周辺の障害物と接触しないように注意を払わなければならず、運転者を悩ませることになる。   If it is an expert driver, the driving operation at the time of parking may not be so difficult. However, there are a certain number of drivers who are not good at parking, and the own vehicle 60 smoothly moves toward the parking space 52 while avoiding contact with surrounding obstacles in a limited space in the parking lot 50. I often find it difficult to proceed. As the cause, it is difficult to accurately grasp the situation around the host vehicle 60 and it is difficult to accurately predict the course of the host vehicle 60. As a result, it is time-consuming to move the host vehicle 60 backward or forward little by little while adjusting the steering angle of the steering wheel, and to grasp the surrounding situation each time. In addition, if the surrounding vehicle is likely to come into contact with the surrounding obstacle 60 or if the vehicle 60 protrudes from the frame of the parking space 52, the parking may be performed again from the beginning or it may be necessary to switch back. Therefore, it becomes very troublesome. Furthermore, care must be taken not to come in contact with surrounding obstacles even during redoing or turning back of the parking lot, which may annoy the driver.

本実施の形態によれば、自車両60の周辺の状況および自車両60の予測進路を分かりやすく表示する運転支援装置が提供される。この運転支援装置は、車両周辺画像上に自車両60の予測位置を示す車両画像を重畳した予測進路画像を生成し、自車両60の予測進路の軌跡に沿って車両画像がアニメーションのように移動する予測進路画像を表示する。また、予測進路上に障害物が検知される場合には、そうでない場合と比較して表示態様の異なる予測進路画像を表示し、予測進路上の障害物に接触する可能性があることを注意喚起する。本実施の形態によれば、車両周辺画像により自車両60の周囲の状況を示しつつ、その画像上での自車両60の予測進路が動画で分かりやすく示される。そのため、運転者は、自車両60の舵角が妥当であるかどうか、現在の舵角を維持したまま自車両60をどの程度の距離まで進めてよいか等を直感的に把握できる。これにより、駐車時の運転操作の困難性を低減し、運転操作を好適に支援することができる。   According to the present embodiment, there is provided a driving support device that displays the situation around the host vehicle 60 and the predicted course of the host vehicle 60 in an easy-to-understand manner. The driving support device generates a predicted course image in which a vehicle image indicating a predicted position of the host vehicle 60 is superimposed on a vehicle periphery image, and the vehicle image moves like an animation along the trajectory of the predicted path of the host vehicle 60. The predicted course image to be displayed is displayed. In addition, when an obstacle is detected on the predicted route, it is possible to display a predicted route image with a different display mode compared to the case where the obstacle is not, and there is a possibility of touching the obstacle on the predicted route. Arouse. According to the present embodiment, the situation around the host vehicle 60 is indicated by the vehicle peripheral image, and the predicted course of the host vehicle 60 on the image is clearly shown in the moving image. Therefore, the driver can intuitively grasp whether or not the steering angle of the host vehicle 60 is appropriate, and to what distance the host vehicle 60 may be advanced while maintaining the current steering angle. Thereby, the difficulty of the driving operation at the time of parking can be reduced, and driving operation can be supported suitably.

図2は、運転支援装置10の構成を模式的に示す機能ブロック図である。図示する各機能ブロックは、ハードウェア的には、コンピュータのCPUやメモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックとして描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組み合わせによっていろいろなかたちで実現できることは、当業者には理解されるところである。   FIG. 2 is a functional block diagram schematically showing the configuration of the driving support device 10. Each functional block shown in the figure can be realized by hardware such as a computer CPU and memory, or a mechanical device, and can be realized by software by a computer program or the like. It is drawn as a functional block to be realized. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.

運転支援装置10は、タッチディスプレイ12と、制御装置18とを備える。タッチディスプレイ12は、表示装置14と、入力装置16とを有する。表示装置14は、液晶ディスプレイ等の表示装置であり、車両のセンターコンソールやダッシュボードの位置に取り付けられる。入力装置16は、いわゆるタッチパネル式のセンサであり、表示装置14の表示領域に設けられる。なお、入力装置16はタッチ式ではなく、表示装置14の周辺に配置されるボタン等で構成されてもよい。また、表示装置14は、車両後方を視認するためのリアビューミラーの位置に設けられてもよいし、ヘッドアップディスプレイとして構成されてもよい。運転支援装置10は、タッチディスプレイ12を備えず、運転支援装置10とは別のディスプレイ等の表示装置の表示を制御してもよい。   The driving support device 10 includes a touch display 12 and a control device 18. The touch display 12 includes a display device 14 and an input device 16. The display device 14 is a display device such as a liquid crystal display, and is attached to the position of the center console or dashboard of the vehicle. The input device 16 is a so-called touch panel sensor, and is provided in the display area of the display device 14. Note that the input device 16 is not a touch type, and may be configured with buttons or the like arranged around the display device 14. Moreover, the display apparatus 14 may be provided in the position of the rear view mirror for visually recognizing the vehicle rear, and may be comprised as a head-up display. The driving support device 10 may not include the touch display 12 and may control display on a display device such as a display different from the driving support device 10.

制御装置18は、自車両60の予測進路画像を生成し、生成した予測進路画像を表示装置14に表示させる。制御装置18は、車載カメラ30、舵角センサ32、車速センサ34、シフトレバー36、及び、障害物センサ38と接続されており、これらから予測進路画像の生成に必要な情報を取得する。なお、CAN(Controller Area Network)を通じてこれらの情報を取得してもよい。   The control device 18 generates a predicted course image of the host vehicle 60 and causes the display device 14 to display the generated predicted course image. The control device 18 is connected to the vehicle-mounted camera 30, the steering angle sensor 32, the vehicle speed sensor 34, the shift lever 36, and the obstacle sensor 38, and acquires information necessary for generating a predicted course image from these. Note that these pieces of information may be acquired through a CAN (Controller Area Network).

制御装置18は、取得部22と、進路予測部24と、画像生成部26と、表示制御部28と、を備える。   The control device 18 includes an acquisition unit 22, a course prediction unit 24, an image generation unit 26, and a display control unit 28.

取得部22は、自車両の進路予測に用いる情報を取得する。取得部22は、舵角センサ32から自車両60の舵角を示す情報を取得し、車速センサ34から自車両60の車速を示す情報を取得する。取得部22は、シフトレバー36からシフトレバー位置を示す情報を取得し、自車両60が前進または後退のいずれをするかについての情報を取得する。   The acquisition part 22 acquires the information used for the course prediction of the own vehicle. The acquisition unit 22 acquires information indicating the steering angle of the host vehicle 60 from the steering angle sensor 32, and acquires information indicating the vehicle speed of the host vehicle 60 from the vehicle speed sensor 34. The acquisition unit 22 acquires information indicating the shift lever position from the shift lever 36, and acquires information about whether the host vehicle 60 moves forward or backward.

取得部22は、自車両の周辺状況を示す情報を取得する。取得部22は、車載カメラ30から自車両60の周辺を撮像した画像を取得する。取得部22は、例えば、自車両60の前後左右の4箇所に設けられる複数のカメラのそれぞれが撮像する画像を取得し、自車両60の周辺を上空から見ているかのように視点変換処理が施された俯瞰画像を生成可能にする。なお、取得部22が取得する画像は特に限られず、例えば自車両60の後方画像など、自車両60の周辺状況を示す車両周辺画像を生成するために必要な任意の画像を取得してよい。   The acquisition unit 22 acquires information indicating the surrounding situation of the host vehicle. The acquisition unit 22 acquires an image obtained by capturing the periphery of the host vehicle 60 from the in-vehicle camera 30. For example, the acquisition unit 22 acquires images captured by each of a plurality of cameras provided at four locations on the front, rear, left, and right sides of the host vehicle 60 and performs viewpoint conversion processing as if the periphery of the host vehicle 60 is viewed from above. The applied overhead image can be generated. Note that the image acquired by the acquisition unit 22 is not particularly limited, and an arbitrary image necessary for generating a vehicle peripheral image indicating a peripheral situation of the host vehicle 60 such as a rear image of the host vehicle 60 may be acquired.

取得部22は、障害物センサ38から自車両60の周辺に存在する障害物を検知する。取得部22は、例えば、自車両60の前後左右の複数箇所に設けられるセンサから自車両60から障害物までの距離および方向に関する情報を取得する。障害物センサ38の形式は特に限定されないが、例えば、超音波センサ、赤外線センサ、ミリ波レーダ、ステレオカメラや、LIDAR(Light Detection and Ranging)センサなどを用いることができる。その他、自車両60が移動する間に車載カメラ30が撮像した複数の画像を比較して得られる視差情報から自車両60の周辺の障害物までの距離が算出されてもよい。   The acquisition unit 22 detects an obstacle existing around the host vehicle 60 from the obstacle sensor 38. For example, the acquisition unit 22 acquires information related to the distance and direction from the vehicle 60 to the obstacle from sensors provided at a plurality of positions on the front, rear, left and right of the vehicle 60. The type of the obstacle sensor 38 is not particularly limited. For example, an ultrasonic sensor, an infrared sensor, a millimeter wave radar, a stereo camera, a LIDAR (Light Detection and Ranging) sensor, or the like can be used. In addition, the distance to the obstacle around the own vehicle 60 may be calculated from the parallax information obtained by comparing a plurality of images captured by the in-vehicle camera 30 while the own vehicle 60 moves.

進路予測部24は、取得部22が取得した情報を用いて自車両60の予測進路を算出する。進路予測部24は、主に舵角情報およびシフトレバー位置情報に基づいて、自車両60の予測進路を算出する。例えば、シフトレバーがDレンジなどの前進可能な位置にある場合、舵角に基づいて自車両60の前方の進路を予測する。一方、シフトレバーがRレンジなどの後退可能な位置にある場合、舵角に基づいて自車両60の後方の進路を予測する。進路予測部24は、自車両60の近傍の限られた範囲の進路を予測し、例えば、自車両60から5m〜15m程度の範囲について進路を予測する。進路予測部24の予測範囲は、車両周辺画像70に含まれる範囲に限定されてもよい。   The course prediction unit 24 calculates the predicted course of the host vehicle 60 using the information acquired by the acquisition unit 22. The course prediction unit 24 calculates a predicted course of the host vehicle 60 mainly based on the steering angle information and the shift lever position information. For example, when the shift lever is at a position where it can move forward, such as the D range, the course ahead of the host vehicle 60 is predicted based on the steering angle. On the other hand, when the shift lever is at a reversible position such as the R range, the course behind the host vehicle 60 is predicted based on the steering angle. The course prediction unit 24 predicts a limited range of courses in the vicinity of the host vehicle 60, and for example, predicts a course about a range of about 5 m to 15 m from the host vehicle 60. The prediction range of the course prediction unit 24 may be limited to a range included in the vehicle surrounding image 70.

図3は、予測進路の軌跡C1,C2,C3,C4,C5を模式的に示す図であり、自車両60が後退する場合の予測進路を示す。算出される予測進路は、自車両60の舵角に応じて変化し、例えば、自車両60が直進する場合には予測進路が第1軌跡C1のようになり、舵角が非常に大きい場合には予測進路が第5軌跡C5のようになる。また、舵角が中程度の場合には舵角の大きさに応じて予測進路が第2軌跡C2、第3軌跡C3、第4軌跡C4のように変化する。予測進路の軌跡が演算される範囲は限定されており、図示する例では、自車両60の全長の2〜3倍程度、例えば、5m〜15mの距離が演算される。   FIG. 3 is a diagram schematically showing the predicted course paths C1, C2, C3, C4, and C5, and shows the predicted course when the host vehicle 60 moves backward. The calculated predicted course changes according to the steering angle of the host vehicle 60. For example, when the host vehicle 60 travels straight, the predicted course becomes the first trajectory C1 and the steering angle is very large. The predicted course becomes the fifth locus C5. Further, when the rudder angle is medium, the predicted course changes according to the magnitude of the rudder angle as a second trajectory C2, a third trajectory C3, and a fourth trajectory C4. The range in which the trajectory of the predicted course is calculated is limited, and in the illustrated example, a distance of about 2 to 3 times the total length of the host vehicle 60, for example, 5 m to 15 m is calculated.

進路予測部24は、さらに、取得部22が取得する情報を用いて自車両60の予測進路上の障害物の有無を検知する。進路予測部24は、障害物センサ38から取得した情報に基づいて、自車両60と自車両60の周辺の障害物との位置関係を示すマップを生成する。障害物の位置を示すマップは、例えば、自車両60から障害物までの距離と方向に関する情報から生成することができる。進路予測部24は、障害物の位置を示すマップ上に算出した予測進路を重ね合わせることにより、予測進路上の障害物を検知する。   The course prediction unit 24 further detects the presence or absence of an obstacle on the predicted course of the host vehicle 60 using the information acquired by the acquisition unit 22. The course prediction unit 24 generates a map indicating the positional relationship between the host vehicle 60 and obstacles around the host vehicle 60 based on the information acquired from the obstacle sensor 38. The map indicating the position of the obstacle can be generated from information on the distance and direction from the host vehicle 60 to the obstacle, for example. The course prediction unit 24 detects the obstacle on the predicted course by superimposing the calculated course on the map indicating the position of the obstacle.

図4は、予測進路上の障害物の検知方法を模式的に説明するための図である。図4では、自車両の予測進路が第3軌跡C3の場合を例示しており、自車両60の周囲に存在する障害物の位置関係を示すマップ上に第3軌跡C3が重ね合わされている。また、予測進路の軌跡C3に沿って破線で示される自車両60の複数の予測位置64が重ね合わされている。破線で示す各予測位置64は、予測進路に沿って自車両60が移動する際に車体が占める領域を示し、自車両60が移動する際に車体が通過する予測通過領域を示す。進路予測部24は、例えば、10cm〜50cm程度の間隔ごとに各予測位置64を算出する。各予測位置64が占める領域の大きさは、自車両60の外形と同じに設定されてもよいし、10cm〜50cm程度の余裕を加味して自車両60の外形より大きく設定されてもよい。進路予測部24は、離散的な複数の予測位置64を算出する代わりに、各予測位置64を連続的につなぎ合わせたような予測通過領域を算出してもよい。   FIG. 4 is a diagram for schematically explaining an obstacle detection method on a predicted course. FIG. 4 illustrates the case where the predicted course of the host vehicle is the third trajectory C3, and the third trajectory C3 is superimposed on a map showing the positional relationship of obstacles existing around the host vehicle 60. In addition, a plurality of predicted positions 64 of the host vehicle 60 indicated by broken lines are superimposed along the predicted track C3. Each predicted position 64 indicated by a broken line indicates an area occupied by the vehicle body when the host vehicle 60 moves along the predicted course, and indicates a predicted passing area through which the vehicle body passes when the host vehicle 60 moves. The course prediction unit 24 calculates each predicted position 64 at intervals of about 10 cm to 50 cm, for example. The size of the area occupied by each predicted position 64 may be set to be the same as the outer shape of the host vehicle 60, or may be set larger than the outer shape of the host vehicle 60 in consideration of a margin of about 10 cm to 50 cm. The course prediction unit 24 may calculate a predicted passage area in which the predicted positions 64 are continuously connected instead of calculating the plurality of discrete predicted positions 64.

進路予測部24は、算出した予測通過領域と障害物の重なりの有無を判定する。進路予測部24は、例えば、算出した複数の予測位置64のそれぞれの領域内に障害物があるか否かを判定し、障害物と重なる予測位置64を特定する。図4では、予測進路の軌跡C3に沿って算出される複数の予測位置64の一部と他車両62bとが重なる場合を例示している。このような場合、進路予測部24は、自車両60の予測進路上に障害物があると判定し、障害物があると判定された予測位置64を特定する。例えば、図4に示される複数の予測位置64のうち、他車両62cと重なる一部の予測位置64a,64bを特定する。   The course prediction unit 24 determines whether or not the calculated predicted passage area and the obstacle overlap. The course prediction unit 24 determines, for example, whether or not there is an obstacle in each of the calculated plurality of predicted positions 64, and identifies the predicted position 64 that overlaps the obstacle. FIG. 4 illustrates a case where a part of the plurality of predicted positions 64 calculated along the track C3 of the predicted course and the other vehicle 62b overlap. In such a case, the course prediction unit 24 determines that there is an obstacle on the predicted course of the host vehicle 60, and specifies the predicted position 64 determined to have an obstacle. For example, among the plurality of predicted positions 64 shown in FIG. 4, some predicted positions 64a and 64b overlapping with the other vehicle 62c are specified.

図5は、予測進路上の障害物の検知方法を模式的に説明するための図であり、予測進路上に障害物が検知されない場合を示す。図5では、自車両の予測進路が第4軌跡C4の場合を例示しており、予測進路の軌跡C4に沿って算出される複数の予測位置66の領域内に周囲の他車両62a〜62dが存在しない場合を示している。このような場合、進路予測部24は、自車両60の予測進路上に障害物がないと判定する。なお、進路予測部24が検知する障害物は特に限られず、柱や壁といった構造物、通行人なども含むことが好ましい。   FIG. 5 is a diagram for schematically explaining an obstacle detection method on the predicted route, and shows a case where no obstacle is detected on the predicted route. FIG. 5 illustrates the case where the predicted course of the host vehicle is the fourth trajectory C4, and the surrounding other vehicles 62a to 62d are within the region of the plurality of predicted positions 66 calculated along the trajectory C4 of the predicted course. The case where it does not exist is shown. In such a case, the course prediction unit 24 determines that there is no obstacle on the predicted course of the host vehicle 60. Obstacles detected by the course prediction unit 24 are not particularly limited, and preferably include structures such as pillars and walls, passers-by, and the like.

画像生成部26は、自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳した予測進路画像を生成する。車両周辺画像は、取得部22が取得する情報を用いた画像であり、例えば、車載カメラ30が撮像した画像に基づいて生成される。車両周辺画像は、例えば、自車両60の周辺を上空から見ているかのように視点変換処理がなされた俯瞰画像である。車両周辺画像上には、自車両60の現在位置を示す第1車両画像と、自車両60の予測位置を示す第2車両画像とが重畳される。   The image generation unit 26 generates a predicted route image in which a vehicle image indicating a predicted position of the host vehicle is superimposed on a vehicle periphery image obtained by capturing the periphery of the host vehicle. The vehicle peripheral image is an image using information acquired by the acquisition unit 22, and is generated based on, for example, an image captured by the in-vehicle camera 30. The vehicle peripheral image is, for example, a bird's-eye view image that has been subjected to viewpoint conversion processing as if the periphery of the host vehicle 60 is viewed from above. A first vehicle image indicating the current position of the host vehicle 60 and a second vehicle image indicating the predicted position of the host vehicle 60 are superimposed on the vehicle peripheral image.

図6は、予測進路画像72を模式的に示す図である。予測進路画像72は、車両周辺画像70に第1車両画像80および第2車両画像82を重畳することにより生成される。車両周辺画像70は、自車両60の周辺を撮像した現在の状況を示す俯瞰画像である。第1車両画像80および第2車両画像82は、上空から見た自車両60を模したシンボル画像である。第1車両画像80は、自車両60の現在位置に表示され、第2車両画像82は、自車両60の予測位置に表示される。予測進路の軌跡Cは、予測進路画像72に表示されてもよいし、表示されなくてもよい。   FIG. 6 is a diagram schematically showing the predicted course image 72. The predicted course image 72 is generated by superimposing the first vehicle image 80 and the second vehicle image 82 on the vehicle surrounding image 70. The vehicle surrounding image 70 is a bird's-eye view image showing the current situation in which the periphery of the host vehicle 60 is imaged. The first vehicle image 80 and the second vehicle image 82 are symbol images imitating the host vehicle 60 viewed from above. The first vehicle image 80 is displayed at the current position of the host vehicle 60, and the second vehicle image 82 is displayed at the predicted position of the host vehicle 60. The predicted track C may or may not be displayed on the predicted track image 72.

第2車両画像82は、半透明の画像として表示され、第2車両画像82と重畳する部分が隠れてしまわないように表示されることが好ましい。仮に透過性のない画像を重畳した場合、第2車両画像82と重畳する駐車スペース52の枠線や障害物などが隠れてしまい、枠線や障害物との自車両の予測位置との位置関係が分かりづらくなるおそれがあるためである。なお、第2車両画像82として自車両60の輪郭を示すフレーム部分のみで構成される画像を用いることにより、第2車両画像82と重畳して隠れてしまう範囲が小さくなるようにし、視認性の低下を抑えてもよい。   The second vehicle image 82 is preferably displayed as a translucent image so that a portion overlapping the second vehicle image 82 is not hidden. If a non-transparent image is superimposed, the frame line or obstacle of the parking space 52 superimposed on the second vehicle image 82 is hidden, and the positional relationship between the frame line and the obstacle and the predicted position of the vehicle. This may be difficult to understand. In addition, by using an image composed only of a frame portion showing the contour of the host vehicle 60 as the second vehicle image 82, the range that is hidden by being superimposed on the second vehicle image 82 is reduced. The decrease may be suppressed.

第2車両画像82は、一見して第1車両画像80と区別できるよう、第1車両画像80とは異なる態様で表示されることが好ましい。第2車両画像82は、例えば、第1車両画像80とは形状、色彩、透過性、輪郭線の太さや線種などが異なるように構成される。一例を挙げれば、第1車両画像80が自車両60の形状を詳細に模した画像として構成される一方、第2車両画像82がシンプルな矩形状の画像として構成されてもよい。その他、第1車両画像80と第2車両画像82の色相、明度、彩度の少なくとも一つを異ならせることにより、両者の区別が容易となるようにしてもよい。   The second vehicle image 82 is preferably displayed in a different form from the first vehicle image 80 so that it can be distinguished from the first vehicle image 80 at a glance. For example, the second vehicle image 82 is configured to be different from the first vehicle image 80 in shape, color, transparency, outline thickness, line type, and the like. As an example, the first vehicle image 80 may be configured as an image imitating the shape of the host vehicle 60 in detail, while the second vehicle image 82 may be configured as a simple rectangular image. In addition, the first vehicle image 80 and the second vehicle image 82 may be differentiated by making at least one of hue, brightness, and saturation different.

画像生成部26は、予測進路上に障害物が検知される場合、障害物が検知されない場合とは異なる表示態様の予測進路画像72を生成する。画像生成部26は、障害物の検知の有無に応じて第2車両画像82の表示態様を異ならせる。例えば、障害物が検知される場合には、第2車両画像82を赤色や黄色などの表示色にしたり、第2車両画像82の明度や彩度を高める表示にしたりすることにより、障害物への接触可能性が高いことを注意喚起する表示とする。一方、予測進路上に障害物が検知されない場合には、第2車両画像82を緑色や青色などの表示色にしたり、第2車両画像82の明度や彩度を下げる表示にしたりすることにより、障害物への接触可能性が低いことを示す表示とする。なお、障害物が検知されない場合とは異なる表示態様の予測進路画像72として、画像全体の表示色を赤みがかった画像となるように変更したり、画像全体の明度や彩度を変更したり、注意喚起用の画像を重畳したりするなどして、画像全体または一部の表示態様を異ならせてもよい。   When an obstacle is detected on the predicted course, the image generation unit 26 generates a predicted course image 72 having a display mode different from that when no obstacle is detected. The image generation unit 26 changes the display mode of the second vehicle image 82 according to whether or not an obstacle is detected. For example, when an obstacle is detected, the second vehicle image 82 is displayed in a display color such as red or yellow, or the second vehicle image 82 is displayed to increase the lightness or saturation of the second vehicle image 82. It is a display to call attention to the high possibility of contact. On the other hand, when no obstacle is detected on the predicted course, the second vehicle image 82 is displayed in a display color such as green or blue, or the brightness or saturation of the second vehicle image 82 is reduced. The display indicates that the possibility of contact with an obstacle is low. In addition, as the predicted course image 72 having a display mode different from the case where no obstacle is detected, the display color of the entire image is changed to be a reddish image, or the brightness and saturation of the entire image are changed. The display mode of the entire image or a part of the image may be varied by superimposing an image for arousing or the like.

画像生成部26は、第2車両画像82の表示位置をアニメーションのように変化させる予測進路画像72を生成する。画像生成部26は、例えば、図4に示す複数の予測位置64のそれぞれに第2車両画像82を重畳した複数の予測進路画像72を生成する。このような複数の予測進路画像72を順番に表示させることにより、第2車両画像82の表示位置が第1車両画像80から離れていく方向に変化する予測進路画像72のアニメーション表示を実現する。画像生成部26は、複数の予測進路画像72を生成する代わりに、車両周辺画像70上の第2車両画像82の位置が変化していく動画像を生成してもよい。   The image generation unit 26 generates a predicted course image 72 that changes the display position of the second vehicle image 82 like an animation. For example, the image generation unit 26 generates a plurality of predicted course images 72 in which the second vehicle image 82 is superimposed on each of the plurality of predicted positions 64 illustrated in FIG. 4. By displaying such a plurality of predicted course images 72 in order, an animation display of the predicted course image 72 in which the display position of the second vehicle image 82 changes in a direction away from the first vehicle image 80 is realized. The image generation unit 26 may generate a moving image in which the position of the second vehicle image 82 on the vehicle peripheral image 70 changes instead of generating the plurality of predicted course images 72.

表示制御部28は、画像生成部26が生成した予測進路画像72を表示装置14に表示させる。表示制御部28は、画像生成部26が生成する複数の予測進路画像72を順番に再生表示させることにより、表示装置14に予測進路画像72がアニメーション表示されるようにする。   The display control unit 28 causes the display device 14 to display the predicted course image 72 generated by the image generation unit 26. The display control unit 28 reproduces and displays the plurality of predicted course images 72 generated by the image generation unit 26 in order, so that the predicted course image 72 is displayed as an animation on the display device 14.

図7は、予測進路画像72a,72b,72cのアニメーション表示を模式的に示す図であり、図4の第3軌跡C3に沿って第2車両画像82の表示位置を変化させる場合を示す。図示されるように、複数の予測進路画像72a〜72cは、第2車両画像82a,82b,82cの表示位置がそれぞれ異なっており、第2車両画像82a〜82cが第1車両画像80から段階的に離れるように配置される。一方、現在位置を示す第1車両画像80の表示位置は固定されている。   FIG. 7 is a diagram schematically showing an animation display of the predicted course images 72a, 72b, 72c, and shows a case where the display position of the second vehicle image 82 is changed along the third locus C3 of FIG. As shown in the drawing, the display positions of the second vehicle images 82 a, 82 b and 82 c are different from each other in the plurality of predicted course images 72 a to 72 c, and the second vehicle images 82 a to 82 c are stepped from the first vehicle image 80. Arranged so as to be separated from each other. On the other hand, the display position of the first vehicle image 80 indicating the current position is fixed.

図7において、障害物である他車両62bと重ねて表示される第2車両画像82cは、障害物と重ならずに表示される第2車両画像82a,82bと異なる表示態様で表示される。例えば、障害物と重ならない第2車両画像82a,82bが緑色や青色で表示されるのに対し、障害物と重なる第2車両画像82cは、赤色や黄色で表示される。これにより、現在の舵角のまま自車両60を一定距離以上後退させた場合、他車両62bに接触することを効果的に注意喚起できる。   In FIG. 7, the second vehicle image 82c displayed so as to overlap the other vehicle 62b that is an obstacle is displayed in a display mode different from the second vehicle images 82a and 82b displayed without overlapping the obstacle. For example, the second vehicle images 82a and 82b that do not overlap the obstacle are displayed in green or blue, whereas the second vehicle image 82c that overlaps the obstacle is displayed in red or yellow. Thereby, when the own vehicle 60 is moved backward by a certain distance or more with the current steering angle, it is possible to effectively alert the other vehicle 62b to contact.

表示制御部28は、複数の予測進路画像72a〜72cを順番に表示させることで、第2車両画像82がアニメーションのように移動して表示されるようにする。画像生成部26は、より多く(例えば、5枚、10枚、20枚、30枚など)の予測進路画像を生成して、第2車両画像82の動きが滑らかに表示されるようにしてもよい。また、第2車両画像82の位置を段階的に変化させるのではなく、第2車両画像82が連続的に移動するようにしてもよい。   The display control unit 28 displays the plurality of predicted course images 72a to 72c in order, so that the second vehicle image 82 moves and is displayed like an animation. The image generation unit 26 generates more (for example, five, ten, twenty, thirty, etc.) predicted course images so that the movement of the second vehicle image 82 is displayed smoothly. Good. Further, the second vehicle image 82 may be continuously moved instead of changing the position of the second vehicle image 82 stepwise.

表示制御部28は、複数の予測進路画像72a〜72cを繰り返し表示することにより、第2車両画像82から第1車両画像80が離れるように移動していく様子が繰り返し表示されるようにしてもよい。例えば、第3の予測進路画像72cを表示した後に、再度、第1の予測進路画像72aから順番にアニメーション表示を開始させてもよい。第3の予測進路画像72cの表示直後に第1の予測進路画像72aを表示すると、表示が煩雑となることから、第3の予測進路画像72cを一定時間(例えば、0.5秒〜1秒程度)表示してから第1の予測進路画像72aに切り替えるようにしてもよい。つまり、アニメーション表示の最初と最後については、第2車両画像82を一定時間にわたって固定するようにしてもよい。   The display control unit 28 repeatedly displays the plurality of predicted course images 72a to 72c so that the state in which the first vehicle image 80 moves away from the second vehicle image 82 is repeatedly displayed. Good. For example, after displaying the third predicted course image 72c, the animation display may be started again in order from the first predicted course image 72a. If the first predicted course image 72a is displayed immediately after the display of the third predicted course image 72c, the display becomes complicated. Therefore, the third predicted course image 72c is displayed for a certain time (for example, 0.5 seconds to 1 second). Degree) may be displayed and then switched to the first predicted course image 72a. That is, the second vehicle image 82 may be fixed for a certain period of time at the beginning and end of the animation display.

画像生成部26は、予測進路画像72の表示中に自車両60の予測進路が変化した場合、予測進路の変更に応じて第2車両画像82の表示位置を異ならせた予測進路画像72を生成する。例えば、予測進路画像72の表示中にステアリングホイールの舵角が変更された場合、変更後の舵角に応じて予測進路が算出され、変更後の予測進路上に第2車両画像82を表示させる。また、予測進路画像72の表示中にシフトレバーが操作されて前進可能な状態となった場合、車両前方の予測進路が算出され、第1車両画像80の前方に第2車両画像82が表示されるようにする。   When the predicted course of the host vehicle 60 changes while the predicted course image 72 is displayed, the image generation unit 26 generates a predicted course image 72 in which the display position of the second vehicle image 82 is changed according to the change of the predicted course. To do. For example, when the steering angle of the steering wheel is changed while the predicted course image 72 is displayed, the predicted course is calculated according to the changed steering angle, and the second vehicle image 82 is displayed on the predicted course after the change. . In addition, when the shift lever is operated while the predicted course image 72 is displayed and the vehicle can move forward, the predicted course ahead of the vehicle is calculated, and the second vehicle image 82 is displayed in front of the first vehicle image 80. So that

図8は、予測進路画像のアニメーション表示を模式的に示す図であり、舵角変更後の予測進路画像74a,74b,74cを示す。図8は、舵角変更により予測進路が第4軌跡C4に変更された場合を示す。舵角が変更された場合、進路予測部24は、変更後の舵角に応じた予測進路を算出し、予測進路上の障害物の有無を検知する。画像生成部26は、進路予測部24の演算結果に応じた予測進路画像74a〜74cを生成する。図示する例では、予測進路上に障害物が検知されないため、アニメーション表示される第2車両画像84a,84b,84cが同じ態様で表示され、例えば、全ての第2車両画像84a〜84cが緑色や青色で表示される。これにより、現在の舵角のまま自車両60を後退させた場合、障害物への接触可能性が低いことを示される。   FIG. 8 is a diagram schematically showing an animation display of a predicted course image, and shows predicted course images 74a, 74b, and 74c after the steering angle is changed. FIG. 8 shows a case where the predicted course is changed to the fourth locus C4 by changing the rudder angle. When the rudder angle is changed, the course prediction unit 24 calculates a predicted course corresponding to the changed steering angle, and detects the presence or absence of an obstacle on the predicted course. The image generation unit 26 generates predicted course images 74 a to 74 c according to the calculation results of the course prediction unit 24. In the illustrated example, since no obstacle is detected on the predicted course, the second vehicle images 84a, 84b, and 84c that are displayed in animation are displayed in the same manner. For example, all the second vehicle images 84a to 84c are green or Displayed in blue. Thereby, when the own vehicle 60 is moved backward with the current steering angle, it is indicated that the possibility of contact with the obstacle is low.

運転者は、図7に示す予測進路画像72a〜72cから、第3軌跡C3に対応する舵角を維持した場合、進入しようとする駐車スペースに収まらず、隣接する他車両62bに接触する可能性があることを直感的に理解できる。また、図8に示す予測進路画像74a〜74cから、第4軌跡C4に対応する舵角を維持すれば、隣接する他車両62bに接触せずに目標とする駐車スペースに進入できることが直感的に理解できる。本実施の形態によれば、予測進路に沿って車両画像をアニメーションのように変化させるとともに、障害物との接触可能性がある場合に表示態様を異ならせることで、自車両60の予測進路を分かりやすく運転者に提示できる。   When the driver maintains the rudder angle corresponding to the third trajectory C3 from the predicted course images 72a to 72c shown in FIG. 7, the driver does not fit in the parking space to be entered and may contact the adjacent other vehicle 62b. Intuitively understand that there is. Further, from the predicted course images 74a to 74c shown in FIG. 8, it is intuitively possible to enter the target parking space without touching the adjacent other vehicle 62b by maintaining the steering angle corresponding to the fourth trajectory C4. Understandable. According to the present embodiment, the vehicle image is changed like an animation along the predicted route, and when there is a possibility of contact with an obstacle, the display mode is changed to change the predicted route of the host vehicle 60. It can be presented to the driver in an easy-to-understand manner.

図9(a)及び(b)は、変形例に係る予測進路画像76a,76bを模式的に示す図である。図9(a),(b)は、図7に示す予測進路画像72cに対応し、付加画像86a,86bがさらに重畳される点で上述の予測進路画像72cと相違する。図9(a)では、第2車両画像82cのうち障害物である他車両62bと重複する一部のみが異なる表示態様となるように付加画像86aが重畳される。図9(b)では、障害物との衝突を強調するような星形の付加画像86bが重畳される。このような付加画像86a,86bとして、ユーザへの注意喚起を高めるように赤色や黄色などの表示色や、第2車両画像82cより明度や彩度の高い表示態様が用いられる。このような付加画像86a,86bを重畳することにより、障害物との接触可能性があることを運転者により強調して注意喚起できる。なお、障害物と重ねて表示される第2車両画像82cや付加画像86a,86bを点滅表示させることにより、障害物との接触可能性をより強調する表示態様としてもよい。   FIGS. 9A and 9B are diagrams schematically illustrating predicted course images 76a and 76b according to the modification. FIGS. 9A and 9B correspond to the predicted course image 72c shown in FIG. 7, and are different from the predicted course image 72c described above in that the additional images 86a and 86b are further superimposed. In FIG. 9A, the additional image 86a is superimposed so that only a part of the second vehicle image 82c that overlaps the other vehicle 62b that is an obstacle has a different display mode. In FIG. 9B, a star-shaped additional image 86b that emphasizes a collision with an obstacle is superimposed. As such additional images 86a and 86b, a display color such as red or yellow, or a display mode with higher brightness or saturation than the second vehicle image 82c is used so as to increase the alert to the user. By superimposing such additional images 86a and 86b, the driver can be emphasized and alerted that there is a possibility of contact with an obstacle. In addition, it is good also as a display mode which emphasizes the contact possibility with an obstruction more by blinkingly displaying the 2nd vehicle image 82c and the additional images 86a and 86b displayed on an obstruction.

図10は、変形例に係る予測進路画像72a〜72cのアニメーション表示を模式的に示す図であり、上述の図7に対応する表示例を示す。図10では、接触可能性のある障害物との距離に応じて第2車両画像82a〜82cの表示態様を変化させ、障害物に近づくにつれて接触可能性をより強調する表示態様に変更する点で上述の表示例と異なる。例えば、衝突可能性のある他車両62bからの距離が一定以上ある場合には、第2車両画像82aを緑色や青色などで表示する。一方で、他車両62bからの距離が一定未満となる場合には、第2車両画像82bを黄色などで表示し、他車両62bと重なる場合には第2車両画像82cを赤色で表示する。ここで、表示態様を変化させるように定められる一定距離は、30cm〜1m程度または40cm〜70cm程度である。このように予測進路画像の表示態様を段階的に変化させることにより、接触可能性のある障害物までの距離感を段階的に分かりやすく示すことができる。なお、障害物との距離に応じて連続的に表示態様を変化させてもよく、例えば、障害物との距離に応じて第2車両画像82の色相、明度、彩度の少なくとも一つを連続的に変化させて表示してもよい。   FIG. 10 is a diagram schematically showing an animation display of the predicted course images 72a to 72c according to the modification, and shows a display example corresponding to FIG. 7 described above. In FIG. 10, the display mode of the second vehicle images 82 a to 82 c is changed according to the distance to the obstacle that may be touched, and the display mode is changed to emphasize the touch possibility as the obstacle is approached. Different from the above display example. For example, when the distance from the other vehicle 62b with the possibility of collision is a certain distance or more, the second vehicle image 82a is displayed in green or blue. On the other hand, when the distance from the other vehicle 62b is less than a certain value, the second vehicle image 82b is displayed in yellow or the like, and when the distance from the other vehicle 62b is overlapped, the second vehicle image 82c is displayed in red. Here, the fixed distance determined to change the display mode is about 30 cm to 1 m or about 40 cm to 70 cm. In this way, by changing the display mode of the predicted course image step by step, it is possible to show the sense of distance to an obstacle with a possibility of contact in an easy-to-understand manner. The display mode may be continuously changed according to the distance from the obstacle. For example, at least one of the hue, brightness, and saturation of the second vehicle image 82 is continuously changed according to the distance from the obstacle. The display may be changed as desired.

図11は、変形例に係る予測進路画像76a,76b,76cのアニメーション表示を模式的に示す図であり、上述の図7に対応する表示例を示す。図11は、自車両60の後方で他車両62dが前進し、後退しようとする自車両60の進路を塞いだ状態における表示例を示している。その結果、図11では、現在位置を示す第1車両画像80の近傍において、他車両62dとの接触可能性が高いことを示す第2車両画像82bや、他車両62dに接触することを示す第2車両画像82cが表示される。このような場合に、図7と同様に予測進路の軌跡C3に沿って第2車両画像82を移動させると、接触可能性のある他車両62dを突き抜けるように第2車両画像82が表示される。そうすると、アニメーション表示通りに自車両60を後退しても問題がないかのように見えてしまい、他車両62dとの接触を適切に注意喚起できなくなるおそれがある。そこで、本変形例では、第2車両画像82a〜82cの表示範囲を限定し、他車両62dと重ねて表示される第2車両画像82cよりも離れた位置で第2車両画像が表示されないようにする。つまり、自車両の現在位置を示す第1車両画像80と、障害物と重ねて表示される第2車両画像82cとの間の範囲に限定して第2車両画像82a〜82cを移動表示させるようにする。これにより、障害物との接触可能性をより適切に示す予測進路画像76a〜76cを運転者に提示できる。   FIG. 11 is a diagram schematically showing an animation display of the predicted course images 76a, 76b, and 76c according to the modification, and shows a display example corresponding to FIG. 7 described above. FIG. 11 shows a display example in a state in which the other vehicle 62d moves forward behind the host vehicle 60 and blocks the course of the host vehicle 60 that is going to move backward. As a result, in FIG. 11, in the vicinity of the first vehicle image 80 indicating the current position, the second vehicle image 82b indicating that the possibility of contact with the other vehicle 62d is high, or the second vehicle image 82d indicating that the other vehicle 62d is contacted. A two-vehicle image 82c is displayed. In such a case, if the second vehicle image 82 is moved along the track C3 of the predicted course in the same manner as in FIG. 7, the second vehicle image 82 is displayed so as to penetrate the other vehicle 62d that may be contacted. . If it does so, it will appear as if there is no problem even if the host vehicle 60 is moved backward as indicated by the animation display, and there is a possibility that it will not be possible to appropriately alert the contact with the other vehicle 62d. Therefore, in this modification, the display range of the second vehicle images 82a to 82c is limited so that the second vehicle image is not displayed at a position distant from the second vehicle image 82c displayed to overlap the other vehicle 62d. To do. That is, the second vehicle images 82a to 82c are moved and displayed only in a range between the first vehicle image 80 indicating the current position of the host vehicle and the second vehicle image 82c displayed so as to overlap the obstacle. To. Thereby, the predicted course images 76a to 76c that more appropriately indicate the possibility of contact with the obstacle can be presented to the driver.

図12は、運転支援方法の流れを模式的に示すフローチャートである。進路予測部24は、取得部22が取得する情報に基づいて自車両60の予測進路を算出する(S10)。予測進路上に障害物が検知される場合(S12のY)、自車両60の予測位置を示す車両画像のうち障害物と重なる車両画像が異なる表示態様となるように予測進路画像を生成する(S14)。一方、予測進路上に障害物が検知されない場合(S12のN)、予測進路上の車両画像が同様の表示態様となるように予測進路画像を生成する(S16)。生成された予測進路画像は、予測進路に沿って車両画像の位置が変化するように表示される(S18)。   FIG. 12 is a flowchart schematically showing the flow of the driving support method. The course prediction unit 24 calculates the predicted course of the host vehicle 60 based on the information acquired by the acquisition unit 22 (S10). When an obstacle is detected on the predicted course (Y in S12), a predicted course image is generated so that the vehicle image overlapping the obstacle in the vehicle image indicating the predicted position of the host vehicle 60 has a different display mode ( S14). On the other hand, when an obstacle is not detected on the predicted route (N in S12), a predicted route image is generated so that the vehicle image on the predicted route has the same display mode (S16). The generated predicted course image is displayed so that the position of the vehicle image changes along the predicted course (S18).

以上、本発明を上述の実施の形態を参照して説明したが、本発明は上述の実施の形態に限定されるものではなく、各表示例に示す構成を適宜組み合わせたものや置換したものについても本発明に含まれるものである。   As described above, the present invention has been described with reference to the above-described embodiment. However, the present invention is not limited to the above-described embodiment, and the configuration shown in each display example is appropriately combined or replaced. Are also included in the present invention.

上述の実施の形態では、俯瞰画像を用いて予測進路画像を生成する場合を示した。変形例においては、自車両の後方を撮像した後方画像を用いて予測進路画像を生成してもよい。この場合、後方画像上に自車両を模した画像を重畳し、その重畳位置や画像の大きさをアニメーションのように変化させることで、自車両の予測進路を可視化してもよい。   In the above-described embodiment, the case where the predicted course image is generated using the overhead image has been shown. In a modification, you may produce | generate a predicted course image using the back image which imaged the back of the own vehicle. In this case, the predicted course of the host vehicle may be visualized by superimposing an image simulating the host vehicle on the rear image and changing the superimposed position and the size of the image like animation.

10…運転支援装置、14…表示装置、22…取得部、24…進路予測部、26…画像生成部、28…表示制御部、30…車載カメラ、70…車両周辺画像、72,74,76…予測進路画像、80…第1車両画像、82,84…第2車両画像、86…付加画像。   DESCRIPTION OF SYMBOLS 10 ... Driving assistance apparatus, 14 ... Display apparatus, 22 ... Acquisition part, 24 ... Course prediction part, 26 ... Image generation part, 28 ... Display control part, 30 ... Car-mounted camera, 70 ... Vehicle periphery image, 72, 74, 76 ... predicted course image, 80 ... first vehicle image, 82, 84 ... second vehicle image, 86 ... additional image.

Claims (10)

自車両の進路予測に用いる情報および自車両の周辺状況を示す情報を取得する取得部と、
前記取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、
前記取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する画像生成部と、
前記予測進路画像を表示装置に表示させる表示制御部と、を備え、
前記画像生成部は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なる予測進路画像を生成することを特徴とする運転支援装置。
An acquisition unit for acquiring information used for predicting the course of the host vehicle and information indicating a surrounding situation of the host vehicle;
Using the information acquired by the acquisition unit, a predicted course of the host vehicle is calculated, and a path prediction unit that detects an obstacle on the predicted path of the host vehicle;
The vehicle image indicating the predicted position of the host vehicle is superimposed on the vehicle periphery image of the host vehicle acquired by the acquiring unit, and the display position of the vehicle image changes on the vehicle periphery image along the predicted course of the host vehicle. An image generation unit for generating a predicted course image;
A display control unit for displaying the predicted course image on a display device,
The said image production | generation part produces | generates the prediction course image from which a display mode differs compared with the case where an obstruction is detected on the prediction course of the own vehicle compared with the case where it is not so.
前記画像生成部は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して前記車両画像の表示態様が異なる予測進路画像を生成することを特徴とする請求項1に記載の運転支援装置。   The said image generation part produces | generates the prediction course image from which the display mode of the said vehicle image differs compared with the case where an obstacle is detected on the prediction course of the own vehicle compared with the case where it is not so. The driving support device according to 1. 前記画像生成部は、前記車両周辺画像上で表示位置を変化させる前記車両画像のうち、前記車両周辺画像上で前記障害物に重ねて表示される車両画像と、前記障害物に重ならずに表示される車両画像とが異なる表示態様となるように前記予測進路画像を生成することを特徴とする請求項1または2に記載の運転支援装置。   The image generation unit includes a vehicle image that is displayed on the vehicle periphery image so as to be superimposed on the obstacle, and does not overlap the obstacle among the vehicle images that change a display position on the vehicle periphery image. The driving assistance device according to claim 1, wherein the predicted course image is generated so that a displayed form is different from a displayed vehicle image. 前記画像生成部は、前記車両周辺画像上で前記障害物および前記車両画像が重なることを強調する付加画像がさらに重畳された予測進路画像を生成することを特徴とする請求項1から3のいずれか一項に記載の運転支援装置。   The said image generation part produces | generates the predicted course image on which the additional image which emphasizes that the said obstacle and the said vehicle image overlap on the said vehicle periphery image was further superimposed. The driving support device according to claim 1. 前記画像生成部は、自車両の予測進路上に障害物が検知される場合、前記車両周辺画像上での自車両の現在位置と、前記障害物に重ねて表示される車両画像の表示位置との間の範囲に前記車両画像の表示位置が限定される予測進路画像を生成することを特徴とする請求項1から4のいずれか一項に記載の運転支援装置。   When an obstacle is detected on the predicted course of the host vehicle, the image generation unit is configured to display a current position of the host vehicle on the vehicle peripheral image, and a display position of a vehicle image displayed on the obstacle. 5. The driving assistance apparatus according to claim 1, wherein a predicted course image in which a display position of the vehicle image is limited to a range between is generated. 前記画像生成部は、前記車両周辺画像上での前記障害物と前記車両画像の距離に応じて前記車両画像の表示態様が異なる予測進路画像を生成することを特徴とする請求項1から5のいずれか一項に記載の運転支援装置。   The said image generation part produces | generates the prediction course image from which the display mode of the said vehicle image differs according to the distance of the said obstacle and the said vehicle image on the said vehicle periphery image of Claim 1 to 5 characterized by the above-mentioned. The driving support device according to any one of the above. 前記車両周辺画像は、自車両の周辺を上空から見ているかのような視点変換処理が施された俯瞰画像であることを特徴とする請求項1から6のいずれか一項に記載の運転支援装置。   The driving support according to any one of claims 1 to 6, wherein the vehicle periphery image is an overhead image that has been subjected to a viewpoint conversion process as if the periphery of the host vehicle is viewed from above. apparatus. 前記取得部は、自車両の車載カメラから前記車両周辺画像を取得し、前記車載カメラとは異なる車載センサから前記障害物を検知するための情報を取得することを特徴とする請求項1から7のいずれか一項に記載の運転支援装置。   The said acquisition part acquires the said vehicle periphery image from the vehicle-mounted camera of the own vehicle, and acquires the information for detecting the said obstruction from the vehicle-mounted sensor different from the said vehicle-mounted camera. The driving support device according to any one of the above. 自車両の進路予測に用いる情報を取得して自車両の予測進路を算出するステップと、
自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知するステップと、
自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成するステップと、
前記予測進路画像を表示装置に表示させるステップと、を備え、
前記予測進路画像は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なるように生成されることを特徴とする運転支援方法。
Obtaining information used to predict the course of the host vehicle and calculating the predicted course of the host vehicle;
Obtaining information indicating the surrounding situation of the host vehicle and detecting an obstacle on the predicted course of the host vehicle;
A predicted course in which a vehicle image indicating a predicted position of the host vehicle is superimposed on a vehicle peripheral image obtained by imaging the periphery of the host vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted path of the host vehicle. Generating an image; and
Displaying the predicted course image on a display device,
The predicted route image is generated such that when an obstacle is detected on the predicted route of the host vehicle, the display mode is different from that when the obstacle is not detected.
自車両の進路予測に用いる情報を取得して自車両の予測進路を算出する機能と、
自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知する機能と、
自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する機能と、
前記予測進路画像を表示装置に表示させる機能と、をコンピュータに実現させるプログラムであって、
前記予測進路画像は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なるように生成されることを特徴とするプログラム。
A function of obtaining information used for course prediction of the host vehicle and calculating a predicted course of the host vehicle;
A function of acquiring information indicating the surrounding situation of the host vehicle and detecting an obstacle on the predicted course of the host vehicle;
A predicted course in which a vehicle image indicating a predicted position of the host vehicle is superimposed on a vehicle peripheral image obtained by imaging the periphery of the host vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted path of the host vehicle. The ability to generate images,
A function for causing a computer to realize a function of displaying the predicted course image on a display device,
The said predicted course image is produced | generated so that a display aspect may differ compared with the case where an obstruction is detected on the predicted course of the own vehicle compared with the case where it is not so.
JP2017087295A 2017-04-26 2017-04-26 Driving support devices, driving support methods and programs Active JP6821124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087295A JP6821124B2 (en) 2017-04-26 2017-04-26 Driving support devices, driving support methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087295A JP6821124B2 (en) 2017-04-26 2017-04-26 Driving support devices, driving support methods and programs

Publications (2)

Publication Number Publication Date
JP2018184091A true JP2018184091A (en) 2018-11-22
JP6821124B2 JP6821124B2 (en) 2021-01-27

Family

ID=64357311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087295A Active JP6821124B2 (en) 2017-04-26 2017-04-26 Driving support devices, driving support methods and programs

Country Status (1)

Country Link
JP (1) JP6821124B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182198A (en) * 2018-04-10 2019-10-24 アイシン精機株式会社 Periphery monitoring device
CN112477758A (en) * 2019-09-12 2021-03-12 爱信精机株式会社 Periphery monitoring device
WO2023027039A1 (en) * 2021-08-24 2023-03-02 株式会社デンソー Parking assistance device and parking assistance method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09180100A (en) * 1995-12-22 1997-07-11 Mitsubishi Motors Corp Method and device for judging parking
JP2001006097A (en) * 1999-06-25 2001-01-12 Fujitsu Ten Ltd Device for supporting driving for vehicle
JP2002079898A (en) * 2000-06-30 2002-03-19 Matsushita Electric Ind Co Ltd Plotter
JP2003212072A (en) * 2002-01-21 2003-07-30 Nissan Motor Co Ltd Driving support device
JP2007148761A (en) * 2005-11-28 2007-06-14 Denso Corp Parking support system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09180100A (en) * 1995-12-22 1997-07-11 Mitsubishi Motors Corp Method and device for judging parking
JP2001006097A (en) * 1999-06-25 2001-01-12 Fujitsu Ten Ltd Device for supporting driving for vehicle
JP2002079898A (en) * 2000-06-30 2002-03-19 Matsushita Electric Ind Co Ltd Plotter
JP2003212072A (en) * 2002-01-21 2003-07-30 Nissan Motor Co Ltd Driving support device
JP2007148761A (en) * 2005-11-28 2007-06-14 Denso Corp Parking support system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019182198A (en) * 2018-04-10 2019-10-24 アイシン精機株式会社 Periphery monitoring device
JP7139664B2 (en) 2018-04-10 2022-09-21 株式会社アイシン Perimeter monitoring device
CN112477758A (en) * 2019-09-12 2021-03-12 爱信精机株式会社 Periphery monitoring device
JP2021044751A (en) * 2019-09-12 2021-03-18 アイシン精機株式会社 Periphery monitoring device
JP7443705B2 (en) 2019-09-12 2024-03-06 株式会社アイシン Peripheral monitoring device
WO2023027039A1 (en) * 2021-08-24 2023-03-02 株式会社デンソー Parking assistance device and parking assistance method

Also Published As

Publication number Publication date
JP6821124B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP4956915B2 (en) Video display device and video display method
JP5454934B2 (en) Driving assistance device
JP7190487B2 (en) How to draw a vehicle's surroundings
JP5872517B2 (en) Vehicle periphery display device
WO2017068696A1 (en) Parking support information display method and parking support device
JP4682809B2 (en) Parking assistance system
WO2012160590A1 (en) Lane change assistant information visualization system
JP2013241088A (en) Parking support device
JP7443705B2 (en) Peripheral monitoring device
JP5549235B2 (en) Driving assistance device
JP2016088104A (en) Parking support device
JP2010202010A (en) Parking support device
JP2007076496A (en) Parking support device
JP2005045602A (en) Field of view monitor system for vehicle
JP5852076B2 (en) Vehicle periphery display device
JP2011193137A (en) Parking support device
JP6821124B2 (en) Driving support devices, driving support methods and programs
JP2014065342A (en) Parking support device, control method, and program
JP6040766B2 (en) Parking assistance device
JP4957589B2 (en) Obstacle warning device, obstacle warning method, and computer program
JP6731022B2 (en) Parking assistance device, vehicle and parking assistance method
JP5690184B2 (en) In-vehicle device operation support device
WO2020148957A1 (en) Vehicle control device and method
JP2005343417A (en) Parking assisting device
JP6942978B2 (en) Driving Assistance Equipment, Driving Assistance Methods and Programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6821124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150