JP6821124B2 - Driving support devices, driving support methods and programs - Google Patents
Driving support devices, driving support methods and programs Download PDFInfo
- Publication number
- JP6821124B2 JP6821124B2 JP2017087295A JP2017087295A JP6821124B2 JP 6821124 B2 JP6821124 B2 JP 6821124B2 JP 2017087295 A JP2017087295 A JP 2017087295A JP 2017087295 A JP2017087295 A JP 2017087295A JP 6821124 B2 JP6821124 B2 JP 6821124B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- course
- predicted course
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、運転支援装置、運転支援方法およびプログラムに関する。 The present invention relates to a driving support device, a driving support method and a program.
近年、駐車時の運転を支援する目的で、車載カメラで撮像した車両周辺画像を運転者に提示する装置が知られている。例えば、車両後方を撮像した後方画像が表示されたり、複数の車載カメラからの画像を結合して生成される俯瞰画像が表示されたりする。また、俯瞰画像には、自車両の前方障害物に対する接触防止用のガイド表示や、自車両の操舵量に応じて自車両の駐車予定位置を示すガイド表示などが重畳される(例えば、特許文献1参照)。 In recent years, a device for presenting a vehicle peripheral image captured by an in-vehicle camera to a driver has been known for the purpose of supporting driving during parking. For example, a rear image obtained by capturing the rear of the vehicle may be displayed, or a bird's-eye view image generated by combining images from a plurality of in-vehicle cameras may be displayed. In addition, a guide display for preventing contact with an obstacle in front of the own vehicle and a guide display indicating the planned parking position of the own vehicle according to the steering amount of the own vehicle are superimposed on the bird's-eye view image (for example, Patent Documents). 1).
駐車時には、自車両の周辺の他車両や障害物への接触に注意しつつ、ステアリングホイールの舵角を調整しながら自車両を運転する必要がある。駐車場のスペースが狭い場合などには、自車両の位置に応じて舵角を変化させつつ、自車両を少しずつ前進または後退させなければならないことも多い。このような状況下において、運転者の適切な運転操作をより細やかに支援できる表示がなされることが好ましい。 When parking, it is necessary to drive the own vehicle while adjusting the steering angle of the steering wheel while paying attention to contact with other vehicles and obstacles around the own vehicle. When the parking space is small, it is often necessary to move the vehicle forward or backward little by little while changing the steering angle according to the position of the vehicle. Under such circumstances, it is preferable that a display that can support the proper driving operation of the driver in more detail is provided.
本発明は、上述の事情に鑑みてなされたものであり、自車両の予測進路をより分かりやすく表示する技術を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for displaying the predicted course of the own vehicle in a more understandable manner.
本発明のある態様の運転支援装置は、自車両の進路予測に用いる情報および自車両の周辺状況を示す情報を取得する取得部と、取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って車両画像の表示位置が車両周辺画像上で変化する予測進路画像を生成する画像生成部と、予測進路画像を表示装置に表示させる表示制御部と、を備える。画像生成部は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なる予測進路画像を生成する。 The driving support device of a certain aspect of the present invention uses an acquisition unit that acquires information used for predicting the course of the own vehicle and information indicating the surrounding situation of the own vehicle, and an acquisition unit that acquires the information acquired by the acquisition unit to predict the predicted course of the own vehicle. Is calculated, and the course prediction unit that detects obstacles on the predicted course of the own vehicle and the vehicle image showing the predicted position of the own vehicle are superimposed on the vehicle peripheral image of the own vehicle acquired by the acquisition unit, and the own vehicle It includes an image generation unit that generates a predicted course image in which the display position of the vehicle image changes on the vehicle peripheral image along the predicted course, and a display control unit that displays the predicted course image on the display device. When an obstacle is detected on the predicted course of the own vehicle, the image generation unit generates a predicted course image having a different display mode as compared with the case where the obstacle is not detected.
本発明の別の態様は、運転支援方法である。この方法は、自車両の進路予測に用いる情報を取得して自車両の予測進路を算出するステップと、自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知するステップと、自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って車両画像の表示位置が車両周辺画像上で変化する予測進路画像を生成するステップと、予測進路画像を表示装置に表示させるステップと、を備える。予測進路画像は、自車両の予測進路上に障害物が検知される場合、そうでない場合と比較して表示態様が異なるように生成される。 Another aspect of the present invention is a driving support method. This method acquires the information used for predicting the course of the own vehicle and calculates the predicted course of the own vehicle, and acquires the information indicating the surrounding situation of the own vehicle to detect obstacles on the predicted course of the own vehicle. The step to be performed and the vehicle image showing the predicted position of the own vehicle are superimposed on the vehicle peripheral image obtained by capturing the periphery of the own vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. It includes a step of generating a predicted course image and a step of displaying the predicted course image on a display device. The predicted course image is generated so that when an obstacle is detected on the predicted course of the own vehicle, the display mode is different from that in the case where the obstacle is not detected.
なお、以上の構成要素の任意の組合せや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components or the components and expressions of the present invention that are mutually replaced between methods, devices, systems, and the like are also effective as aspects of the present invention.
本発明によれば、自車両の予測進路をより分かりやすく表示できる。 According to the present invention, the predicted course of the own vehicle can be displayed more clearly.
以下、本発明の実施の形態について、図面を参照しつつ説明する。かかる実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The specific numerical values and the like shown in such an embodiment are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are designated by the same reference numerals to omit duplicate description, and elements not directly related to the present invention are not shown. To do.
図1は、自車両60を駐車スペース52に駐車させる状況を模式的に示す図であり、自車両60を後退させて駐車スペース52に進入させる様子を示す。駐車場50には、複数の駐車スペースが並んで配置されており、空いている駐車スペース52の両側には他車両62a,62bが駐車されている。また、駐車スペース52の前方にも他車両62c,62dが駐車されている。このような状況下において、自車両60を運転する運転者は、自車の周辺に位置する他車両62a,62b,62c,62dへの接触を防ぎながら、空いている駐車スペース52内に自車両60が収まるように運転操作をする必要がある。
FIG. 1 is a diagram schematically showing a situation in which the
熟練した運転者であれば、駐車時の運転操作がそれほど難しくない場合もある。しかしながら、駐車を苦手とする運転者は一定数存在し、特に駐車場50内の限られたスペースの中で周辺の障害物との接触を避けながら、駐車スペース52に向けてスムーズに自車両60を進めることに困難性を感じることが多い。その原因として、自車両60の周辺の状況を正確に把握することが難しいこと、及び、自車両60の進路を正確に予測することが難しいことが挙げられる。その結果、ステアリングホイールの舵角を調整しながら少しずつ自車両60を後退または前進させ、その都度、周囲の状況を把握する手間が生じる。また、周辺の障害物と自車両60が接触しそうな場合や、駐車スペース52の枠から自車両60がはみ出てしまうような場合には、駐車をはじめからやり直したり、切り返しが必要となったりするため、非常に手間となる。さらには、駐車のやり直しや切り返しにおいても周辺の障害物と接触しないように注意を払わなければならず、運転者を悩ませることになる。
If you are a skilled driver, the driving operation when parking may not be so difficult. However, there are a certain number of drivers who are not good at parking, and especially in the limited space in the
本実施の形態によれば、自車両60の周辺の状況および自車両60の予測進路を分かりやすく表示する運転支援装置が提供される。この運転支援装置は、車両周辺画像上に自車両60の予測位置を示す車両画像を重畳した予測進路画像を生成し、自車両60の予測進路の軌跡に沿って車両画像がアニメーションのように移動する予測進路画像を表示する。また、予測進路上に障害物が検知される場合には、そうでない場合と比較して表示態様の異なる予測進路画像を表示し、予測進路上の障害物に接触する可能性があることを注意喚起する。本実施の形態によれば、車両周辺画像により自車両60の周囲の状況を示しつつ、その画像上での自車両60の予測進路が動画で分かりやすく示される。そのため、運転者は、自車両60の舵角が妥当であるかどうか、現在の舵角を維持したまま自車両60をどの程度の距離まで進めてよいか等を直感的に把握できる。これにより、駐車時の運転操作の困難性を低減し、運転操作を好適に支援することができる。
According to the present embodiment, a driving support device for displaying the situation around the
図2は、運転支援装置10の構成を模式的に示す機能ブロック図である。図示する各機能ブロックは、ハードウェア的には、コンピュータのCPUやメモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックとして描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組み合わせによっていろいろなかたちで実現できることは、当業者には理解されるところである。
FIG. 2 is a functional block diagram schematically showing the configuration of the
運転支援装置10は、タッチディスプレイ12と、制御装置18とを備える。タッチディスプレイ12は、表示装置14と、入力装置16とを有する。表示装置14は、液晶ディスプレイ等の表示装置であり、車両のセンターコンソールやダッシュボードの位置に取り付けられる。入力装置16は、いわゆるタッチパネル式のセンサであり、表示装置14の表示領域に設けられる。なお、入力装置16はタッチ式ではなく、表示装置14の周辺に配置されるボタン等で構成されてもよい。また、表示装置14は、車両後方を視認するためのリアビューミラーの位置に設けられてもよいし、ヘッドアップディスプレイとして構成されてもよい。運転支援装置10は、タッチディスプレイ12を備えず、運転支援装置10とは別のディスプレイ等の表示装置の表示を制御してもよい。
The
制御装置18は、自車両60の予測進路画像を生成し、生成した予測進路画像を表示装置14に表示させる。制御装置18は、車載カメラ30、舵角センサ32、車速センサ34、シフトレバー36、及び、障害物センサ38と接続されており、これらから予測進路画像の生成に必要な情報を取得する。なお、CAN(Controller Area Network)を通じてこれらの情報を取得してもよい。
The
制御装置18は、取得部22と、進路予測部24と、画像生成部26と、表示制御部28と、を備える。
The
取得部22は、自車両の進路予測に用いる情報を取得する。取得部22は、舵角センサ32から自車両60の舵角を示す情報を取得し、車速センサ34から自車両60の車速を示す情報を取得する。取得部22は、シフトレバー36からシフトレバー位置を示す情報を取得し、自車両60が前進または後退のいずれをするかについての情報を取得する。
The
取得部22は、自車両の周辺状況を示す情報を取得する。取得部22は、車載カメラ30から自車両60の周辺を撮像した画像を取得する。取得部22は、例えば、自車両60の前後左右の4箇所に設けられる複数のカメラのそれぞれが撮像する画像を取得し、自車両60の周辺を上空から見ているかのように視点変換処理が施された俯瞰画像を生成可能にする。なお、取得部22が取得する画像は特に限られず、例えば自車両60の後方画像など、自車両60の周辺状況を示す車両周辺画像を生成するために必要な任意の画像を取得してよい。
The
取得部22は、障害物センサ38から自車両60の周辺に存在する障害物を検知する。取得部22は、例えば、自車両60の前後左右の複数箇所に設けられるセンサから自車両60から障害物までの距離および方向に関する情報を取得する。障害物センサ38の形式は特に限定されないが、例えば、超音波センサ、赤外線センサ、ミリ波レーダ、ステレオカメラや、LIDAR(Light Detection and Ranging)センサなどを用いることができる。その他、自車両60が移動する間に車載カメラ30が撮像した複数の画像を比較して得られる視差情報から自車両60の周辺の障害物までの距離が算出されてもよい。
The
進路予測部24は、取得部22が取得した情報を用いて自車両60の予測進路を算出する。進路予測部24は、主に舵角情報およびシフトレバー位置情報に基づいて、自車両60の予測進路を算出する。例えば、シフトレバーがDレンジなどの前進可能な位置にある場合、舵角に基づいて自車両60の前方の進路を予測する。一方、シフトレバーがRレンジなどの後退可能な位置にある場合、舵角に基づいて自車両60の後方の進路を予測する。進路予測部24は、自車両60の近傍の限られた範囲の進路を予測し、例えば、自車両60から5m〜15m程度の範囲について進路を予測する。進路予測部24の予測範囲は、車両周辺画像70に含まれる範囲に限定されてもよい。
The
図3は、予測進路の軌跡C1,C2,C3,C4,C5を模式的に示す図であり、自車両60が後退する場合の予測進路を示す。算出される予測進路は、自車両60の舵角に応じて変化し、例えば、自車両60が直進する場合には予測進路が第1軌跡C1のようになり、舵角が非常に大きい場合には予測進路が第5軌跡C5のようになる。また、舵角が中程度の場合には舵角の大きさに応じて予測進路が第2軌跡C2、第3軌跡C3、第4軌跡C4のように変化する。予測進路の軌跡が演算される範囲は限定されており、図示する例では、自車両60の全長の2〜3倍程度、例えば、5m〜15mの距離が演算される。
FIG. 3 is a diagram schematically showing the loci of the predicted course C1, C2, C3, C4, C5, and shows the predicted course when the
進路予測部24は、さらに、取得部22が取得する情報を用いて自車両60の予測進路上の障害物の有無を検知する。進路予測部24は、障害物センサ38から取得した情報に基づいて、自車両60と自車両60の周辺の障害物との位置関係を示すマップを生成する。障害物の位置を示すマップは、例えば、自車両60から障害物までの距離と方向に関する情報から生成することができる。進路予測部24は、障害物の位置を示すマップ上に算出した予測進路を重ね合わせることにより、予測進路上の障害物を検知する。
The
図4は、予測進路上の障害物の検知方法を模式的に説明するための図である。図4では、自車両の予測進路が第3軌跡C3の場合を例示しており、自車両60の周囲に存在する障害物の位置関係を示すマップ上に第3軌跡C3が重ね合わされている。また、予測進路の軌跡C3に沿って破線で示される自車両60の複数の予測位置64が重ね合わされている。破線で示す各予測位置64は、予測進路に沿って自車両60が移動する際に車体が占める領域を示し、自車両60が移動する際に車体が通過する予測通過領域を示す。進路予測部24は、例えば、10cm〜50cm程度の間隔ごとに各予測位置64を算出する。各予測位置64が占める領域の大きさは、自車両60の外形と同じに設定されてもよいし、10cm〜50cm程度の余裕を加味して自車両60の外形より大きく設定されてもよい。進路予測部24は、離散的な複数の予測位置64を算出する代わりに、各予測位置64を連続的につなぎ合わせたような予測通過領域を算出してもよい。
FIG. 4 is a diagram for schematically explaining a method of detecting an obstacle on the predicted course. FIG. 4 illustrates a case where the predicted course of the own vehicle is the third locus C3, and the third locus C3 is superimposed on a map showing the positional relationship of obstacles existing around the
進路予測部24は、算出した予測通過領域と障害物の重なりの有無を判定する。進路予測部24は、例えば、算出した複数の予測位置64のそれぞれの領域内に障害物があるか否かを判定し、障害物と重なる予測位置64を特定する。図4では、予測進路の軌跡C3に沿って算出される複数の予測位置64の一部と他車両62bとが重なる場合を例示している。このような場合、進路予測部24は、自車両60の予測進路上に障害物があると判定し、障害物があると判定された予測位置64を特定する。例えば、図4に示される複数の予測位置64のうち、他車両62cと重なる一部の予測位置64a,64bを特定する。
The
図5は、予測進路上の障害物の検知方法を模式的に説明するための図であり、予測進路上に障害物が検知されない場合を示す。図5では、自車両の予測進路が第4軌跡C4の場合を例示しており、予測進路の軌跡C4に沿って算出される複数の予測位置66の領域内に周囲の他車両62a〜62dが存在しない場合を示している。このような場合、進路予測部24は、自車両60の予測進路上に障害物がないと判定する。なお、進路予測部24が検知する障害物は特に限られず、柱や壁といった構造物、通行人なども含むことが好ましい。
FIG. 5 is a diagram for schematically explaining a method of detecting an obstacle on the predicted course, and shows a case where an obstacle is not detected on the predicted course. FIG. 5 illustrates the case where the predicted course of the own vehicle is the fourth locus C4, and the surrounding
画像生成部26は、自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳した予測進路画像を生成する。車両周辺画像は、取得部22が取得する情報を用いた画像であり、例えば、車載カメラ30が撮像した画像に基づいて生成される。車両周辺画像は、例えば、自車両60の周辺を上空から見ているかのように視点変換処理がなされた俯瞰画像である。車両周辺画像上には、自車両60の現在位置を示す第1車両画像と、自車両60の予測位置を示す第2車両画像とが重畳される。
The
図6は、予測進路画像72を模式的に示す図である。予測進路画像72は、車両周辺画像70に第1車両画像80および第2車両画像82を重畳することにより生成される。車両周辺画像70は、自車両60の周辺を撮像した現在の状況を示す俯瞰画像である。第1車両画像80および第2車両画像82は、上空から見た自車両60を模したシンボル画像である。第1車両画像80は、自車両60の現在位置に表示され、第2車両画像82は、自車両60の予測位置に表示される。予測進路の軌跡Cは、予測進路画像72に表示されてもよいし、表示されなくてもよい。
FIG. 6 is a diagram schematically showing a predicted
第2車両画像82は、半透明の画像として表示され、第2車両画像82と重畳する部分が隠れてしまわないように表示されることが好ましい。仮に透過性のない画像を重畳した場合、第2車両画像82と重畳する駐車スペース52の枠線や障害物などが隠れてしまい、枠線や障害物との自車両の予測位置との位置関係が分かりづらくなるおそれがあるためである。なお、第2車両画像82として自車両60の輪郭を示すフレーム部分のみで構成される画像を用いることにより、第2車両画像82と重畳して隠れてしまう範囲が小さくなるようにし、視認性の低下を抑えてもよい。
It is preferable that the
第2車両画像82は、一見して第1車両画像80と区別できるよう、第1車両画像80とは異なる態様で表示されることが好ましい。第2車両画像82は、例えば、第1車両画像80とは形状、色彩、透過性、輪郭線の太さや線種などが異なるように構成される。一例を挙げれば、第1車両画像80が自車両60の形状を詳細に模した画像として構成される一方、第2車両画像82がシンプルな矩形状の画像として構成されてもよい。その他、第1車両画像80と第2車両画像82の色相、明度、彩度の少なくとも一つを異ならせることにより、両者の区別が容易となるようにしてもよい。
The
画像生成部26は、予測進路上に障害物が検知される場合、障害物が検知されない場合とは異なる表示態様の予測進路画像72を生成する。画像生成部26は、障害物の検知の有無に応じて第2車両画像82の表示態様を異ならせる。例えば、障害物が検知される場合には、第2車両画像82を赤色や黄色などの表示色にしたり、第2車両画像82の明度や彩度を高める表示にしたりすることにより、障害物への接触可能性が高いことを注意喚起する表示とする。一方、予測進路上に障害物が検知されない場合には、第2車両画像82を緑色や青色などの表示色にしたり、第2車両画像82の明度や彩度を下げる表示にしたりすることにより、障害物への接触可能性が低いことを示す表示とする。なお、障害物が検知されない場合とは異なる表示態様の予測進路画像72として、画像全体の表示色を赤みがかった画像となるように変更したり、画像全体の明度や彩度を変更したり、注意喚起用の画像を重畳したりするなどして、画像全体または一部の表示態様を異ならせてもよい。
When an obstacle is detected on the predicted course, the
画像生成部26は、第2車両画像82の表示位置をアニメーションのように変化させる予測進路画像72を生成する。画像生成部26は、例えば、図4に示す複数の予測位置64のそれぞれに第2車両画像82を重畳した複数の予測進路画像72を生成する。このような複数の予測進路画像72を順番に表示させることにより、第2車両画像82の表示位置が第1車両画像80から離れていく方向に変化する予測進路画像72のアニメーション表示を実現する。画像生成部26は、複数の予測進路画像72を生成する代わりに、車両周辺画像70上の第2車両画像82の位置が変化していく動画像を生成してもよい。
The
表示制御部28は、画像生成部26が生成した予測進路画像72を表示装置14に表示させる。表示制御部28は、画像生成部26が生成する複数の予測進路画像72を順番に再生表示させることにより、表示装置14に予測進路画像72がアニメーション表示されるようにする。
The
図7は、予測進路画像72a,72b,72cのアニメーション表示を模式的に示す図であり、図4の第3軌跡C3に沿って第2車両画像82の表示位置を変化させる場合を示す。図示されるように、複数の予測進路画像72a〜72cは、第2車両画像82a,82b,82cの表示位置がそれぞれ異なっており、第2車両画像82a〜82cが第1車両画像80から段階的に離れるように配置される。一方、現在位置を示す第1車両画像80の表示位置は固定されている。
FIG. 7 is a diagram schematically showing the animation display of the predicted
図7において、障害物である他車両62bと重ねて表示される第2車両画像82cは、障害物と重ならずに表示される第2車両画像82a,82bと異なる表示態様で表示される。例えば、障害物と重ならない第2車両画像82a,82bが緑色や青色で表示されるのに対し、障害物と重なる第2車両画像82cは、赤色や黄色で表示される。これにより、現在の舵角のまま自車両60を一定距離以上後退させた場合、他車両62bに接触することを効果的に注意喚起できる。
In FIG. 7, the
表示制御部28は、複数の予測進路画像72a〜72cを順番に表示させることで、第2車両画像82がアニメーションのように移動して表示されるようにする。画像生成部26は、より多く(例えば、5枚、10枚、20枚、30枚など)の予測進路画像を生成して、第2車両画像82の動きが滑らかに表示されるようにしてもよい。また、第2車両画像82の位置を段階的に変化させるのではなく、第2車両画像82が連続的に移動するようにしてもよい。
The
表示制御部28は、複数の予測進路画像72a〜72cを繰り返し表示することにより、第2車両画像82から第1車両画像80が離れるように移動していく様子が繰り返し表示されるようにしてもよい。例えば、第3の予測進路画像72cを表示した後に、再度、第1の予測進路画像72aから順番にアニメーション表示を開始させてもよい。第3の予測進路画像72cの表示直後に第1の予測進路画像72aを表示すると、表示が煩雑となることから、第3の予測進路画像72cを一定時間(例えば、0.5秒〜1秒程度)表示してから第1の予測進路画像72aに切り替えるようにしてもよい。つまり、アニメーション表示の最初と最後については、第2車両画像82を一定時間にわたって固定するようにしてもよい。
By repeatedly displaying the plurality of predicted
画像生成部26は、予測進路画像72の表示中に自車両60の予測進路が変化した場合、予測進路の変更に応じて第2車両画像82の表示位置を異ならせた予測進路画像72を生成する。例えば、予測進路画像72の表示中にステアリングホイールの舵角が変更された場合、変更後の舵角に応じて予測進路が算出され、変更後の予測進路上に第2車両画像82を表示させる。また、予測進路画像72の表示中にシフトレバーが操作されて前進可能な状態となった場合、車両前方の予測進路が算出され、第1車両画像80の前方に第2車両画像82が表示されるようにする。
When the predicted course of the
図8は、予測進路画像のアニメーション表示を模式的に示す図であり、舵角変更後の予測進路画像74a,74b,74cを示す。図8は、舵角変更により予測進路が第4軌跡C4に変更された場合を示す。舵角が変更された場合、進路予測部24は、変更後の舵角に応じた予測進路を算出し、予測進路上の障害物の有無を検知する。画像生成部26は、進路予測部24の演算結果に応じた予測進路画像74a〜74cを生成する。図示する例では、予測進路上に障害物が検知されないため、アニメーション表示される第2車両画像84a,84b,84cが同じ態様で表示され、例えば、全ての第2車両画像84a〜84cが緑色や青色で表示される。これにより、現在の舵角のまま自車両60を後退させた場合、障害物への接触可能性が低いことを示される。
FIG. 8 is a diagram schematically showing an animation display of the predicted course image, and shows the predicted
運転者は、図7に示す予測進路画像72a〜72cから、第3軌跡C3に対応する舵角を維持した場合、進入しようとする駐車スペースに収まらず、隣接する他車両62bに接触する可能性があることを直感的に理解できる。また、図8に示す予測進路画像74a〜74cから、第4軌跡C4に対応する舵角を維持すれば、隣接する他車両62bに接触せずに目標とする駐車スペースに進入できることが直感的に理解できる。本実施の形態によれば、予測進路に沿って車両画像をアニメーションのように変化させるとともに、障害物との接触可能性がある場合に表示態様を異ならせることで、自車両60の予測進路を分かりやすく運転者に提示できる。
From the predicted
図9(a)及び(b)は、変形例に係る予測進路画像76a,76bを模式的に示す図である。図9(a),(b)は、図7に示す予測進路画像72cに対応し、付加画像86a,86bがさらに重畳される点で上述の予測進路画像72cと相違する。図9(a)では、第2車両画像82cのうち障害物である他車両62bと重複する一部のみが異なる表示態様となるように付加画像86aが重畳される。図9(b)では、障害物との衝突を強調するような星形の付加画像86bが重畳される。このような付加画像86a,86bとして、ユーザへの注意喚起を高めるように赤色や黄色などの表示色や、第2車両画像82cより明度や彩度の高い表示態様が用いられる。このような付加画像86a,86bを重畳することにより、障害物との接触可能性があることを運転者により強調して注意喚起できる。なお、障害物と重ねて表示される第2車両画像82cや付加画像86a,86bを点滅表示させることにより、障害物との接触可能性をより強調する表示態様としてもよい。
9 (a) and 9 (b) are diagrams schematically showing predicted
図10は、変形例に係る予測進路画像72a〜72cのアニメーション表示を模式的に示す図であり、上述の図7に対応する表示例を示す。図10では、接触可能性のある障害物との距離に応じて第2車両画像82a〜82cの表示態様を変化させ、障害物に近づくにつれて接触可能性をより強調する表示態様に変更する点で上述の表示例と異なる。例えば、衝突可能性のある他車両62bからの距離が一定以上ある場合には、第2車両画像82aを緑色や青色などで表示する。一方で、他車両62bからの距離が一定未満となる場合には、第2車両画像82bを黄色などで表示し、他車両62bと重なる場合には第2車両画像82cを赤色で表示する。ここで、表示態様を変化させるように定められる一定距離は、30cm〜1m程度または40cm〜70cm程度である。このように予測進路画像の表示態様を段階的に変化させることにより、接触可能性のある障害物までの距離感を段階的に分かりやすく示すことができる。なお、障害物との距離に応じて連続的に表示態様を変化させてもよく、例えば、障害物との距離に応じて第2車両画像82の色相、明度、彩度の少なくとも一つを連続的に変化させて表示してもよい。
FIG. 10 is a diagram schematically showing the animation display of the predicted
図11は、変形例に係る予測進路画像76a,76b,76cのアニメーション表示を模式的に示す図であり、上述の図7に対応する表示例を示す。図11は、自車両60の後方で他車両62dが前進し、後退しようとする自車両60の進路を塞いだ状態における表示例を示している。その結果、図11では、現在位置を示す第1車両画像80の近傍において、他車両62dとの接触可能性が高いことを示す第2車両画像82bや、他車両62dに接触することを示す第2車両画像82cが表示される。このような場合に、図7と同様に予測進路の軌跡C3に沿って第2車両画像82を移動させると、接触可能性のある他車両62dを突き抜けるように第2車両画像82が表示される。そうすると、アニメーション表示通りに自車両60を後退しても問題がないかのように見えてしまい、他車両62dとの接触を適切に注意喚起できなくなるおそれがある。そこで、本変形例では、第2車両画像82a〜82cの表示範囲を限定し、他車両62dと重ねて表示される第2車両画像82cよりも離れた位置で第2車両画像が表示されないようにする。つまり、自車両の現在位置を示す第1車両画像80と、障害物と重ねて表示される第2車両画像82cとの間の範囲に限定して第2車両画像82a〜82cを移動表示させるようにする。これにより、障害物との接触可能性をより適切に示す予測進路画像76a〜76cを運転者に提示できる。
FIG. 11 is a diagram schematically showing the animation display of the predicted
図12は、運転支援方法の流れを模式的に示すフローチャートである。進路予測部24は、取得部22が取得する情報に基づいて自車両60の予測進路を算出する(S10)。予測進路上に障害物が検知される場合(S12のY)、自車両60の予測位置を示す車両画像のうち障害物と重なる車両画像が異なる表示態様となるように予測進路画像を生成する(S14)。一方、予測進路上に障害物が検知されない場合(S12のN)、予測進路上の車両画像が同様の表示態様となるように予測進路画像を生成する(S16)。生成された予測進路画像は、予測進路に沿って車両画像の位置が変化するように表示される(S18)。
FIG. 12 is a flowchart schematically showing the flow of the driving support method. The
以上、本発明を上述の実施の形態を参照して説明したが、本発明は上述の実施の形態に限定されるものではなく、各表示例に示す構成を適宜組み合わせたものや置換したものについても本発明に含まれるものである。 Although the present invention has been described above with reference to the above-described embodiment, the present invention is not limited to the above-described embodiment, and the present invention is not limited to the above-described embodiment, and the configurations shown in each display example are appropriately combined or replaced. Is also included in the present invention.
上述の実施の形態では、俯瞰画像を用いて予測進路画像を生成する場合を示した。変形例においては、自車両の後方を撮像した後方画像を用いて予測進路画像を生成してもよい。この場合、後方画像上に自車両を模した画像を重畳し、その重畳位置や画像の大きさをアニメーションのように変化させることで、自車両の予測進路を可視化してもよい。 In the above-described embodiment, a case where a predicted course image is generated using a bird's-eye view image is shown. In the modified example, the predicted course image may be generated by using the rear image of the rear of the own vehicle. In this case, the predicted course of the own vehicle may be visualized by superimposing an image imitating the own vehicle on the rear image and changing the superposed position and the size of the image like an animation.
10…運転支援装置、14…表示装置、22…取得部、24…進路予測部、26…画像生成部、28…表示制御部、30…車載カメラ、70…車両周辺画像、72,74,76…予測進路画像、80…第1車両画像、82,84…第2車両画像、86…付加画像。 10 ... driving support device, 14 ... display device, 22 ... acquisition unit, 24 ... course prediction unit, 26 ... image generation unit, 28 ... display control unit, 30 ... in-vehicle camera, 70 ... vehicle peripheral image, 72,74,76 ... Predicted course image, 80 ... first vehicle image, 82, 84 ... second vehicle image, 86 ... additional image.
Claims (8)
前記取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、
前記取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する画像生成部と、
前記予測進路画像を表示装置に表示させる表示制御部と、を備え、
前記画像生成部は、自車両の予測進路上に障害物が検知されない場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が第1表示態様となるように予測進路画像を生成し、
前記画像生成部は、自車両の予測進路上に障害物が検知される場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が前記第1表示態様とは異なる第2表示態様となり、前記車両周辺画像上で前記障害物に重ねて表示される車両画像が前記第1表示態様および前記第2表示態様とは異なる第3表示態様となるように予測進路画像を生成することを特徴とする運転支援装置。 An acquisition unit that acquires information used for predicting the course of the own vehicle and information indicating the surrounding conditions of the own vehicle,
Using the information acquired by the acquisition unit, the course prediction unit that calculates the predicted course of the own vehicle and detects obstacles on the predicted course of the own vehicle, and the course prediction unit.
A vehicle image showing the predicted position of the own vehicle is superimposed on the vehicle peripheral image of the own vehicle acquired by the acquisition unit, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. An image generator that generates a predicted course image and
A display control unit for displaying the predicted course image on a display device is provided.
When an obstacle is not detected on the predicted course of the own vehicle , the image generation unit predicts that the vehicle image displayed on the vehicle peripheral image without overlapping the obstacle is the first display mode. Generate a course image and
When an obstacle is detected on the predicted course of the own vehicle , the image generation unit displays a vehicle image on the vehicle peripheral image without overlapping the obstacle, which is different from the first display mode. In the second display mode, the predicted course image is displayed so that the vehicle image displayed on the vehicle peripheral image overlaid on the obstacle has a third display mode different from the first display mode and the second display mode. A driving support device characterized by being generated.
前記取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、
前記取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する画像生成部と、
前記予測進路画像を表示装置に表示させる表示制御部と、を備え、
前記画像生成部は、自車両の予測進路上に障害物が検知される場合、前記車両周辺画像上での自車両の現在位置と、前記障害物に重ねて表示される車両画像の表示位置との間の範囲に前記車両画像の表示位置が限定される予測進路画像を生成することを特徴とする運転支援装置。 An acquisition unit that acquires information used for predicting the course of the own vehicle and information indicating the surrounding conditions of the own vehicle,
Using the information acquired by the acquisition unit, the course prediction unit that calculates the predicted course of the own vehicle and detects obstacles on the predicted course of the own vehicle, and the course prediction unit.
A vehicle image showing the predicted position of the own vehicle is superimposed on the vehicle peripheral image of the own vehicle acquired by the acquisition unit, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. An image generator that generates a predicted course image and
A display control unit for displaying the predicted course image on a display device is provided.
When an obstacle is detected on the predicted course of the own vehicle, the image generation unit determines the current position of the own vehicle on the image around the vehicle and the display position of the vehicle image displayed on the obstacle. OPERATION support apparatus it said display position of said vehicle image to generate the predicted course images is limited to a range between.
前記取得部が取得する情報を用いて、自車両の予測進路を算出し、自車両の予測進路上の障害物を検知する進路予測部と、
前記取得部が取得した自車両の車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する画像生成部と、
前記予測進路画像を表示装置に表示させる表示制御部と、を備え、
前記画像生成部は、前記車両周辺画像上での前記障害物と前記車両画像の距離に応じて前記車両画像の表示態様が異なる予測進路画像を生成することを特徴とする運転支援装置。 An acquisition unit that acquires information used for predicting the course of the own vehicle and information indicating the surrounding conditions of the own vehicle,
Using the information acquired by the acquisition unit, the course prediction unit that calculates the predicted course of the own vehicle and detects obstacles on the predicted course of the own vehicle, and the course prediction unit.
A vehicle image showing the predicted position of the own vehicle is superimposed on the vehicle peripheral image of the own vehicle acquired by the acquisition unit, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. An image generator that generates a predicted course image and
A display control unit for displaying the predicted course image on a display device is provided.
The image generation unit, the said obstacle and the vehicle image OPERATION support device you characterized in that the display mode of the vehicle image to generate a different predicted course image in accordance with the distance on the vehicle periphery image.
自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知するステップと、
自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成するステップと、
前記予測進路画像を表示装置に表示させるステップと、を備え、
前記予測進路画像は、自車両の予測進路上に障害物が検知されない場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が第1表示態様となるように生成され、
前記予測進路画像は、自車両の予測進路上に障害物が検知される場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が前記第1表示態様とは異なる第2表示態様となり、前記車両周辺画像上で前記障害物に重ねて表示される車両画像が前記第1表示態様および前記第2表示態様とは異なる第3表示態様となるように生成されることを特徴とする運転支援方法。 The step of acquiring the information used for predicting the course of the own vehicle and calculating the predicted course of the own vehicle,
The step of acquiring information indicating the surrounding situation of the own vehicle and detecting obstacles in the predicted course of the own vehicle,
A vehicle image showing the predicted position of the own vehicle is superimposed on the vehicle peripheral image obtained by capturing the periphery of the own vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. Steps to generate an image and
A step of displaying the predicted course image on a display device is provided.
The predicted course image is generated so that the vehicle image displayed on the vehicle peripheral image without overlapping the obstacle is the first display mode when no obstacle is detected on the predicted course of the own vehicle. Being done
In the predicted course image, when an obstacle is detected on the predicted course of the own vehicle, the vehicle image displayed on the vehicle peripheral image without overlapping the obstacle is different from the first display mode. The second display mode is such that the vehicle image displayed on the vehicle peripheral image overlaid on the obstacle is generated so as to have a third display mode different from the first display mode and the second display mode. A driving support method characterized by.
自車両の周辺状況を示す情報を取得して自車両の予測進路上の障害物を検知する機能と、
自車両の周辺を撮像した車両周辺画像上に自車両の予測位置を示す車両画像を重畳し、自車両の予測進路に沿って前記車両画像の表示位置が前記車両周辺画像上で変化する予測進路画像を生成する機能と、
前記予測進路画像を表示装置に表示させる機能と、をコンピュータに実現させるプログラムであって、
前記予測進路画像は、自車両の予測進路上に障害物が検知されない場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が第1表示態様となるように生成され、
前記予測進路画像は、自車両の予測進路上に障害物が検知される場合に、前記車両周辺画像上で前記障害物に重ならずに表示される車両画像が前記第1表示態様とは異なる第2表示態様となり、前記車両周辺画像上で前記障害物に重ねて表示される車両画像が前記第1表示態様および前記第2表示態様とは異なる第3表示態様となるように生成されることを特徴とするプログラム。 A function to acquire information used for predicting the course of the own vehicle and calculate the predicted course of the own vehicle,
A function that acquires information indicating the surrounding conditions of the own vehicle and detects obstacles in the predicted course of the own vehicle,
A vehicle image showing the predicted position of the own vehicle is superimposed on the vehicle peripheral image obtained by capturing the periphery of the own vehicle, and the display position of the vehicle image changes on the vehicle peripheral image along the predicted course of the own vehicle. The function to generate an image and
A program that allows a computer to realize the function of displaying the predicted course image on a display device.
The predicted course image is generated so that the vehicle image displayed on the vehicle peripheral image without overlapping the obstacle is the first display mode when no obstacle is detected on the predicted course of the own vehicle. Being done
In the predicted course image, when an obstacle is detected on the predicted course of the own vehicle, the vehicle image displayed on the vehicle peripheral image without overlapping the obstacle is different from the first display mode. The second display mode is such that the vehicle image displayed on the vehicle peripheral image overlaid on the obstacle is generated so as to have a third display mode different from the first display mode and the second display mode. A program featuring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087295A JP6821124B2 (en) | 2017-04-26 | 2017-04-26 | Driving support devices, driving support methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087295A JP6821124B2 (en) | 2017-04-26 | 2017-04-26 | Driving support devices, driving support methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018184091A JP2018184091A (en) | 2018-11-22 |
JP6821124B2 true JP6821124B2 (en) | 2021-01-27 |
Family
ID=64357311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017087295A Active JP6821124B2 (en) | 2017-04-26 | 2017-04-26 | Driving support devices, driving support methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6821124B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7139664B2 (en) * | 2018-04-10 | 2022-09-21 | 株式会社アイシン | Perimeter monitoring device |
JP7443705B2 (en) * | 2019-09-12 | 2024-03-06 | 株式会社アイシン | Peripheral monitoring device |
CN117836183A (en) * | 2021-08-24 | 2024-04-05 | 株式会社电装 | Parking support device and parking support method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3362584B2 (en) * | 1995-12-22 | 2003-01-07 | 三菱自動車工業株式会社 | Parking judgment device |
JP4723703B2 (en) * | 1999-06-25 | 2011-07-13 | 富士通テン株式会社 | Vehicle driving support device |
JP3638132B2 (en) * | 2000-06-30 | 2005-04-13 | 松下電器産業株式会社 | Drawing device |
JP3972661B2 (en) * | 2002-01-21 | 2007-09-05 | 日産自動車株式会社 | Driving assistance device |
JP4548322B2 (en) * | 2005-11-28 | 2010-09-22 | 株式会社デンソー | Parking assistance system |
-
2017
- 2017-04-26 JP JP2017087295A patent/JP6821124B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018184091A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4956915B2 (en) | Video display device and video display method | |
US10268905B2 (en) | Parking assistance apparatus | |
JP7190487B2 (en) | How to draw a vehicle's surroundings | |
JP4682809B2 (en) | Parking assistance system | |
JP5872517B2 (en) | Vehicle periphery display device | |
JP7443705B2 (en) | Peripheral monitoring device | |
US9691283B2 (en) | Obstacle alert device | |
JP5549235B2 (en) | Driving assistance device | |
JP2005045602A (en) | Field of view monitor system for vehicle | |
JP5251804B2 (en) | Driving assistance device | |
JP2009239674A (en) | Vehicular periphery display device | |
JP5776995B2 (en) | Vehicle periphery monitoring device | |
JP2007076496A (en) | Parking support device | |
JP6821124B2 (en) | Driving support devices, driving support methods and programs | |
JP5852076B2 (en) | Vehicle periphery display device | |
JP2009171129A (en) | Parking support device for vehicle and image display method | |
WO2012144076A1 (en) | Vehicle periphery monitoring device and display method for vehicle periphery monitoring information | |
JP2007311898A (en) | Vehicle drive support apparatus and vehicle drive support method | |
JP2011155651A (en) | Apparatus and method for displaying vehicle perimeter image | |
JP5845909B2 (en) | Obstacle alarm device | |
JP6731022B2 (en) | Parking assistance device, vehicle and parking assistance method | |
WO2020148957A1 (en) | Vehicle control device and method | |
JP2014127183A (en) | Parking support apparatus and parking support method | |
JP6942978B2 (en) | Driving Assistance Equipment, Driving Assistance Methods and Programs | |
JP5294756B2 (en) | Vehicle surrounding image providing apparatus and vehicle surrounding image providing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6821124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |