JP2017166913A - Display controller and display control method - Google Patents
Display controller and display control method Download PDFInfo
- Publication number
- JP2017166913A JP2017166913A JP2016051202A JP2016051202A JP2017166913A JP 2017166913 A JP2017166913 A JP 2017166913A JP 2016051202 A JP2016051202 A JP 2016051202A JP 2016051202 A JP2016051202 A JP 2016051202A JP 2017166913 A JP2017166913 A JP 2017166913A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- display
- viewpoint position
- image
- overhead view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000008859 change Effects 0.000 claims description 56
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 34
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 34
- 230000006870 function Effects 0.000 abstract description 34
- 230000008569 process Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
Images
Abstract
Description
この明細書による開示は、車両の車室内に設けられた表示領域の表示を制御する表示制御装置、及び表示制御方法に関する。 The disclosure according to this specification relates to a display control device and a display control method for controlling display of a display area provided in a vehicle interior of a vehicle.
従来、例えば特許文献1には、カメラ及びレーダ等により取得された自車両周囲の情報を、俯瞰画像によって運転者に提示する車両用表示装置が開示されている。この車両用表示装置では、車室内に設けられたモニタの角度に応じて、俯瞰画像における仮想の視点位置が調整可能とされている。具体的に、仮想の視点位置は、自車両の真後ろ上方から自車両の直上までの範囲で可変とされている。 Conventionally, for example, Patent Document 1 discloses a display device for a vehicle that presents information around a host vehicle acquired by a camera, a radar, or the like to a driver using an overhead image. In this vehicle display device, the virtual viewpoint position in the overhead image can be adjusted according to the angle of the monitor provided in the vehicle interior. Specifically, the virtual viewpoint position is variable in a range from directly above the host vehicle to immediately above the host vehicle.
さて、運転者に代わって運転操作を実施可能な自動運転機能を備える車両の開発が急速に進められている。しかしながら、自動運転機能によって車両が制御されている状態でも、運転者は、自動運転に係るシステムの作動を監視する義務を負う場合がある。そのため、本開示の発明者は、自動運転機能によって認識されている自車両周囲の他車両の情報について、運転者にも提示されることが望ましいと考えた。 Now, the development of a vehicle having an automatic driving function capable of performing a driving operation on behalf of a driver is rapidly advanced. However, even when the vehicle is controlled by the automatic driving function, the driver may be obliged to monitor the operation of the system related to automatic driving. For this reason, the inventor of the present disclosure thought that it is desirable that information on other vehicles around the host vehicle recognized by the automatic driving function is also presented to the driver.
しかし、特許文献1に開示のように、仮想の視点位置が自車両の真後ろ上方又は直上に設定された俯瞰画像では、仮想の視点位置と自車両後方との距離が近いため、俯瞰画像にて提示可能な自車両後方の範囲は、狭くならざるを得ない。そこで、俯瞰画像にて表示可能な自車両後方の範囲を広げるために縮尺を小さくしてしまうと、俯瞰画像は、自車両の側方が見辛い態様となってしまう。故に、従来の俯瞰画像は、自車両から比較的遠い認識対象物を注意喚起できなかったり、又は自車両に比較的近い認識対象物を確実に注意喚起できなかったりした。 However, as disclosed in Patent Document 1, in the overhead view image in which the virtual viewpoint position is set directly above or directly above the host vehicle, the distance between the virtual viewpoint position and the rear of the host vehicle is short. The range behind the host vehicle that can be presented must be narrow. Therefore, if the scale is reduced in order to expand the range behind the host vehicle that can be displayed in the bird's-eye view image, the side view of the host vehicle is difficult to see on the side of the host vehicle. Therefore, the conventional bird's-eye view image cannot call attention to a recognition object that is relatively far from the own vehicle, or cannot reliably call attention to a recognition object that is relatively close to the own vehicle.
本開示は、このような問題に鑑みてなされたものであり、その目的は、自動運転機能によって認識された自車両の周囲の認識対象物を、運転者に的確に注意喚起可能な表示技術を提供することにある。 The present disclosure has been made in view of such problems, and an object of the present disclosure is to provide a display technology capable of accurately alerting the driver of recognition objects around the host vehicle recognized by the automatic driving function. It is to provide.
上記目的を達成するため、開示された第一の態様は、運転者に代わって運転操作を実施可能な自動運転機能を備える車両(A)において、当該車両の車室内に設けられた表示領域(11a)の表示を制御する表示制御装置であっ自動運転機能によって車両の周囲に認識対象物が認識された場合に、当該認識対象物に係る認識物情報を取得する認識情報取得部(33)と、車両を示す自車画像(41)及び車両の周囲の道路形状を示す地図画像(42)を少なくとも含む俯瞰表示(40,240,340)を、表示領域に表示させる表示物として生成し、自動運転機能によって認識対象物が認識された場合に、認識物情報に基づいて認識対象物を示す対象物画像(43)を地図画像上に表示させる画像生成部(35)と、を備え、画像生成部は、俯瞰表示における仮想の視点位置を、自車画像の後側方に規定する表示制御装置とされる。 In order to achieve the above object, a first aspect disclosed is a display area (in a vehicle (A)) having an automatic driving function capable of performing a driving operation on behalf of a driver. A recognition information acquisition unit (33) that acquires the recognition object information related to the recognition object when the recognition object is recognized around the vehicle by the automatic driving function. The vehicle image (41) indicating the vehicle and the map image (42) indicating the shape of the road around the vehicle are generated as display objects to be displayed in the display area, and displayed automatically. An image generation unit (35) for displaying, on the map image, an object image (43) indicating the recognition object based on the recognition object information when the recognition object is recognized by the driving function, and image generation Part is A virtual viewpoint position in downward display is a display control unit that defines the side after the own vehicle image.
また、開示された第二の態様は、車両(A)の車室内に設けられた表示領域(11a)の表示を制御する表示制御方法であって、少なくとも一つのプロセッサ(21,22)は、運転者に代わって運転操作を実施可能な自動運転機能によって車両の周囲に認識対象物が認識された場合に、当該認識対象物に係る認識物情報を取得し(S101)、車両を示す自車画像(41)及び車両の周囲の道路形状を示す地図画像(42)を少なくとも含む俯瞰表示(40,240,340)を、表示領域に表示させる表示物として生成し(S102)、自動運転機能によって認識対象物が認識された場合に、当該認識対象物を示す対象物画像を地図画像上に描画し(S104)、俯瞰表示における仮想の視点位置を、自車画像の後側方に規定する(S114)表示制御方法とされる。 Further, the disclosed second aspect is a display control method for controlling display of the display area (11a) provided in the passenger compartment of the vehicle (A), wherein at least one processor (21, 22) includes: When a recognition target object is recognized around the vehicle by an automatic driving function capable of performing a driving operation on behalf of the driver, the recognition object information related to the recognition target object is acquired (S101), and the vehicle indicating the vehicle An overhead view display (40, 240, 340) including at least an image (41) and a map image (42) showing a road shape around the vehicle is generated as a display object to be displayed in the display area (S102), and by an automatic driving function When the recognition object is recognized, an object image indicating the recognition object is drawn on the map image (S104), and the virtual viewpoint position in the overhead view display is defined on the rear side of the vehicle image ( S1 4) it is a display control method.
これらの態様のように、俯瞰表示における仮想の視点位置が自車画像の側方に規定されることにより、視点位置と自車画像の後方との距離が確保され得る。故に、俯瞰表示にて示される自車両後方の地図画像の範囲は、自車両から遠い位置まで確保される。加えて、自車画像の側方に視点位置が規定されば、俯瞰表示は、自車画像の側方を近い位置から表示し得る。その結果、自車両の側方を示す範囲の地図画像が拡大される。 As in these aspects, the virtual viewpoint position in the overhead view display is defined on the side of the own vehicle image, so that the distance between the viewpoint position and the rear of the own vehicle image can be ensured. Therefore, the range of the map image behind the own vehicle shown by the bird's-eye view display is secured to a position far from the own vehicle. In addition, if the viewpoint position is defined on the side of the vehicle image, the overhead view display can display the side of the vehicle image from a close position. As a result, the map image in the range indicating the side of the host vehicle is enlarged.
以上によれば、側方から俯瞰した俯瞰表示は、自車両に比較的近い認識対象物を示す対象物画像の見易さを確保しつつ、自車両から比較的遠い認識対象物を示す対象物画像も提示可能となる。したがって、俯瞰表示は、自動運転機能にて認識された自車両の周囲の認識対象物を、運転者に的確に注意喚起できる。 According to the above, the bird's-eye view viewed from the side is an object that shows the recognition object relatively far from the own vehicle while ensuring the visibility of the object image showing the recognition object relatively close to the own vehicle. Images can also be presented. Therefore, the bird's-eye view display can accurately alert the driver of the recognition objects around the host vehicle recognized by the automatic driving function.
尚、上記括弧内の参照番号は、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、技術的範囲を何ら制限するものではない。 Note that the reference numbers in the parentheses merely show an example of a correspondence relationship with a specific configuration in an embodiment described later, and do not limit the technical scope at all.
以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Hereinafter, a plurality of embodiments of the present disclosure will be described based on the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. In addition, not only combinations of configurations explicitly described in the description of each embodiment, but also the configurations of a plurality of embodiments can be partially combined even if they are not explicitly specified unless there is a problem with the combination. .
(第一実施形態)
本開示の第一実施形態による表示制御装置の機能は、図1及び図2に示すHCU(HMI(Human Machine Interface)Control Unit)20によって実現されている。HCU20は、自動運転ECU(Electronic Control Unit)50及び車両制御ECU80等の電子制御ユニットと共に車両Aに搭載されている。HCU20、自動運転ECU50、及び車両制御ECU80は、互いに電気的に接続されており、相互に通信可能である。車両Aは、自動運転ECU50及び車両制御ECU80の作動により、自動運転機能を備える。
(First embodiment)
The functions of the display control apparatus according to the first embodiment of the present disclosure are realized by an HCU (HMI (Human Machine Interface) Control Unit) 20 illustrated in FIGS. 1 and 2. The HCU 20 is mounted on the vehicle A together with electronic control units such as an automatic operation ECU (Electronic Control Unit) 50 and a vehicle control ECU 80. The
自動運転ECU50は、GNSS(Global Navigation Satellite System)受信器71、ライダ72、ミリ波レーダ73、カメラユニット74、地図データベース75、及びV2X受信器76等と電気的に接続されている。自動運転ECU50は、これらの構成(71〜76)から自動運転に必要な自車両周囲の走行環境に係る情報を取得する。
The automatic operation ECU 50 is electrically connected to a GNSS (Global Navigation Satellite System)
GNSS受信器71は、複数の人工衛星からの測位信号を受信する。GNSS受信器71は、受信した測位信号に基づいて車両Aの現在位置を計測する。GNSS受信器71は、計測した車両Aの位置情報を自動運転ECU50へ向けて逐次出力する。
The GNSS
ライダ72、ミリ波レーダ73、及びカメラユニット74は、歩行者及び他の車両等の移動物体、さらに路上の落下物、交通信号、ガードレール、縁石、道路標識、道路標示、及び区画線等の静止物体を検出する自律センサである。ライダ72、ミリ波レーダ73、及びカメラユニット74はそれぞれ、検出した移動物体及び静止物体に係る検出物情報を、自動運転ECU50へ向けて逐次出力する。
The
ライダ72は、車両Aの進行方向へ向けてレーザ光を照射し、進行方向に存在する移動物体及び静止物体等で反射されたレーザ光を受信することにより、検出物情報を取得する。ミリ波レーダ73は、車両Aの進行方向へ向けてミリ波を照射し、進行方向に存在する移動物体及び静止物体等で反射されたミリ波を受信することにより、検出物情報を取得する。ミリ波レーダ73は、ライダ72よりも遠方の物体を検出可能である。
The
カメラユニット74は、車両Aの前方領域を撮影する単眼式又は複眼式の前方カメラと、前方カメラによって撮像された前方領域の画像を解析する画像処理部とを有している。カメラユニット74は、前方領域の画像に写る移動物体及び静止物体を抽出することにより、検出物情報を取得する。
The
地図データベース75は、多数の地図データを格納している記憶媒体である。地図データには、各道路の曲率、勾配、及び区間の長さといった道路の形状情報、並びに制限速度及び一方通行といった非一時的な交通規制情報等が含まれている。地図データベース75は、車両Aの現在位置の周辺及び進行方向の地図データを、自動運転ECU50に取得させる。
The
V2X受信器76は、他の車両に搭載された車載通信器及び道路脇に設置された路側器との間で、無線通信によって情報をやり取りする。V2X受信器76は、例えば他の車両の車載通信器との車車間通信により、他の車両の相対的な位置情報を受信可能である。加えてV2X受信器76は、路側器との路車間通信により、一時的な交通規制情報、混雑情報、及び気象情報等を受信可能である。V2X受信器76は、受信した各情報を、自動運転ECU50へ向けて逐次出力する。
The
自動運転ECU50は、車両制御ECU80との連携によって車両Aの加減速制御及び操舵制御を行うことにより、運転者に代わって車両Aの運転操作を実施可能な自動運転機能を発揮する。自動運転ECU50及び車両制御ECU80の連携作動によれば、車両Aは、定速巡航、先行車への追従走行、車線内自動走行、及び自動車線変更等を行うことができる。
The
自動運転ECU50は、CPU51、GPU52、RAM53、記憶媒体54、及び入出力インターフェース55を有するマイクロコンピュータを主体に構成されている(図3参照)。自動運転ECU50は、記憶媒体54に記憶された自動運転プログラムをCPU51及びGPU52によって実行可能である。自動運転ECU50は、自動運転プログラムに基づき、走行環境認識部61、走行計画生成部62、ECU通信部64、及びHCU通信部65を自動運転に係る機能ブロックとして構築する。
The
走行環境認識部61は、GNSS受信器71から取得した位置情報、各自律センサから取得した検出物情報、及び地図データベース75から取得した地図データ等を組み合わせることで、車両Aの走行環境を認識する。走行環境認識部61は、特に各自律センサの検出範囲内について、車両Aの周囲の物体の形状及び移動状態を各検出物情報の統合結果に基づいて認識し、位置情報及び地図データと組み合わせることで、実際の走行環境を三次元で再現した仮想空間を生成する。
The traveling
走行計画生成部62は、走行環境認識部61によって認識された走行環境に基づき、自動運転機能によって車両Aを自動走行させるための走行計画を生成する。走行計画には、長中期の走行計画と、短期の走行計画とが含まれている。
The travel
長中期の走行計画は、運転者によって設定された目的地に車両Aを向かわせるための経路を規定している。長中期の走行計画には、地図データに含まれる道路の形状情報及び非一時的な交通規制情報、並びにV2X受信器76にて受信される一時的な交通規制情報等が反映される。
The long-term driving plan defines a route for directing the vehicle A to the destination set by the driver. The long-term driving plan reflects road shape information and non-temporary traffic regulation information included in the map data, temporary traffic regulation information received by the
短期の走行計画は、走行環境認識部61にて生成された車両Aの周囲の仮想空間を用いて、長中期の走行計画に従った走行を実現するための予定走行軌跡を規定している。短期の走行計画では、具体的に、車線変更のための操舵、速度調整のための加減速、及び衝突回避のための急制動等の実行が決定される。
The short-term travel plan defines a planned travel locus for realizing travel according to the long-term travel plan using the virtual space around the vehicle A generated by the travel
ECU通信部64は、車両制御ECU80へ向けた情報の出力処理と、車両制御ECU80からの情報の取得処理とを行う。具体的に、ECU通信部64は、走行計画生成部62によって策定された予定走行軌跡に従う内容の車両制御情報を生成し、自動運転機能の作動情報と共に、車両制御ECU80へ向けて逐次出力する。作動情報は、自動運転機能が作動しているか否かを示す情報である。加えてECU通信部64は、車載アクチュエータ群90の制御状態を車両制御ECU80から逐次取得し、車両制御情報の内容を補正可能である。
The
HCU通信部65は、HCU20へ向けた情報の出力処理と、HCU20からの情報の取得処理とを行う。HCU通信部65は、運転者による承認操作情報(後述する)をHCU20から取得可能である。またHCU通信部65は、走行環境認識部61にて認識された周囲の認識物情報、走行計画生成部62にて生成された短期の走行計画に基づく予定走行軌跡等を、自動運転機能の作動情報と共に、HCU20へ向けて逐次出力する。
The
車両制御ECU80は、車両Aに搭載された車載アクチュエータ群90と電気的に接続されている。車載アクチュエータ群90には、例えばスロットルアクチュエータ、インジェクタ、ブレーキアクチュエータ、駆動用のモータジェネレータ、及び操舵アクチュエータ等が含まれている。車両制御ECU80は、車載アクチュエータ群90へ向けて出力する制御信号により、車両Aの加減速及び操舵を統合的に制御する。
The
車両制御ECU80は、少なくとも一つ以上のプロセッサ81、RAM83、記憶媒体84、及び入出力インターフェース85等を有するマイクロコンピュータを主体として構成されている(図3参照)。車両制御ECU80には、パワーユニットECU、ブレーキECU、ステアリングECU、及び統合ECU等が含まれる。車両制御ECU80は、記憶媒体84に記憶された車両制御プログラムをプロセッサ81によって実行することにより、車両制御に係る機能ブロックとして、アクチュエータ制御部80aを構築する。
The
アクチュエータ制御部80aは、車両制御ECU80から車載アクチュエータ群90へ向けて出力される制御信号を生成する。アクチュエータ制御部80aは、自動運転機能が作動している状態において、自動運転ECU50から車両制御情報を取得し、車両制御情報に基づいた制御信号を生成する。またアクチュエータ制御部80aは、自動運転機能が停止している状態において、運転者により入力された運転操作に従った内容の制御信号を生成し、車載アクチュエータ群90へ向けて出力する。
The
HCU20は、運転者によって入力された操作情報の取得と、運転者への情報提示とを統合的に制御する。HCU20は、運転者へ向けて情報を通知する複数の報知機器10、及びステアリングスイッチ15と電気的に接続されている。
The
報知機器10は、HCU20によって出力される制御信号に基づき、車両Aに係る種々の情報を、運転者を含む車両Aの乗員へ向けて報知する構成である。報知機器10は、車両Aに予め搭載された構成であってもよく、又は車両Aの乗員によって車室内に持ち込まれることにより、車両Aに一時的に搭載される構成であってもよい。複数の報知機器10には、例えばメータ装置11及びヘッドアップディスプレイ(Head-Up Display,HUD)装置12等の表示デバイスに加えて、スピーカ及び触覚提示デバイス等が含まれている。
The
メータ装置11は、車両Aの車室内にて運転席17の前方に配置されている。メータ装置11は、液晶ディスプレイを有している。液晶ディスプレイには、運転席17に着座する運転者によって視認可能な表示画面11aが形成されている。表示画面11aは、マルチインフォメーションディスプレイとして機能する。メータ装置11は、HCU20から取得した制御信号に基づいて、種々の画像を含む表示を表示画面11aに表示する。
The
HUD装置12は、メータ装置11と同様に、視覚を通じて運転者への報知を行う。HUD装置12は、HCU20から取得した制御信号に基づき、投影領域12aへ向けて画像の光を投影する。投影領域12aは、ウインドシールド18の車室内側の面に設けられている。投影領域12aによって車室内側に反射された画像の光は、運転席17に着座した運転者によって知覚される。運転者は、HUD装置12によって投影された画像の虚像を、車両Aの前方の外界風景と重ねて視認可能となる。HUD装置12による虚像表示の内容は、メータ装置11の画像表示の内容と関連付けられている。
Similar to the
ステアリングスイッチ15は、ステアリングホイールのスポーク部分に複数配置されている。自動運転機能による車線変更の実施を承認する承認操作等がステアリングスイッチ15には入力される。ステアリングスイッチ15に入力された承認操作等の操作情報は、HCU20に取得されて、自動運転ECU50に逐次伝達される。
A plurality of steering switches 15 are arranged in the spoke portion of the steering wheel. An approval operation or the like for approving the execution of the lane change by the automatic driving function is input to the
HCU20は、CPU21、GPU22、RAM23、記憶媒体24、及び入出力インターフェース25を有するマイクロコンピュータを主体として構成されている(図3参照)。HCU20は、記憶媒体24に記憶された表示制御プログラムをCPU21及びGPU22によって実行可能である。HCU20は、表示制御プログラムに基づき、情報提示に係る機能ブロックとして、走行計画取得部31、承認処理部32、認識情報取得部33、画像生成部35、視点制御部36、及び機器制御部38を構築する。
The
走行計画取得部31は、最新の短期の走行計画と、車両Aの位置情報及び周囲の地図データとをHCU通信部65から取得する。走行計画取得部31は、短期の走行計画にて規定された予定走行軌跡に基づき、自動運転機能による車両Aの車線変更を伴うようなイベント(以下「LCイベント」)の発生情報を取得する。LCイベントには、例えば走行車線から追越車線への単なる車線変更、前走車の追い越し、高速道路における本線車道への合流、及び本線車道からの退出等が含まれる。加えて走行計画取得部31は、予定走行軌跡に基づき、車両Aの現在の走行速度を示す速度情報、及び車線変更を開始する際に予定されている走行速度を示す速度情報を取得する。
The travel
承認処理部32は、走行計画取得部31にて取得されたLCイベントの発生情報に基づき、承認プロセスを実行する。承認プロセスは、自動運転機能による車線変更の実行の承認を、運転者に要求するプロセスである。運転者は、「Yes」に関連付けられた特定のステアリングスイッチ15を押圧する操作により、車線変更の実施を承認できる。また運転者は、「No」に関連付けられた特定のステアリングスイッチ15を押圧する操作により、車線変更の実施を否認できる。承認処理部32は、運転者による承認操作及び否認操作の操作情報を取得し、車線変更の実施の可否を自動運転ECU50へ向けて出力する。承認処理部32から車線変更が承認された旨の情報を取得することで、自動運転ECU50は、予定した車線変更を開始可能となる。
The
認識情報取得部33は、走行環境認識部61にて認識された車両Aの周囲の移動物体及び静止物体の認識物情報を、自動運転ECU50から取得する。認識情報取得部33は、LCイベントが発生しているか否かに係わらず、認識物情報を継続的に取得し続ける。認識情報取得部33の取得する認識物情報には、車両Aの周囲を並走する他の車両の相対的な位置情報及び速度情報等が含まれている。尚、以降の説明では、他の車両との区別のために、上記の「車両A」を「自車両A」と記載する。
The recognition
画像生成部35は、表示画面11aに表示させる表示物、及び投影領域12aに投影される表示物を生成する。画像生成部35は、表示画面11aに表示させる表示コンテンツの一つとして、俯瞰表示40を生成する。俯瞰表示40は、主にLCイベントの発生時以外では、通常表示モードとして、自車両Aを直上から見下ろした表示態様となる(図4参照)。また俯瞰表示40は、主にLCイベントの発生時にて、車線変更モードとなり、自車両Aを後側方から見下ろした表示態様となる(図5〜図9参照)。
The
視点制御部36は、画像生成部35にて生成される俯瞰表示40の仮想の視点位置を制御することにより、通常表示モードと車線変更モードとの間で、俯瞰表示40の表示モードを切り替える。視点制御部36は、LCイベントの発生に基づき、表示モードの切り替えを実行する。以下の説明では、通常表示モードにおける仮想の視点位置を、「第一視点位置」とし、車線変更モードにおける仮想の視点位置を、「第二視点位置」とする。
The
図4〜図9に示す俯瞰表示40には、自車アイコン41及び地図背景42が描画されている。加えて俯瞰表示40には、自車両Aの状況に合わせて、他車アイコン43及び予定軌跡線45がさらに描画される。
In the bird's-
自車アイコン41は、自車両Aを示す画像部である。自車アイコン41は、俯瞰表示40の中央に映し出される。通常表示モードにおいて、自車アイコン41の前後方向は、表示画面11aの上下方向に沿っている。加えて、自車両Aの進行方向を示す自車アイコン41の前側は、表示画面11aの上方へ向けられている。
The
地図背景42は、自車両Aの周囲の道路形状を示す画像部である。地図背景42によって示される道路形状は、地図データベース75(図2参照)から自動運転ECU50(図2参照)へ出力され、走行計画取得部31(図2参照)に取得された地図データに基づいて描画されている。地図背景42では、自車両Aの走行する道路の全体的な形状だけでなく、車線の本数等も忠実に再現されている。
The
他車アイコン43は、自車両Aと並走する他の車両を示す画像部である。他車アイコン43は、自車両Aの周囲に認識対象物としての他の車両が認識された場合に、走行環境認識部61(図2参照)による認識物情報に基づいて、地図背景42上に追加表示される。他車アイコン43及び自車アイコン41の相対的な位置関係は、他の車両及び自車両Aの実際の相対的な位置関係に対応している。自車両Aの周囲に複数の他の車両が存在する場合、俯瞰表示40には複数の他車アイコン43が表示される。他車アイコン43は、自車アイコン41と実質的に同一の形状であって、自車アイコン41とは異なる表示色で描画される。
The
予定軌跡線45は、自車両Aの将来の挙動を示す画像部である。予定軌跡線45は、主にLCイベントの発生時に俯瞰表示40に追加される。予定軌跡線45は、自車アイコン41の近傍から矢印状に延伸する形状である。予定軌跡線45は、予定走行軌跡に基づき、予定されている車線変更を、湾曲形状によって運転者に通知する。
The planned
図4に示す通常表示モードの俯瞰表示40において、第一視点位置は、自車アイコン41の直上に設定されている。加えて、通常表示モードの俯瞰表示40は、表示画面11aに真円状に表示される。一方、図5等に示す車線変更モードの俯瞰表示40において、第二視点位置は、第一視点位置よりも自車アイコン41の側方に位置している。第一視点位置から自車アイコン41までの仮想空間内の距離は、第二視点位置から自車アイコン41までの仮想空間内の距離と、実質同一とされる。尚、図4及び図5は、自車両Aと複数の他の車両との相対的な位置関係を同一とした場合に、視点位置の違いによる俯瞰表示40の態様の違いを比較して示す図である。
In the
加えて、通常表示モードから車線変更モードへの切り替えに伴い、俯瞰表示40は、表示画面11aの水平方向HDに沿って拡大されると共に、表示画面11aの鉛直方向VDに沿って縮小される。以上により、車線変更モードの俯瞰表示40は、水平方向HDに長軸を沿わせた楕円状の表示形態とされる。このように、俯瞰表示40の表示態様が切り替えられた場合にも、自車アイコン41の表示位置は、俯瞰表示40の中央に維持される。故に、表示画面11aにおける自車アイコン41の表示位置は、視点位置の切り替えの前後において実質的に変化しない。尚、表示画面11aの水平方向HDは、静止状態にある自車両Aの幅方向に沿って規定されており、表示画面11aの鉛直方向VDは、静止状態にある自車両Aの方向に沿って規定されている。
In addition, with the switching from the normal display mode to the lane change mode, the
また、車線変更モードにおける俯瞰表示40の第二視点位置は、自車アイコン41を中心として、自車アイコン41の周りを移動可能である。例えば、図6及び図7に示すように、第二視点位置は、車線変更によって移動する自車両Aの左右の移動方向に基づいて、変更される。具体的に、自車両Aが右側の車線への車線変更を予定している場合、第二視点位置は、図6に示すように、自車アイコン41の後方から左側方へ回り込んだ位置に規定される。一方で、自車両Aが左側の車線への車線変更を予定している場合、第二視点位置は、図7に示すように、自車アイコン41の後方から左側方へ回り込んだ位置に規定される。以上のように、第二視点位置は、車線変更における自車両Aの移動方向が表示画面11aの上側を向くように、車線変更の向きに応じて移動される。
In addition, the second viewpoint position of the
さらに、俯瞰表示40の第二視点位置は、図8及び図9に示すように、自車両Aの現在の走行速度又は車線変更を開始する際に予定された走行速度に基づいて、変更される。具体的に、自車両Aの走行速度が遅くなるほど、図8に示すように、第二視点位置は、自車アイコン41の走行する仮想の路面から離れた高い位置に設定される。その結果、第二視点位置から自車アイコン41を見下ろす俯角が拡大される。
Further, as shown in FIGS. 8 and 9, the second viewpoint position of the
一方で、走行速度が速くなるほど、図9に示すように、第二視点位置は、自車アイコン41の走行する仮想の路面に近接する。その結果、第二視点位置から自車アイコン41を見下ろす俯角が縮小される。以上のように、自車両Aの走行速度が高い場合の第二視点位置は、自車両Aの走行速度が低い場合の第二視点位置よりも低く規定される。尚、図8及び図9は、自車両Aと複数の他の車両との相対的な位置関係を同一とした場合に、視点位置の違いによる俯瞰表示40の態様の違いを比較して示す図である。
On the other hand, as the traveling speed increases, the second viewpoint position approaches the virtual road surface on which the
図2に示す機器制御部38は、報知機器10へ向けて出力する制御信号を生成する。具体的に、機器制御部38は、画像生成部35及び視点制御部36によって生成された俯瞰表示40を表示画面11aに表示させる制御信号を生成し、メータ装置11へ向けて出力する。
The
以上の俯瞰表示40を制御する表示制御方法の詳細を、以下説明する。まず、俯瞰表示40を生成する俯瞰表示生成処理の内容を、図10に基づき、図2及び図4を参照しつつ、説明する。図10に示す俯瞰表示生成処理は、自車両Aの電源がオン状態に切り替えられて、メータ装置11が起動されたことに基づき、HCU20によって開始される。俯瞰表示生成処理は、自車両Aの電源がオフ状態に切り替えられるまで、繰り返し実施される。
Details of the display control method for controlling the
S101では、俯瞰表示40の生成に必要な情報を取得し、S102に進む。S101では、視点制御部36によって設定された表示モード及び視点位置を示す情報(図11 S114参照)、認識情報取得部33に取得された認識物情報、並びに走行計画取得部31に取得された予定走行軌跡及び地図データの情報等が参照される。
In S101, information necessary for generating the
S102では、S101にて取得した視点位置及び地図データに合わせて、自車アイコン41を地図背景42に重畳した俯瞰表示40の中間画像を描画し、S103に進む。S103では、S101にて、他の車両を示す認識物情報を取得したか否かを判定する。認識物情報を取得していない場合には、S105に進む。一方、認識物情報を取得していた場合には、S104に進む。
In S102, an intermediate image of the
S104では、認識物情報に基づき、他車アイコン43を地図背景42上に描画し、S105に進む。S101にて、複数の認識物情報を取得していた場合には、複数の他車アイコン43が地図背景42上に描画される。
In S104, the
S105では、S101にて取得した情報に基づき、表示モードが車線変更モードであるか否かを判定する。通常表示モードである場合には、S101に戻る。一方、車線変更モードである場合には、S106に進む。S106では、S101にて取得された予定走行軌跡の情報に基づき、予定軌跡線45を地図背景42上に描画し、S101に戻る。
In S105, it is determined based on the information acquired in S101 whether the display mode is a lane change mode. If it is the normal display mode, the process returns to S101. On the other hand, when it is lane change mode, it progresses to S106. In S106, the planned
次に、LCイベントの発生情報に基づき、俯瞰表示40の視点位置を第一視点位置及び第二視点位置の間で切り替えるモード切替処理の内容を、図11に基づき、図2及び図4を参照しつつ、以下説明する。図11に示すモード切替処理は、俯瞰表示生成処理(図10参照)と同様に、自車両Aの電源がオン状態に切り替えられたことに基づき、HCU20によって開始される。モード切替処理は、自車両Aの電源がオフ状態に切り替えられるまで、俯瞰表示生成処理と並行して、繰り返し実行される。
Next, the contents of the mode switching process for switching the viewpoint position of the
S111では、走行計画取得部31に通知された短期の走行計画に基づき、LCイベントの発生情報を取得する処理を行い、S112に進む。S112では、S111にてLCイベントの発生情報を取得できたか否かを判定する。S111にてLCイベントの発生情報が取得され、S112にて肯定判定がなされると、S113に進む。
In S111, based on the short-term travel plan notified to the travel
S113では、走行計画に基づき、自車両Aの速度情報を取得し、S114に進む。S113にて取得される速度情報は、自車両Aの現在の走行速度を示す情報であってもよく、又は車線変更時に予定されている走行速度を示す情報であってもよい。S114では、S113にて取得した速度情報、及びS111にて取得の走行計画にある予定走行軌跡に基づき、第二視点位置を規定し、S115に進む。S114にて規定された視点位置は、俯瞰表示生成処理のS101(図10参照)において参照される。 In S113, the speed information of the host vehicle A is acquired based on the travel plan, and the process proceeds to S114. The speed information acquired in S113 may be information indicating the current travel speed of the host vehicle A, or may be information indicating the travel speed planned when the lane is changed. In S114, the second viewpoint position is defined based on the speed information acquired in S113 and the planned travel locus in the travel plan acquired in S111, and the process proceeds to S115. The viewpoint position defined in S114 is referred to in S101 (see FIG. 10) of the overhead view display generation process.
S115では、俯瞰表示40の表示モードを、通常表示モードから車線変更モードへと切り替える処理を行い、S116に進む。俯瞰表示40は、いわゆるクロスフェードによって、通常表示モードの画像から、車線変更モードの画像へと切り替えられる。詳記すると、第一視点位置からの画像の透過率が0から100へ推移するのと並行して、第二視点位置からの画像の透過率が100から0へと変更される。こうしたクロスフェードの表示を実現するため、表示モードの遷移期間における俯瞰表示生成処理では、第一視点位置からの画像と、第二視点位置からの画像とが共に生成される。
In S115, the process which switches the display mode of the
S116では、最新のS111において発生情報を取得したLCイベントが終了したか否かを判定する。LCイベントは、例えば、車線変更が完了した場合、又は運転者によって否認操作が入力された場合等に終了とされる。S116の繰り返しにより、LCイベントの終了を待機し、LCイベントの終了に基づいて、S117に進む。 In S116, it is determined whether or not the LC event that acquired the occurrence information in the latest S111 has ended. The LC event is terminated when, for example, the lane change is completed, or when a denial operation is input by the driver. By repeating S116, the process waits for the end of the LC event, and proceeds to S117 based on the end of the LC event.
S117では、俯瞰表示40の表示モードを、車線変更モードから通常表示モードへと切り替える処理を行い、S101に戻る。S117における表示切替も、S115と同様に、二種類の画像のクロスフェードによって実施される。
In S117, the process which switches the display mode of the
ここまで説明した第一実施形態のように、俯瞰表示40における仮想の視点位置が、自車アイコン41直上の第一視点位置から、自車アイコン41の後側方の第二視点位置へと切り替えられても、視点位置と自車アイコン41の後方との距離は、概ね維持される。故に、俯瞰表示40にて示される自車両後方の地図背景42の範囲は、図4及び図5の比較から明らかなように、車線変更モードへ切り替えられても、自車両Aから遠い位置まで確保され得る。
As in the first embodiment described so far, the virtual viewpoint position in the
加えて、車線変更モードにおける第二視点位置は、自車アイコン41の側方に近づくことになる。故に、自車両Aの側方を示す範囲の地図背景42は、図4及び図5の比較から明らかなように、拡大され得る。その結果、第二視点位置からの俯瞰表示40は、自車両Aに比較的近い他の車両を示す他車アイコン43の見易さを確保しつつ、自車両Aから比較的遠い他の車両を示す他車アイコン43も提示可能となる。したがって、俯瞰表示40は、自動運転機能による車線変更に際し、自車両Aの周囲の認識対象物を運転者に的確に注意喚起できる。
In addition, the second viewpoint position in the lane change mode approaches the side of the
また、通常表示モードから車線変更モードへの切り替えによれば、俯瞰表示40は、自動運転機能による車両Aの制御状態の変化を、一目で気づけるように運転者に示すことができる。
Further, according to the switching from the normal display mode to the lane change mode, the bird's-
さらに第一実施形態では、通常表示モードにおける俯瞰表示40の第一視点位置が自車アイコン41の直上に規定されている。故に、通常表示モードの俯瞰表示40にて示される自車両前方の地図背景42の範囲も、自車両Aから遠い位置まで確保され得る。以上によれば、俯瞰表示40は、自車両Aの前方を走行する先行車の存在を、他車アイコン43によって運転者に分かり易く提示できる。
Furthermore, in the first embodiment, the first viewpoint position of the
加えて第一実施形態では、車線変更を行う自車両Aの左右方向が表示画面11aの上側を向くように、第二視点位置が規定される。以上によれば、表示モードが車線変更モードへ変更されても、自車アイコン41の進行方向は、俯瞰表示40の上方へ向いたままとなる。したがって、運転者は、俯瞰表示40にて示された状況から、実際の自車両Aの周囲の状況を把握し易くなると共に、車線変更を行う方向を一目で認識できるようになる。
In addition, in 1st embodiment, a 2nd viewpoint position is prescribed | regulated so that the left-right direction of the own vehicle A which changes lanes may face the upper side of the
また第一実施形態では、自車両Aの走行速度の速い場合の第二視点は、走行速度の低い場合の第一視点よりも、低く設定される。こうした第二視点の位置調整によれば、低速走行時における俯瞰表示40は、自車アイコン41の周囲を見易く提示できる。その結果、運転者は、注意すべき他の車両までの距離感を、俯瞰表示40から容易に把握できる。一方で、高速走行時における俯瞰表示40は、図8及び図9の比較から明らかなように、自車両Aから遠い他の車両を示す他車アイコン43(中央車線の他車アイコン43を参照)まで確実に表示し得る。その結果、俯瞰表示40は、後方遠方より接近する他の車両について運転者に注意を促すことができる。
In the first embodiment, the second viewpoint when the traveling speed of the host vehicle A is high is set lower than the first viewpoint when the traveling speed is low. According to such position adjustment of the second viewpoint, the bird's-
さらに第一実施形態では、通常表示モードから車線変更モードへの切り替えに伴い、表示画面11aの水平方向HDに沿って俯瞰表示40が拡大される。以上によれば、俯瞰表示40に表示可能な自車両後方の範囲が広く確保され得る。したがって、俯瞰表示40は、自車両Aから遠い位置にある他の車両を、確実に運転者に注意喚起できるようになる。加えて、俯瞰表示40は、全体形状を変更させることにより、自動運転機能の制御状態の変化を、運転者に分かり易く通知できる。
Furthermore, in the first embodiment, the
また第一実施形態では、表示モードの切り替えに伴う視点位置の変更の前後で、自車アイコン41の表示位置が維持される。故に、運転者は、視点位置が切り替えられる前後の俯瞰表示40において、地図背景42の情報及び他車アイコン43の位置関係等を容易に関連付けることができる。
In the first embodiment, the display position of the
尚、第一実施形態では、表示画面11aが「表示領域」に相当し、HCU20が「表示制御装置」に相当し、CPU21及びGPU22が「プロセッサ」に相当し、走行計画取得部31が「発生情報取得部」に相当する。また、自車アイコン41が「自車画像」に相当し、地図背景42が「地図画像」に相当し、他車アイコン43が「対象物画像」に相当する。
In the first embodiment, the
(第二実施形態)
図12に示す本開示の第二実施形態による俯瞰表示240は、第一実施形態の変形例である。第二実施形態の俯瞰表示240では、通常表示モードにおける第一視点位置が第一実施形態とは異なっている。俯瞰表示240における第一視点位置は、自車アイコン41の真後ろ上方に設定されている。図12は、視点位置の違いによる俯瞰表示40の態様の違いを、図5と比較して示す図である。図12及び図5に示される自車両Aと複数の他の車両との相対的な位置関係は、互いに同一である。俯瞰表示240の視点位置は、表示モードの切り替えに伴い、自車アイコン41を中心として旋回し、自車アイコン41側方の第二視点位置に移動される(図5参照)。
(Second embodiment)
An
加えて第二実施形態の俯瞰表示240は、通常表示モードにおいても、水平方向HDを長軸とする横長の楕円形状にて、表示画面11aに表示される。故に、表示モードが切り替えられても、俯瞰表示240の全体形状は変化しない。
In addition, the bird's-
ここまで説明した第二実施形態では、自車アイコン41の真後ろ上方の第一視点位置から、自車アイコン41の後側方の第二視点位置へと視点位置が切り替えられることで、視点位置と自車アイコン41の後方との距離が拡大される。故に、俯瞰表示240にて示される自車両後方の地図背景42の範囲は、図12及び図5の比較から明らかなように、自車両Aから遠い位置まで確保され得る。
In the second embodiment described so far, the viewpoint position is switched from the first viewpoint position just behind the
加えて、車線変更モードにおける第二視点位置は、自車アイコン41の側方に近づくことになる。故に、自車両Aの側方を示す範囲の地図背景42は、図12及び図5の比較から明らかなように、拡大され得る。その結果、第二視点位置からの俯瞰表示240は、自車両Aに比較的近い他の車両を示す他車アイコン43の見易さを確保しつつ、自車両Aから比較的遠い他の車両を示す他車アイコン43も提示可能となる。したがって、第二実施形態の俯瞰表示240も、第一実施形態と同様の効果を発揮可能であり、自車両Aの周囲の認識対象物を運転者に的確に注意喚起できる。
In addition, the second viewpoint position in the lane change mode approaches the side of the
(第三実施形態)
図13及び図14に示す本開示の第三実施形態による俯瞰表示340は、第一実施形態の別の変形例である。第三実施形態の俯瞰表示340には、複数のグリッド線344が描画されている。複数のグリッド線344は、自車アイコン41と同様に、地図背景42に重ねられている。各グリッド線344は、自車アイコン41を中心とする同心円状に配置されている。径方向に隣接した一対のグリッド線344は、例えば実線と破線等、互いに表示態様が異なっている。互いに隣接した一対のグリッド線344の間隔に対応する実際の距離は、表示モードの切り替えに伴う視点位置の変更の前後においても維持される。尚、各グリッド線344は、同心円状に限定されず、例えば同心楕円状であってもよく、又は格子状であってもよい。
(Third embodiment)
An
ここまで説明した第三実施形態でも、第一実施形態と同様に、俯瞰表示340は、自車両Aの周囲の認識対象物を運転者に的確に注意喚起できる。加えて第三実施形態では、視点位置の切り替えの前後において、グリッド線344の地図背景42に対する相対サイズが維持される。故に、運転者は、各表示モードの俯瞰表示340において、互いのスケール感を容易に把握できる。
In the third embodiment described so far, similarly to the first embodiment, the
さらに第三実施形態では、自車アイコン41を中心とした同心円状にグリッド線344が表示されるため、運転者は、同心円の中心へ向けて視線を誘導されることとなり、俯瞰表示340の中から自車アイコン41の位置を、容易に把握できる。
Furthermore, in the third embodiment, the
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although a plurality of embodiments have been described above, the present disclosure is not construed as being limited to the above-described embodiments, and can be applied to various embodiments and combinations without departing from the scope of the present disclosure. it can.
上記実施形態では、LCイベントの発生に基づいて、俯瞰表示における仮想の視点位置が第一視点位置から第二視点位置に切り替えられていた。しかし、LCイベントの発生に係わらず、第二視点位置から見た俯瞰表示が表示画面に表示され続けてもよい。 In the embodiment described above, the virtual viewpoint position in the overhead view display is switched from the first viewpoint position to the second viewpoint position based on the occurrence of the LC event. However, irrespective of the occurrence of the LC event, the overhead view viewed from the second viewpoint position may be continuously displayed on the display screen.
上記実施形態では、予定された車線変更にて車両の移動する左右の移動方向が俯瞰表示の上側となるよう、第二視点位置は規定されていた。しかし、車両の移動方向が俯瞰表示の下側となるよう、第二視点位置が規定されてもよい。こうした第二視点位置の規定方法によれば、俯瞰表示は、車線変更先となる自車両の側方の範囲がさらに見易い表示となる。 In the above embodiment, the second viewpoint position is defined so that the left and right moving directions in which the vehicle moves due to the planned lane change are on the upper side of the overhead view display. However, the second viewpoint position may be defined such that the moving direction of the vehicle is below the overhead view display. According to such a method for defining the second viewpoint position, the overhead view display is a display that makes it easier to see the side range of the host vehicle that is the lane change destination.
上記実施形態では、車両の走行速度が遅いほど、第二視点位置は、高い位置に規定されていた。しかし、車両の走行速度が遅いほど、第二視点位置が低い位置に規定されてもよい。さらに、走行速度に対応した第二視点の位置調整は、実施されなくてもよい。 In the said embodiment, the 2nd viewpoint position was prescribed | regulated to the high position, so that the running speed of the vehicle was slow. However, the second viewpoint position may be defined as a lower position as the traveling speed of the vehicle is slower. Furthermore, the position adjustment of the second viewpoint corresponding to the traveling speed may not be performed.
俯瞰表示の全体形状は、適宜変更可能である。例えば、車線変更モードでの俯瞰表示が真円状とされてもよい。さらに、俯瞰表示は、長手を水平方向HDに沿わせた矩形状であってもよい。 The overall shape of the overhead view display can be changed as appropriate. For example, the overhead view display in the lane change mode may be a perfect circle. Furthermore, the bird's-eye view display may be a rectangular shape whose longitudinal direction is along the horizontal direction HD.
自車アイコン及び他車アイコンの形状、サイズ、及び表示色は、適宜変更可能である。また、自車アイコンの表示位置は、表示モードの切り替えに伴って変更されてもよい。或いは、自車アイコンの表示位置を維持したまま表示モードを切り替えたうえで、切り替え後の俯瞰表示中にて自車アイコンの表示位置を移動させる処理が実行されてもよい。こうした処理によれば、運転者の自車アイコンの見失いを防ぎつつ、自車アイコンの表示位置の変更が可能になる。 The shape, size, and display color of the own vehicle icon and the other vehicle icon can be changed as appropriate. Moreover, the display position of the own vehicle icon may be changed with the switching of the display mode. Alternatively, the display mode may be switched while maintaining the display position of the host vehicle icon, and the process of moving the display position of the host vehicle icon during the overhead view after switching may be executed. According to such processing, the display position of the vehicle icon can be changed while preventing the driver from losing sight of the vehicle icon.
発生情報の取得から表示モードの切り替えが開始されるまでの時間は、適否変更可能である。例えば、発生情報が取得された後に、車両が特定地点に到達するのを待ってから、通常表示モードから車線変更モードへの切り替えが実行されてもよい。 The time from the acquisition of the occurrence information to the start of display mode switching can be changed as appropriate. For example, after the occurrence information is acquired, the switch from the normal display mode to the lane change mode may be executed after waiting for the vehicle to reach a specific point.
上記実施形態では、自車アイコンから第一視点位置までの仮想距離を維持したまま、視点位置は、第二視点位置へ切り替えられていた。しかし、自車両周囲の他車両を的確に他車アイコンで注意喚起できれば、自車アイコンから第二視点位置までの仮想距離は、自車アイコンから第一視点位置までの仮想距離よりも、長くてもよく又は短くてもよい。 In the above embodiment, the viewpoint position is switched to the second viewpoint position while maintaining the virtual distance from the vehicle icon to the first viewpoint position. However, if other vehicles around the vehicle can be accurately alerted with the other vehicle icon, the virtual distance from the vehicle icon to the second viewpoint position is longer than the virtual distance from the vehicle icon to the first viewpoint position. It may be good or short.
上記実施形態では、第一視点位置からの画像と第二視点位置からの画像とがクロスフェードされることにより、表示モードの切り替えが実現されていた。しかし、表示モードの切り替えに係る演出は、適宜変更可能である。例えば、表示モードの遷移期間において、第一視点位置及び第二視点位置の一方から他方へと、視点位置を連続的に移動させるアニメーションが表示されてもよい。また、表示モードの切り替えに伴った演出は、省略されてもよい。 In the above embodiment, the display mode is switched by crossfading the image from the first viewpoint position and the image from the second viewpoint position. However, the effects related to the switching of the display mode can be changed as appropriate. For example, in the transition period of the display mode, an animation for continuously moving the viewpoint position from one of the first viewpoint position and the second viewpoint position to the other may be displayed. Further, the effect accompanying the switching of the display mode may be omitted.
上記第三実施形態のグリッド線は、遷移期間とその前後の期間において一時的に表示されてもよい。又は、通常表示モード及び車線変更モードのそれぞれにて、グリッド線は、常時表示されてもよい。 The grid lines of the third embodiment may be temporarily displayed in the transition period and periods before and after the transition period. Alternatively, the grid lines may be always displayed in each of the normal display mode and the lane change mode.
上記実施形態では、走行計画生成部にて策定の走行計画に基づいて、LCイベントの発生情報が抽出されていた。しかし、LCイベントの発生情報を発信する構成は、適宜変更可能である。例えば、自動運転ECUが省略された車載システムであって、車両制御ECUに車線変更の支援機能部が設けられた形態では、こうした支援機能部の起動による車線変更支援の実行情報を、LCイベントの発生情報とすることが可能である。 In the above embodiment, the occurrence information of the LC event is extracted based on the travel plan formulated by the travel plan generation unit. However, the configuration for transmitting LC event occurrence information can be changed as appropriate. For example, in an in-vehicle system in which the automatic driving ECU is omitted and the vehicle control ECU is provided with a lane change support function unit, the execution information of the lane change support by the activation of such a support function unit is obtained as the LC event. It can be generated information.
上記実施形態では、俯瞰表示を表示する表示デバイスとして、メータ装置が用いられていた。しかし、俯瞰表示は、HUD装置によって投影領域に投影された虚像表示であってもよく、又は、運転席と助手席との間に設けられたセンターディスプレイ13(図1参照)の表示画面に表示されてもよい。 In the above-described embodiment, the meter device is used as a display device that displays a bird's-eye view display. However, the overhead view display may be a virtual image displayed on the projection area by the HUD device, or may be displayed on the display screen of the center display 13 (see FIG. 1) provided between the driver seat and the passenger seat. May be.
上記実施形態では、表示制御プログラムを実行するプロセッサとして、HCUのCPU(Central Processing Unit)及びGPU(Graphics Processing Unit)が用いられていた。しかし、表示制御に係る各機能部は、車両に搭載された種々の電子制御ユニットによって適宜実現されてよい。例えば、自動運転ECUがHCUの機能を兼ねた車載システムであれば、自動運転ECUのCPU51及びGPU52(図3参照)が、表示制御プログラムを実行してもよい。さらに、自動運転ECU及びHCUの各CPU及び各GPUが協働で表示制御プログラムを処理してもよい。また、自動運転ECU及びHCU等に設けられるプロセッサの数は、適宜増やされてよい。そして、フラッシュメモリ及びハードディスク等の種々の非遷移的実体的記憶媒体が、各プロセッサによって実行されるプログラムを格納する構成として採用可能である。
In the embodiment described above, the CPU (Central Processing Unit) and the GPU (Graphics Processing Unit) of the HCU are used as the processor that executes the display control program. However, each functional unit related to display control may be appropriately realized by various electronic control units mounted on the vehicle. For example, if the automatic operation ECU is an in-vehicle system that also functions as an HCU, the
A 車両、HD 水平方向、11a 表示画面(表示領域)、20 HCU(表示制御装置)、21 CPU(プロセッサ)、22 GPU(プロセッサ)、31 走行計画取得部(情報取得部)、33 認識情報取得部、35 画像生成部、36 視点制御部、40,240,340 俯瞰表示、41 自車アイコン(自車画像)、42 地図背景(地図画像)、43 他車アイコン(対象物画像)、344 グリッド線 A vehicle, HD horizontal direction, 11a display screen (display area), 20 HCU (display control device), 21 CPU (processor), 22 GPU (processor), 31 travel plan acquisition unit (information acquisition unit), 33 recognition information acquisition Unit, 35 image generation unit, 36 viewpoint control unit, 40, 240, 340 overhead view display, 41 own vehicle icon (own vehicle image), 42 map background (map image), 43 other vehicle icon (object image), 344 grid line
Claims (9)
前記自動運転機能によって前記車両の周囲に認識対象物が認識された場合に、当該認識対象物に係る認識物情報を取得する認識情報取得部(33)と、
前記車両を示す自車画像(41)及び前記車両の周囲の道路形状を示す地図画像(42)を少なくとも含む俯瞰表示(40,240,340)を、前記表示領域に表示させる表示物として生成し、前記自動運転機能によって前記認識対象物が認識された場合に、前記認識物情報に基づいて前記認識対象物を示す対象物画像(43)を前記地図画像上に表示させる画像生成部(35)と、を備え、
前記画像生成部は、前記俯瞰表示における仮想の視点位置を、前記自車画像の後側方に規定する表示制御装置。 In a vehicle (A) having an automatic driving function capable of performing a driving operation on behalf of a driver, a display control device for controlling display of a display area (11a) provided in a passenger compartment of the vehicle,
A recognition information acquisition unit (33) that acquires recognition object information related to the recognition object when a recognition object is recognized around the vehicle by the automatic driving function;
An overhead view display (40, 240, 340) including at least a host vehicle image (41) indicating the vehicle and a map image (42) indicating a road shape around the vehicle is generated as a display object to be displayed in the display area. When the recognition object is recognized by the automatic driving function, an image generation unit (35) that displays an object image (43) indicating the recognition object on the map image based on the recognition object information. And comprising
The said image generation part is a display control apparatus which prescribes | regulates the virtual viewpoint position in the said bird's-eye view display to the back side of the said own vehicle image.
前記発生情報に基づいて、前記俯瞰表示における仮想の視点位置を、前記自車画像の直上又は後ろ上方の第一視点位置から、当該第一視点位置よりも前記自車画像の側方の第二視点位置へ変更する視点制御部(36)と、をさらに備える請求項1に記載の表示制御装置。 An occurrence information acquisition unit (31) for acquiring occurrence information of an event accompanied by a lane change of the vehicle by the automatic driving function;
Based on the occurrence information, the virtual viewpoint position in the overhead view display is set from the first viewpoint position directly above or behind the host vehicle image to the second side of the host vehicle image from the first viewpoint position. The display control device according to claim 1, further comprising: a viewpoint control unit (36) for changing to a viewpoint position.
互いに隣接する一対の前記グリッド線の間隔に対応する実際の距離は、前記視点位置の変更の前後において維持される請求項1〜6のいずれか一項に記載の表示制御装置。 The image generation unit draws a plurality of grid lines (344) superimposed on the map image on the overhead view display,
The display control apparatus according to any one of claims 1 to 6, wherein an actual distance corresponding to an interval between a pair of grid lines adjacent to each other is maintained before and after the change of the viewpoint position.
少なくとも一つのプロセッサ(21,22)は、
運転者に代わって運転操作を実施可能な自動運転機能によって前記車両の周囲に認識対象物が認識された場合に、当該認識対象物に係る認識物情報を取得し(S101)、
前記車両を示す自車画像(41)及び前記車両の周囲の道路形状を示す地図画像(42)を少なくとも含む俯瞰表示(40,240,340)を、前記表示領域に表示させる表示物として生成し(S102)、
前記自動運転機能によって前記認識対象物が認識された場合に、当該認識対象物を示す対象物画像を前記地図画像上に描画し(S104)、
前記俯瞰表示における仮想の視点位置を、前記自車画像の後側方に規定する(S114)表示制御方法。 A display control method for controlling display of a display area (11a) provided in a passenger compartment of a vehicle (A),
At least one processor (21, 22)
When a recognition object is recognized around the vehicle by an automatic driving function capable of performing a driving operation on behalf of the driver, the recognition object information related to the recognition object is acquired (S101),
An overhead view display (40, 240, 340) including at least a host vehicle image (41) indicating the vehicle and a map image (42) indicating a road shape around the vehicle is generated as a display object to be displayed in the display area. (S102),
When the recognition object is recognized by the automatic driving function, an object image indicating the recognition object is drawn on the map image (S104),
A display control method for defining a virtual viewpoint position in the overhead view display on the rear side of the vehicle image (S114).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051202A JP6665605B2 (en) | 2016-03-15 | 2016-03-15 | Display control device and display control method |
JP2020026950A JP6962397B2 (en) | 2016-03-15 | 2020-02-20 | Display control device and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051202A JP6665605B2 (en) | 2016-03-15 | 2016-03-15 | Display control device and display control method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026950A Division JP6962397B2 (en) | 2016-03-15 | 2020-02-20 | Display control device and display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017166913A true JP2017166913A (en) | 2017-09-21 |
JP6665605B2 JP6665605B2 (en) | 2020-03-13 |
Family
ID=59908953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016051202A Active JP6665605B2 (en) | 2016-03-15 | 2016-03-15 | Display control device and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6665605B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019038903A1 (en) * | 2017-08-25 | 2019-02-28 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display apparatus |
WO2019038904A1 (en) * | 2017-08-25 | 2019-02-28 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display apparatus |
WO2019092846A1 (en) * | 2017-11-10 | 2019-05-16 | 本田技研工業株式会社 | Display system, display method, and program |
JP2020024643A (en) * | 2018-08-09 | 2020-02-13 | 日本精機株式会社 | Display device for vehicle, control method of display device for vehicle, and control program of display device for vehicle |
CN110816407A (en) * | 2018-08-07 | 2020-02-21 | 本田技研工业株式会社 | Display device, display control method, and storage medium |
JP2020119492A (en) * | 2019-01-28 | 2020-08-06 | パナソニックIpマネジメント株式会社 | Image synthesizer and control method |
JP2020163932A (en) * | 2019-03-28 | 2020-10-08 | トヨタ自動車株式会社 | Display device for vehicle |
WO2020230315A1 (en) * | 2019-05-15 | 2020-11-19 | 日産自動車株式会社 | Steering switch |
WO2020230612A1 (en) * | 2019-05-15 | 2020-11-19 | 日産自動車株式会社 | Display control method and display control device |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080266324A1 (en) * | 2007-04-30 | 2008-10-30 | Navteq North America, Llc | Street level video simulation display system and method |
JP2009111856A (en) * | 2007-10-31 | 2009-05-21 | Sony Corp | Terminal device, method of displaying search object, recording medium, display program, and system for displaying search object |
JP2010028803A (en) * | 2008-06-13 | 2010-02-04 | Valeo Vision | Image displaying method for parking aid |
JP2011030078A (en) * | 2009-07-28 | 2011-02-10 | Toshiba Alpine Automotive Technology Corp | Image display device for vehicle |
JP2011199501A (en) * | 2010-03-18 | 2011-10-06 | Aisin Seiki Co Ltd | Image display device |
JP2012023658A (en) * | 2010-07-16 | 2012-02-02 | Toshiba Alpine Automotive Technology Corp | Image display device for vehicle |
JP2012195793A (en) * | 2011-03-17 | 2012-10-11 | Clarion Co Ltd | Vehicle periphery monitoring device |
JP2012214169A (en) * | 2011-04-01 | 2012-11-08 | Mitsubishi Electric Corp | Driving assist device |
WO2013046424A1 (en) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | Head-up display, control method, and display device |
JP2013153280A (en) * | 2012-01-24 | 2013-08-08 | Mitsubishi Heavy Ind Ltd | Travel control system and travel control method |
US20140285516A1 (en) * | 2003-08-09 | 2014-09-25 | Doubleshot, Inc. | Birds eye view virtual imaging for real time composited wide field of view |
JP2014196009A (en) * | 2013-03-29 | 2014-10-16 | パナソニック株式会社 | Parking assistant, portable terminal used for parking assistant, and program |
JP2015110403A (en) * | 2013-10-30 | 2015-06-18 | 株式会社デンソー | Travel control device, server, and on-vehicle device |
WO2017061230A1 (en) * | 2015-10-08 | 2017-04-13 | 日産自動車株式会社 | Display assistance device and display assistance method |
-
2016
- 2016-03-15 JP JP2016051202A patent/JP6665605B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140285516A1 (en) * | 2003-08-09 | 2014-09-25 | Doubleshot, Inc. | Birds eye view virtual imaging for real time composited wide field of view |
US20080266324A1 (en) * | 2007-04-30 | 2008-10-30 | Navteq North America, Llc | Street level video simulation display system and method |
JP2009111856A (en) * | 2007-10-31 | 2009-05-21 | Sony Corp | Terminal device, method of displaying search object, recording medium, display program, and system for displaying search object |
JP2010028803A (en) * | 2008-06-13 | 2010-02-04 | Valeo Vision | Image displaying method for parking aid |
JP2011030078A (en) * | 2009-07-28 | 2011-02-10 | Toshiba Alpine Automotive Technology Corp | Image display device for vehicle |
JP2011199501A (en) * | 2010-03-18 | 2011-10-06 | Aisin Seiki Co Ltd | Image display device |
JP2012023658A (en) * | 2010-07-16 | 2012-02-02 | Toshiba Alpine Automotive Technology Corp | Image display device for vehicle |
JP2012195793A (en) * | 2011-03-17 | 2012-10-11 | Clarion Co Ltd | Vehicle periphery monitoring device |
JP2012214169A (en) * | 2011-04-01 | 2012-11-08 | Mitsubishi Electric Corp | Driving assist device |
WO2013046424A1 (en) * | 2011-09-30 | 2013-04-04 | パイオニア株式会社 | Head-up display, control method, and display device |
JP2013153280A (en) * | 2012-01-24 | 2013-08-08 | Mitsubishi Heavy Ind Ltd | Travel control system and travel control method |
JP2014196009A (en) * | 2013-03-29 | 2014-10-16 | パナソニック株式会社 | Parking assistant, portable terminal used for parking assistant, and program |
JP2015110403A (en) * | 2013-10-30 | 2015-06-18 | 株式会社デンソー | Travel control device, server, and on-vehicle device |
WO2017061230A1 (en) * | 2015-10-08 | 2017-04-13 | 日産自動車株式会社 | Display assistance device and display assistance method |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019038903A1 (en) * | 2017-08-25 | 2019-02-28 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display apparatus |
JPWO2019038903A1 (en) * | 2017-08-25 | 2020-10-15 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display device |
US11270589B2 (en) | 2017-08-25 | 2022-03-08 | Nissan Motor Co., Ltd. | Surrounding vehicle display method and surrounding vehicle display device |
JPWO2019038904A1 (en) * | 2017-08-25 | 2020-11-19 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display device |
US11511667B2 (en) | 2017-08-25 | 2022-11-29 | Nissan Motor Co., Ltd. | Surrounding vehicle display method and surrounding vehicle display device |
WO2019038904A1 (en) * | 2017-08-25 | 2019-02-28 | 日産自動車株式会社 | Surrounding vehicle display method and surrounding vehicle display apparatus |
US11548443B2 (en) | 2017-11-10 | 2023-01-10 | Honda Motor Co., Ltd. | Display system, display method, and program for indicating a peripheral situation of a vehicle |
CN111279689A (en) * | 2017-11-10 | 2020-06-12 | 本田技研工业株式会社 | Display system, display method, and program |
JPWO2019092846A1 (en) * | 2017-11-10 | 2020-11-19 | 本田技研工業株式会社 | Display system, display method, and program |
WO2019092846A1 (en) * | 2017-11-10 | 2019-05-16 | 本田技研工業株式会社 | Display system, display method, and program |
CN110816407A (en) * | 2018-08-07 | 2020-02-21 | 本田技研工业株式会社 | Display device, display control method, and storage medium |
JP7279314B2 (en) | 2018-08-09 | 2023-05-23 | 日本精機株式会社 | VEHICLE DISPLAY DEVICE, VEHICLE DISPLAY CONTROL METHOD, VEHICLE DISPLAY CONTROL PROGRAM |
JP2020024643A (en) * | 2018-08-09 | 2020-02-13 | 日本精機株式会社 | Display device for vehicle, control method of display device for vehicle, and control program of display device for vehicle |
JP2020119492A (en) * | 2019-01-28 | 2020-08-06 | パナソニックIpマネジメント株式会社 | Image synthesizer and control method |
JP7435691B2 (en) | 2019-03-28 | 2024-02-21 | トヨタ自動車株式会社 | Vehicle control device, method, program, and vehicle display device |
JP7167812B2 (en) | 2019-03-28 | 2022-11-09 | トヨタ自動車株式会社 | VEHICLE CONTROL DEVICE, METHOD, PROGRAM AND VEHICLE DISPLAY DEVICE |
JP2020163932A (en) * | 2019-03-28 | 2020-10-08 | トヨタ自動車株式会社 | Display device for vehicle |
WO2020230612A1 (en) * | 2019-05-15 | 2020-11-19 | 日産自動車株式会社 | Display control method and display control device |
EP3971040A4 (en) * | 2019-05-15 | 2022-04-27 | NISSAN MOTOR Co., Ltd. | Steering switch |
US11420574B2 (en) | 2019-05-15 | 2022-08-23 | Nissan Motor Co., Ltd. | Steering switch |
JP7124964B2 (en) | 2019-05-15 | 2022-08-24 | 日産自動車株式会社 | steering switch |
RU2770254C1 (en) * | 2019-05-15 | 2022-04-14 | Ниссан Мотор Ко., Лтд. | Steering switch |
CN113825676A (en) * | 2019-05-15 | 2021-12-21 | 日产自动车株式会社 | Steering wheel switch |
JPWO2020230612A1 (en) * | 2019-05-15 | 2020-11-19 | ||
JPWO2020230315A1 (en) * | 2019-05-15 | 2020-11-19 | ||
JP7359205B2 (en) | 2019-05-15 | 2023-10-11 | 日産自動車株式会社 | Display control method and display control device |
WO2020230315A1 (en) * | 2019-05-15 | 2020-11-19 | 日産自動車株式会社 | Steering switch |
Also Published As
Publication number | Publication date |
---|---|
JP6665605B2 (en) | 2020-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10663315B2 (en) | Vehicle display control device and vehicle display control method | |
JP6665605B2 (en) | Display control device and display control method | |
US10005391B2 (en) | Information presentation system | |
JP7067067B2 (en) | Traffic light recognition device and automatic driving system | |
US20220130296A1 (en) | Display control device and display control program product | |
WO2022044768A1 (en) | Vehicular display device | |
JP6443716B2 (en) | Image display device, image display method, and image display control program | |
JP6658146B2 (en) | Approval control device and approval control method | |
JP2019040634A (en) | Image display device, image display method and image display control program | |
JP6962397B2 (en) | Display control device and display control method | |
JP2023165746A (en) | Display device for vehicle and display program for vehicle | |
US20230373309A1 (en) | Display control device | |
CN113401056A (en) | Display control device, display control method, and computer-readable storage medium | |
JP2023138849A (en) | Presentation control device and presentation control program | |
CN114194105B (en) | Information prompt device for automatic driving vehicle | |
JP7318431B2 (en) | Display control device and display control program | |
US20210171060A1 (en) | Autonomous driving vehicle information presentation apparatus | |
JP7111121B2 (en) | Display control device and display control program | |
JP7310851B2 (en) | vehicle display | |
JP7342926B2 (en) | Display control device and display control program | |
JP7334768B2 (en) | Presentation control device and presentation control program | |
JP7259802B2 (en) | Display control device, display control program and in-vehicle system | |
JP7423388B2 (en) | Information provision device | |
WO2023176737A1 (en) | Display control device and display control method | |
JP7014206B2 (en) | Display control device and display control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200203 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6665605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |