JP2019207632A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2019207632A
JP2019207632A JP2018103739A JP2018103739A JP2019207632A JP 2019207632 A JP2019207632 A JP 2019207632A JP 2018103739 A JP2018103739 A JP 2018103739A JP 2018103739 A JP2018103739 A JP 2018103739A JP 2019207632 A JP2019207632 A JP 2019207632A
Authority
JP
Japan
Prior art keywords
image
display
vehicle
mode
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018103739A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
誠 秦
貴生人 川手
Takao Kawate
貴生人 川手
博之 三本
Hiroyuki Mitsumoto
博之 三本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2018103739A priority Critical patent/JP2019207632A/en
Publication of JP2019207632A publication Critical patent/JP2019207632A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

To provide a display device capable of satisfactorily informing information assumed to have a high priority when informing a plurality of information about the front of a vehicle.SOLUTION: A display device displays a virtual image V that overlaps a front landscape of a vehicle to a driver. The display device can display a first image C1 corresponding to a first object M1, and can display a second image C2 corresponding to a second object M2. The display device can display the first image C1 in an AR mode and a standing mode that is visually recognized by standing on the driver side with respect to the AR mode, and can display the second image C2 in a standing mode and an AR mode that is visually recognized by tilting toward a front road R with respect to the standing mode. When both the first object M1 and the second object M2 are specified, the display device fades out while changing the first image C1 displayed in the AR mode to the standing mode, and the display device fades in the second image C2 while changing the AR mode from the standing mode.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

従来の表示装置として、特許文献1には、車両の前方風景と重なる虚像として視認者(主に車両の運転者)に視認される画像を表示するものが開示されている。特許文献1に開示された表示装置は、車両前方の特定対象の接近に応じて当該特定対象の存在を報知する報知画像の相対的な高さ等を制御するものである。   As a conventional display device, Patent Document 1 discloses a display device that displays an image that is visually recognized by a viewer (mainly a driver of a vehicle) as a virtual image that overlaps the front landscape of the vehicle. The display device disclosed in Patent Literature 1 controls the relative height or the like of a notification image that notifies the presence of a specific target in accordance with the approach of the specific target in front of the vehicle.

特開2015−221633号公報JP, 2015-221633, A

例えば、車両前方に当該車両からの距離が異なる複数の物体が存在する場合、特許文献1に開示された技術では各物体までの距離に応じて報知画像が種々の態様で変形することになる。しかしながら、車両前方の各物体の情報のうち、視認者にとってより優先度が高いと想定される情報を報知するに当たっては改善の余地がある。   For example, when there are a plurality of objects having different distances from the vehicle in front of the vehicle, the technique disclosed in Patent Document 1 causes the notification image to be deformed in various modes according to the distance to each object. However, there is room for improvement in notifying information that is assumed to have a higher priority for the viewer among the information of each object in front of the vehicle.

本発明は、上記実情に鑑みてなされたものであり、車両前方の複数の情報を報知する際に優先度が高いと想定される情報を良好に報知することができる表示装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a display device capable of satisfactorily informing information assumed to have high priority when informing a plurality of information ahead of a vehicle. Objective.

上記目的を達成するため、本発明に係る表示装置は、
車両の前方風景と重なる虚像として視認者に視認される重畳画像を表示する表示装置であって、
前記車両の周辺に存在する物体に関する情報であって少なくとも前記物体の位置を示す物体情報を取得する物体情報取得手段と、
前記物体情報に基づいて第1物体の位置と、前記第1物体よりも前記車両から近い位置にある第2物体の位置とを取得し、前記重畳画像の表示制御を行い、前記重畳画像の表示領域内において、前記第1物体に対応した位置に第1画像を表示するとともに前記第2物体に対応した位置に第2画像を表示可能な表示制御手段と、を備え、
前記表示制御手段は、
前記第1画像を前記車両の前方道路に沿って視認される第1特別態様と、前記第1特別態様よりも前記視認者側に立ち上がって視認される第1所定態様とで表示可能であり、
前記第2画像を第2所定態様と、前記第2所定態様よりも前記前方道路側に傾いて視認される第2特別態様とで表示可能であり、
前記第1物体及び前記第2物体の双方が存在する場合、前記第1特別態様で表示していた前記第1画像を前記第1特別態様から前記第1所定態様へと変化させつつフェードアウトさせるとともに、前記第2画像を前記第2特別態様から前記第2所定態様へと変化させつつフェードインさせる画像遷移処理を実行する。
In order to achieve the above object, a display device according to the present invention includes:
A display device that displays a superimposed image that is visually recognized by a viewer as a virtual image that overlaps a front landscape of a vehicle,
Object information acquisition means for acquiring object information indicating at least the position of the object, which is information relating to an object existing around the vehicle;
Based on the object information, the position of the first object and the position of the second object closer to the vehicle than the first object are acquired, display control of the superimposed image is performed, and display of the superimposed image is performed. Display control means capable of displaying a first image at a position corresponding to the first object and displaying a second image at a position corresponding to the second object in the region;
The display control means includes
The first image can be displayed in a first special mode visually recognized along the road ahead of the vehicle, and a first predetermined mode that stands up to the viewer side from the first special mode and is visually recognized.
The second image can be displayed in a second predetermined mode and a second special mode that is visually recognized by tilting toward the front road side than the second predetermined mode,
When both the first object and the second object exist, the first image displayed in the first special mode is faded out while changing from the first special mode to the first predetermined mode. Then, an image transition process for fading in the second image while changing from the second special mode to the second predetermined mode is executed.

本発明によれば、車両前方の複数の情報を報知する際に優先度が高いと想定される情報を良好に報知することができる。   ADVANTAGE OF THE INVENTION According to this invention, when alerting | reporting several information ahead of a vehicle, the information assumed that a priority is high can be alert | reported favorably.

本発明の一実施形態に係るヘッドアップディスプレイ(HUD)装置の車両への搭載態様を説明するための図である。It is a figure for demonstrating the mounting aspect to the vehicle of the head-up display (HUD) apparatus which concerns on one Embodiment of this invention. 車両用表示システムのブロック図である。It is a block diagram of the display system for vehicles. 表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of a display control process. (a)〜(c)は、前方物体に対応した位置に表示される第1画像と、割込物体に対応した位置に表示される第2画像の遷移例を示す図である。(A)-(c) is a figure which shows the example of a transition of the 1st image displayed on the position corresponding to a front object, and the 2nd image displayed on the position corresponding to an interruption object. (a)及び(b)は、第1画像及び第2画像の遷移を説明するためのタイミングチャートである。(A) And (b) is a timing chart for demonstrating the transition of a 1st image and a 2nd image.

本発明の一実施形態に係る表示装置について図面を参照して説明する。   A display device according to an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る表示装置は、図2に示す車両用表示システム100に含まれるHUD(Head-Up Display)装置10である。HUD装置10は、図1に示すように、車両1のダッシュボード2の内部に設けられ、車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的に運転者Dに報知する。なお、車両情報は、車両1自体の情報だけでなく、車両1の運行に関連した車両1の外部の情報も含む。   The display device according to the present embodiment is a HUD (Head-Up Display) device 10 included in the vehicle display system 100 shown in FIG. As shown in FIG. 1, the HUD device 10 is provided inside a dashboard 2 of the vehicle 1, and not only information related to the vehicle 1 (hereinafter referred to as vehicle information) but also information other than vehicle information is integrated. The driver D is notified. The vehicle information includes not only information on the vehicle 1 itself but also information on the outside of the vehicle 1 related to the operation of the vehicle 1.

車両用表示システム100は、車両1内において構成されるシステムであり、HUD装置10と、周辺情報取得部40と、前方情報取得部50と、視線検出部60と、ECU(Electronic Control Unit)70とを備える。   The vehicle display system 100 is a system configured in the vehicle 1, and includes a HUD device 10, a peripheral information acquisition unit 40, a front information acquisition unit 50, a line-of-sight detection unit 60, and an ECU (Electronic Control Unit) 70. With.

HUD装置10は、図1に示すように、コンバイナ処理されたフロントガラス3に向けて表示光Lを射出する。フロントガラス3で反射した表示光Lは、運転者D側へと向かう。運転者Dは、視点をアイボックスE内におくことで、フロントガラス3の前方に、表示光Lが表す画像を虚像Vとして視認することができる。つまり、HUD装置10は、フロントガラス3の前方位置に虚像Vを表示する。これにより、運転者Dは、虚像Vを前方風景と重畳させて観察することができる。   As shown in FIG. 1, the HUD device 10 emits display light L toward the windshield 3 subjected to the combiner process. The display light L reflected by the windshield 3 goes to the driver D side. The driver D can visually recognize the image represented by the display light L as the virtual image V in front of the windshield 3 by placing the viewpoint in the eye box E. That is, the HUD device 10 displays the virtual image V at the front position of the windshield 3. Thereby, the driver D can observe the virtual image V superimposed on the front scenery.

HUD装置10は、図2に示す表示部20及び制御装置30と、図示しない反射部とを備える。   The HUD device 10 includes the display unit 20 and the control device 30 shown in FIG. 2 and a reflection unit (not shown).

表示部20は、制御装置30の制御により、虚像Vとして運転者Dに視認される重畳画像を表示する。表示部20は、例えば、TFT(Thin Film Transistor)型のLCD(Liquid Crystal Display)や、LCDを背後から照明するバックライト等を有する。バックライトは、例えばLED(Light Emitting Diode)から構成されている。表示部20は、制御装置30の制御の下で、バックライトに照明されたLCDが画像を表示することにより表示光Lを生成する。生成した表示光Lは、反射部で反射した後に、フロントガラス3に向けて射出される。反射部は、例えば、折り返しミラーと凹面鏡の二枚の鏡から構成される。折り返しミラーは、表示部20から射出された表示光Lを折り返して凹面鏡へと向かわせる。凹面鏡は、折り返しミラーからの表示光Lを拡大しつつ、フロントガラス3に向けて反射させる。これにより、運転者Dに視認される虚像Vは、表示部20に表示されている画像が拡大されたものとなる。なお、反射部を構成する鏡の枚数は設計に応じて任意に変更可能である。   The display unit 20 displays a superimposed image that is visually recognized by the driver D as a virtual image V under the control of the control device 30. The display unit 20 includes, for example, a TFT (Thin Film Transistor) type LCD (Liquid Crystal Display), a backlight that illuminates the LCD from behind, and the like. The backlight is composed of, for example, an LED (Light Emitting Diode). The display unit 20 generates the display light L when the LCD illuminated by the backlight displays an image under the control of the control device 30. The generated display light L is emitted toward the windshield 3 after being reflected by the reflecting portion. The reflection part is composed of, for example, two mirrors, a folding mirror and a concave mirror. The folding mirror folds the display light L emitted from the display unit 20 and directs it toward the concave mirror. The concave mirror reflects the light L toward the windshield 3 while expanding the display light L from the folding mirror. Thereby, the virtual image V visually recognized by the driver D is an enlarged image displayed on the display unit 20. Note that the number of mirrors constituting the reflecting portion can be arbitrarily changed according to the design.

なお、以下では、虚像Vとして運転者Dに視認される画像を表示部20が表示することを「重畳画像を表示する」とも言う。また、制御装置30が表示部20の表示制御を行うことを「重畳画像の表示制御を行う」とも言う。また、表示部20は、重畳画像を表示することができれば、LCDを用いたものに限られず、OLED(Organic Light Emitting Diodes)、DMD(Digital Micro mirror Device)、LCOS(Liquid Crystal On Silicon)などの表示デバイスを用いたものであってもよい。   In the following description, the display unit 20 displaying an image visually recognized by the driver D as the virtual image V is also referred to as “displaying a superimposed image”. In addition, the fact that the control device 30 performs display control of the display unit 20 is also referred to as “performs display control of a superimposed image”. In addition, the display unit 20 is not limited to the one using an LCD as long as it can display a superimposed image, such as OLED (Organic Light Emitting Diodes), DMD (Digital Micromirror Device), and LCOS (Liquid Crystal On Silicon). A display device may be used.

制御装置30は、HUD装置10の全体動作を制御するマイクロコンピュータからなり、制御部31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33とを備える。また、制御装置30は、図示しない構成として、駆動回路や、車両1内の各種システムと通信を行うための入出力回路を備える。   The control device 30 includes a microcomputer that controls the overall operation of the HUD device 10, and includes a control unit 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33. Moreover, the control apparatus 30 is provided with the input / output circuit for communicating with a drive circuit and the various systems in the vehicle 1 as a structure which is not shown in figure.

ROM32は、動作プログラムや各種の画像データを予め記憶する。RAM33は、各種の演算結果などを一時的に記憶する。制御部31は、ROM32に記憶された動作プログラムを実行するCPU(Central Processing Unit)31aと、CPUと協働して画像処理を実行するGPU(Graphics Processing Unit)31bとを備える。特に、ROM32には、後述する表示制御処理を実行するための動作プログラムが格納されている。なお、制御部31の一部は、ASIC(Application Specific Integrated Circuit)によって構成されていてもよい。また、制御装置30や制御部31の構成は、以下に説明する機能を充足する限りにおいては任意である。   The ROM 32 stores an operation program and various image data in advance. The RAM 33 temporarily stores various calculation results and the like. The control unit 31 includes a CPU (Central Processing Unit) 31a that executes an operation program stored in the ROM 32, and a GPU (Graphics Processing Unit) 31b that executes image processing in cooperation with the CPU. In particular, the ROM 32 stores an operation program for executing display control processing described later. A part of the control unit 31 may be configured by an ASIC (Application Specific Integrated Circuit). Moreover, the structure of the control apparatus 30 and the control part 31 is arbitrary as long as the function demonstrated below is satisfied.

制御部31は、表示部20を駆動制御する。例えば、制御部31は、CPU31aで表示部20のバックライトを駆動制御し、CPU31aと協働して動作するGPU31bで表示部20のLCDを駆動制御する。   The control unit 31 drives and controls the display unit 20. For example, the control unit 31 drives and controls the backlight of the display unit 20 with the CPU 31a, and drives and controls the LCD of the display unit 20 with the GPU 31b that operates in cooperation with the CPU 31a.

制御部31のCPU31aは、GPU31bと協働して、ROM32に記憶された各種の画像データに基づき、重畳画像の制御を行う。GPU31bは、CPU31aからの表示制御指令に基づき、表示部20の表示動作の制御内容を決定する。GPU31bは、表示部20に表示する1画面を構成するために必要な画像パーツデータをROM32から読み込み、RAM33へ転送する。また、GPU31bは、RAM33を使って、画像パーツデータやHUD装置10の外部から通信により受け取った各種の画像データを元に、1画面分の絵データを作成する。そして、GPU31bは、RAM33で1画面分の絵データを完成させたところで、画像の更新タイミングに合わせて、表示部20に転送する。これにより、表示部20に虚像Vとして運転者Dに視認される重畳画像が表示される。また、虚像Vとして視認される画像を構成する各画像には予めレイヤが割り当てられており、制御部31は、各画像の個別の表示制御が可能となっている。   The CPU 31a of the control unit 31 controls the superimposed image based on various image data stored in the ROM 32 in cooperation with the GPU 31b. The GPU 31b determines the control content of the display operation of the display unit 20 based on the display control command from the CPU 31a. The GPU 31 b reads image part data necessary for configuring one screen to be displayed on the display unit 20 from the ROM 32 and transfers it to the RAM 33. Also, the GPU 31b uses the RAM 33 to create picture data for one screen based on the image part data and various image data received from the outside of the HUD device 10 by communication. Then, when the GPU 31b completes the picture data for one screen in the RAM 33, the GPU 31b transfers the picture data to the display unit 20 in accordance with the update timing of the image. Thereby, the superimposed image visually recognized by the driver D as a virtual image V is displayed on the display unit 20. In addition, a layer is assigned in advance to each image constituting an image visually recognized as the virtual image V, and the control unit 31 can individually control display of each image.

また、制御部31は、虚像Vの表示領域内におけるコンテンツ画像(図4(a)〜(c)に示す第1画像C1や第2画像C2)の表示位置と、コンテンツ画像の表示距離とを制御する。なお、図4(a)〜(c)で虚像Vが示している点線の枠は、虚像Vの表示領域を示し、コンテンツ画像は、当該表示領域内に虚像として視認される画像である。これは、虚像Vとして運転者Dに視認される重畳画像を表示する表示部20において、当該重畳画像の表示領域内にコンテンツ画像が表示されることと同義である。   In addition, the control unit 31 determines the display position of the content image (the first image C1 and the second image C2 shown in FIGS. 4A to 4C) in the display area of the virtual image V and the display distance of the content image. Control. Note that the dotted frame indicated by the virtual image V in FIGS. 4A to 4C indicates the display area of the virtual image V, and the content image is an image that is visually recognized as a virtual image in the display area. This is synonymous with displaying the content image in the display area of the superimposed image on the display unit 20 that displays the superimposed image visually recognized by the driver D as the virtual image V.

表示位置の制御とは、運転者Dから見て、虚像Vの表示領域内における任意の位置に画像が表示されるように制御部31が表示部20を制御することである。また、表示距離の制御とは、運転者Dから見て、コンテンツ画像が車両1からどのくらい前方に表示されるかの制御である。つまり、表示距離の制御とは、車両1の前方に所定距離向かった位置にコンテンツ画像が視認されるように制御部31が表示部20を制御することである。表示距離の制御については、制御部31が虚像Vの表示領域内におけるコンテンツ画像を、奥行きを持たせた態様で表示制御可能であることにより実現される。例えば、当該奥行きを持たせた態様でコンテンツ画像を表示するには、ROM32に予め3D画像データを格納しておき、物体情報等から算出可能な、所定物体(第1物体M1や第2物体M2)の位置や自車1から所定物体までの距離に基づいて、遠近法(例えば、一点透視図法)を用いてコンテンツ画像を描画制御する。また、表示部20の表示面(LCDの表示面や、DMDやLCOSを用いた場合にはスクリーン)を傾けて配置することにより、虚像Vが表示される仮想面(表示部20の表示面に対応する面)を車両1の上下方向に対して前方に傾けて設定することでコンテンツ画像に奥行きを持たせてもよい。この場合、運転者Dの視点から視認させたい像の前記仮想面への射影を考慮して、制御部31は、コンテンツ画像を奥行きを持たせた態様で描画制御すればよい。運転者Dの視点位置として、制御部31は、ROM32内に予め格納した想定される視点位置を用いてもよいし、視線検出部60からの視線情報を用いてもよい。   The control of the display position means that the control unit 31 controls the display unit 20 so that an image is displayed at an arbitrary position in the display region of the virtual image V as viewed from the driver D. The display distance control is a control of how far the content image is displayed from the vehicle 1 when viewed from the driver D. That is, the control of the display distance is that the control unit 31 controls the display unit 20 so that the content image is visually recognized at a position facing a predetermined distance in front of the vehicle 1. The control of the display distance is realized by the control unit 31 being able to control the display of the content image in the display area of the virtual image V in a manner having a depth. For example, in order to display a content image with the depth, 3D image data is stored in the ROM 32 in advance, and predetermined objects (first object M1 and second object M2) that can be calculated from object information or the like. ) And the distance from the vehicle 1 to the predetermined object, the content image is controlled to be drawn using a perspective method (for example, a one-point perspective method). Further, by arranging the display surface of the display unit 20 (an LCD display surface or a screen in the case of using DMD or LCOS) with an inclination, a virtual surface on which the virtual image V is displayed (on the display surface of the display unit 20). The content image may be given a depth by setting the corresponding surface) to be tilted forward with respect to the vertical direction of the vehicle 1. In this case, in consideration of the projection of the image desired to be viewed from the viewpoint of the driver D onto the virtual surface, the control unit 31 may perform drawing control of the content image in a manner having a depth. As the viewpoint position of the driver D, the control unit 31 may use an assumed viewpoint position stored in advance in the ROM 32, or may use the line-of-sight information from the line-of-sight detection unit 60.

この実施形態では特に、前述のようにコンテンツ画像を奥行きを持たせた態様で表示可能であることにより、制御部31は、図4(a)〜(c)に示す第1画像C1、第2画像C2をAR(Augmented Reality)態様で表示可能となっている。   In this embodiment, in particular, since the content image can be displayed with a depth as described above, the control unit 31 can display the first image C1 and the second image C2 shown in FIGS. The image C2 can be displayed in an AR (Augmented Reality) mode.

ここで、第1画像C1は、後述する前方物体としての第1物体M1に対応する位置に表示される画像であり、第1物体M1の存在を報知するための画像である。図4(a)、(b)では、第1物体M1が車両1(以下、自車1とも言う。)の先行車両である例を示している。なお、第1画像C1の表示位置としての「第1物体M1に対応する位置」とは、第1物体M1に重畳して視認される位置に限られず、図4(a)及び(b)に示すように、第1物体M1の近傍の位置であってもよい。次に述べる第2画像C2の表示位置としての「第2物体M2に対応する位置」についても同様である。   Here, the first image C1 is an image displayed at a position corresponding to a first object M1 as a forward object, which will be described later, and is an image for notifying the presence of the first object M1. 4A and 4B show an example in which the first object M1 is a preceding vehicle of the vehicle 1 (hereinafter also referred to as the host vehicle 1). Note that the “position corresponding to the first object M1” as the display position of the first image C1 is not limited to a position that is visually recognized by being superimposed on the first object M1, and is shown in FIGS. 4A and 4B. As shown, it may be a position in the vicinity of the first object M1. The same applies to the “position corresponding to the second object M2” as the display position of the second image C2 described below.

また、第2画像C2は、後述する割込物体としての第2物体M2に対応する位置に表示される画像であり、第2物体M2の存在を報知するための画像である。図4(b)、(c)では、第2物体M2が先行車両としての第1物体M1と自車1との間に割り込んできた割込車両である例を示している。なお、第1画像C1及び第2画像C2は、対応する物体の存在を注意喚起することができれば、その態様は任意であり、例えば、文字、記号、図形、アイコンやこれらの組み合わせであればよい。   Further, the second image C2 is an image displayed at a position corresponding to a second object M2 as an interrupting object to be described later, and is an image for notifying the presence of the second object M2. 4B and 4C show an example in which the second object M2 is an interrupted vehicle that has interrupted between the first object M1 as the preceding vehicle and the host vehicle 1. Note that the first image C1 and the second image C2 may have any form as long as the presence of the corresponding object can be alerted, and may be, for example, a character, a symbol, a graphic, an icon, or a combination thereof. .

AR態様の第1画像C1は、図4(a)に示すように、実景としての前方道路Rに沿って運転者Dに視認される。AR態様の第1画像C1は、例えば、後述の交通情報や前方画像データに基づいて特定される前方道路Rに沿うように、制御部31によって遠近法(例えば、一点透視図法)を用いて描画される。ここで、遠近法を用いて描画されて前方道路Rに沿って視認される画像をパース度「100%」とする(後述の図5(b)参照)。一方、前方道路Rよりも運転者D側に起き上がって視認されるとともに、運転者Dと正対して視認される画像をパース度「0%」とする。パース度100%〜0%の間の度合は、視認される画像の前方道路Rから運転者Dに向かっての起き上がり度合に対応する。こうした場合、AR態様の第1画像C1は、例えば、パース度100%で表示される。また、制御部31は、AR態様の第1画像C1を、図4(b)に示すように、AR態様よりも運転者D側に立ち上がって視認される起立態様に変化させることが可能となっている。起立態様の第1画像C1のパース度は、AR態様の第1画像C1のパース度よりも小さければよい。   The first image C1 in the AR mode is visually recognized by the driver D along the front road R as a real scene, as shown in FIG. The first image C1 in the AR mode is drawn by using the perspective method (for example, one-point perspective method) by the control unit 31 so as to be along the forward road R specified based on traffic information and forward image data described later, for example. Is done. Here, an image drawn using the perspective method and viewed along the front road R is set as a perspective degree “100%” (see FIG. 5B described later). On the other hand, an image that is visually recognized by getting up to the driver D side with respect to the front road R and being viewed in front of the driver D is defined as “0%”. The degree between 100% and 0% of the perspective corresponds to the degree of rising from the front road R toward the driver D in the visually recognized image. In such a case, the first image C1 in the AR mode is displayed with a perspective degree of 100%, for example. Moreover, the control part 31 can change the 1st image C1 of AR mode to the standing mode which stands | starts up and is visually recognized from the driver | operator D side rather than AR mode, as shown in FIG.4 (b). ing. The perspective degree of the first image C1 in the standing manner may be smaller than the perspective degree of the first image C1 in the AR manner.

AR態様の第2画像C2は、図4(b)に示すように、実景としての前方道路Rに沿って運転者Dに視認されるが、例えば、パース度が100%よりも小さい所定度合に設定されている。また、制御部31は、AR態様の第2画像C2を、図4(c)に示すように、AR態様よりも運転者側に立ち上がって視認される起立態様に変化させることが可能となっている。起立態様の第2画像C2は、例えば、パース度0%、つまり、運転者Dと正対して表示される。   As shown in FIG. 4B, the second image C2 in the AR mode is visually recognized by the driver D along the front road R as a real scene. For example, the second degree C2 has a perspective degree smaller than 100%. Is set. Moreover, the control part 31 can change the 2nd image C2 of AR mode to the standing mode which stands | starts up and is visually recognized from the driver | operator side rather than AR mode, as shown in FIG.4 (c). Yes. The second image C2 in the standing manner is displayed with, for example, a perspective degree of 0%, that is, facing the driver D.

以上のように第1画像C1と第1画像C2の各々は、制御部31の制御により、AR態様と起立態様との間で画像遷移が可能となっている。ただし、この実施形態では、前述のように、第1画像C1のAR態様(第1特別態様)と、第2画像C2のAR態様(第2特別態様)とはパース度が異なっている。また、第1画像C1の起立態様(第1所定態様)と、第2画像C2の起立態様(第2所定態様)とはパース度が異なっている。   As described above, each of the first image C1 and the first image C2 is capable of image transition between the AR mode and the standing mode under the control of the control unit 31. However, in this embodiment, as described above, the AR mode (first special mode) of the first image C1 is different from the AR mode (second special mode) of the second image C2. Further, the stand-up mode (first predetermined mode) of the first image C1 is different from the stand-up mode (second predetermined mode) of the second image C2.

図2に戻って、制御部31のCPU31aは、周辺情報取得部40、前方情報取得部50、視線検出部60、ECU70の各々と通信を行う。当該通信としては、例えば、CAN(Controller Area Network)、Ethernet、MOST(Media Oriented Systems Transport)、LVDS(Low Voltage Differential Signaling)などの通信方式が適用可能である。   Returning to FIG. 2, the CPU 31 a of the control unit 31 communicates with each of the peripheral information acquisition unit 40, the front information acquisition unit 50, the line-of-sight detection unit 60, and the ECU 70. As the communication, for example, a communication method such as CAN (Controller Area Network), Ethernet, MOST (Media Oriented Systems Transport), or LVDS (Low Voltage Differential Signaling) is applicable.

周辺情報取得部40は、車両1の周辺(外部)の情報を取得するものであり、車両1とワイヤレスネットワークとの通信(V2N:Vehicle To cellular Network)、車両1と他車両との通信(V2V:Vehicle To Vehicle)、車両1と歩行者との通信(V2P:Vehicle To Pedestrian)、車両1と路側のインフラとの通信(V2I:Vehicle To roadside Infrastructure)を可能とする各種モジュールから構成される。つまり、周辺情報取得部40は、車両1と車両1の外部との間でV2X(Vehicle To Everything)による通信を可能とする。   The peripheral information acquisition unit 40 acquires information about the periphery (external) of the vehicle 1, and communicates between the vehicle 1 and a wireless network (V2N: Vehicle To cellular Network), and communicates between the vehicle 1 and another vehicle (V2V). : Vehicle To Vehicle), communication between the vehicle 1 and pedestrians (V2P: Vehicle To Pedestrian), and communication between the vehicle 1 and roadside infrastructure (V2I: Vehicle To roadside Infrastructure). That is, the peripheral information acquisition unit 40 enables communication by V2X (Vehicle To Everything) between the vehicle 1 and the outside of the vehicle 1.

例えば、(i)周辺情報取得部40は、WAN(Wide Area Network)に直接アクセスできる通信モジュール、WANにアクセス可能な外部装置(モバイルルータなど)や公衆無線LAN(Local Area Network)のアクセスポイント等と通信するための通信モジュールなどを備え、インターネット通信を行う。また、周辺情報取得部40は、人工衛星などから受信したGPS(Global Positioning System)信号に基づいて車両1の位置を算出するGPSコントローラを備える。これらの構成により、V2Nによる通信を可能とする。(ii)また、周辺情報取得部40は、所定の無線通信規格に準拠した無線通信モジュールを備え、V2VやV2Pによる通信を行う。(iii)また、周辺情報取得部40は、路側のインフラと無線通信する通信装置を有し、例えば、安全運転支援システム(DSSS:Driving Safety Support Systems)の基地局から、インフラストラクチャーとして設置された路側無線装置を介して、物体情報や交通情報を取得する。これによりV2Iによる通信が可能となる。   For example, (i) the peripheral information acquisition unit 40 includes a communication module that can directly access a WAN (Wide Area Network), an external device (such as a mobile router) that can access the WAN, an access point of a public wireless LAN (Local Area Network), and the like. A communication module for communication is provided, and Internet communication is performed. The peripheral information acquisition unit 40 includes a GPS controller that calculates the position of the vehicle 1 based on a GPS (Global Positioning System) signal received from an artificial satellite or the like. With these configurations, communication by V2N is enabled. (Ii) In addition, the peripheral information acquisition unit 40 includes a wireless communication module compliant with a predetermined wireless communication standard, and performs communication using V2V or V2P. (Iii) In addition, the peripheral information acquisition unit 40 has a communication device that wirelessly communicates with roadside infrastructure, and is installed as an infrastructure from a base station of a driving safety support system (DSSS), for example. Object information and traffic information are acquired via the roadside apparatus. As a result, communication by V2I becomes possible.

この実施形態では、周辺情報取得部40は、自車1の外部に存在する車両、信号機、歩行者などの各種物体の位置、大きさ、属性などを示す物体情報をV2Iにより取得し、制御部31に供給する。なお、物体情報は、V2Iに限られず、V2Xのうち任意の通信により取得されてもよい。また、周辺情報取得部40は、V2Iにより車両1の周辺道路の位置や形状を含む交通情報を取得し、制御部31に供給する。また、周辺情報取得部40のGPSコントローラからの情報に基づき、制御部31は、自車1の位置を算出する。   In this embodiment, the surrounding information acquisition unit 40 acquires object information indicating the position, size, attributes, and the like of various objects such as a vehicle, a traffic light, and a pedestrian existing outside the host vehicle 1 by using the V2I. 31. The object information is not limited to V2I, and may be acquired by any communication of V2X. In addition, the surrounding information acquisition unit 40 acquires traffic information including the position and shape of the surrounding road of the vehicle 1 by V2I and supplies the traffic information to the control unit 31. Further, based on information from the GPS controller of the peripheral information acquisition unit 40, the control unit 31 calculates the position of the host vehicle 1.

前方情報取得部50は、例えば、車両1の前方風景を撮像するステレオカメラや、自車1から自車1の前方に位置する物体までの距離を測定するLIDAR(Laser Imaging Detection And Ranging)などの測距センサや、車両1の前方に位置する物体を検出するソナー、超音波センサ、ミリ波レーダ等から構成される。   The forward information acquisition unit 50 is, for example, a stereo camera that captures a landscape in front of the vehicle 1 or a LIDAR (Laser Imaging Detection And Ranging) that measures the distance from the vehicle 1 to an object positioned in front of the vehicle 1. A distance measuring sensor, a sonar that detects an object located in front of the vehicle 1, an ultrasonic sensor, a millimeter wave radar, and the like are included.

この実施形態では、前方情報取得部50は、ステレオカメラにより撮像した前方風景画像を示す前方画像データや、測距センサが測定した物体までの距離を示すデータや、その他の検出データをCPU31aに送信する。   In this embodiment, the forward information acquisition unit 50 transmits forward image data indicating a forward landscape image captured by a stereo camera, data indicating a distance to an object measured by a distance measuring sensor, and other detection data to the CPU 31a. To do.

視線検出部60は、例えば、運転者Dの顔を撮像し、撮像データを生成する撮像手段(例えばステレオカメラ)や、撮像データの画像処理を行う画像処理部からなり、運転者Dの視線方向を検出する。例えば、視線検出部60は、パタンマッチング法などの公知の画像解析法により運転者Dの視線方向を検出し、検出結果を示す検出データをCPU31aに送信する。   The line-of-sight detection unit 60 includes, for example, an imaging unit (for example, a stereo camera) that captures the face of the driver D and generates imaging data, and an image processing unit that performs image processing of the captured data. Is detected. For example, the line-of-sight detection unit 60 detects the line-of-sight direction of the driver D by a known image analysis method such as a pattern matching method, and transmits detection data indicating the detection result to the CPU 31a.

CPU31aは、予めROM32内に格納された、視線方向と視認対象の位置とが対応付けられたテーブルデータを参照し、現在、運転者Dが視認している対象を特定する。なお、視線方向は、例えば、運転者Dの両目のいずれかに基づいて検出されてもよいし、両目の重心として検出されてもよい。CPU31aによって、運転者Dが視認している対象を特定することができれば、検出データは任意である。また、視線検出部60は、運転者Dの顔の向きを、公知の画像解析法により検出し、検出データとしてもよい。この場合、CPU31aは、予めROM32内に格納された、顔の向きと視認対象の位置とが対応付けられたテーブルデータを参照し、現在、運転者Dが視認している対象を特定すればよい。なお、テーブルデータを用いずに、視線方向から視認対象の位置を数式により求めてもよい。当該数式を示すデータは、予めROM32内に格納しておけばよい。   The CPU 31a refers to the table data stored in advance in the ROM 32 in which the line-of-sight direction and the position of the visual target are associated with each other, and identifies the target that the driver D is currently viewing. The line-of-sight direction may be detected based on, for example, either eye of the driver D or may be detected as the center of gravity of both eyes. If the CPU 31a can identify the target that the driver D is viewing, the detection data is arbitrary. Further, the line-of-sight detection unit 60 may detect the direction of the face of the driver D by a known image analysis method, and use the detected data as detection data. In this case, the CPU 31a refers to the table data stored in advance in the ROM 32 in which the face orientation and the position of the visual recognition target are associated with each other, and identifies the target that the driver D is currently viewing. . In addition, you may obtain | require the position of the visual recognition object by numerical formula from a gaze direction, without using table data. Data indicating the mathematical formula may be stored in the ROM 32 in advance.

また、視線検出部60は、運転者Dが頭部に装着したウェアラブルデバイスに搭載された撮像手段や、眼電位センサや、モーションセンサであってもよい。撮像手段による撮像データにより、前述と同様に視線方向や顔の向きを検出可能である。また、眼電位センサは、測定した眼電位に基づいて運転者Dの視線方向を検出する。また、モーションセンサは、例えば、加速度センサ、ジャイロセンサ及び地磁気センサのうち1つ又は複数の組み合わせからなり、運転者Dの顔の向きを検出する。   The line-of-sight detection unit 60 may be an imaging unit, an electrooculogram sensor, or a motion sensor mounted on a wearable device worn by the driver D on the head. The line-of-sight direction and the face direction can be detected from the imaging data obtained by the imaging means, as described above. In addition, the electrooculogram sensor detects the line-of-sight direction of the driver D based on the measured electrooculogram. Moreover, a motion sensor consists of 1 or a combination of an acceleration sensor, a gyro sensor, and a geomagnetic sensor, for example, and detects the direction of the driver | operator's D face.

なお、CPU31aが、撮像手段や各種センサからの信号に基づき、運転者Dの視線方向や顔の向きを検出する構成としてもよい。CPU31aが運転者Dが視認している対象を特定することができれば、運転者Dの視線方向や顔の向きの検出手法及び検出構成は任意である。   Note that the CPU 31a may be configured to detect the line-of-sight direction and the face direction of the driver D based on signals from the imaging means and various sensors. As long as the CPU 31a can identify the target that the driver D is viewing, the detection method and detection configuration of the driver D's line-of-sight direction and face orientation are arbitrary.

ECU70は、車両1の各部を制御するものであり、例えば、車両1の現在の車速を示す車速情報をCPU31aへ送信する。なお、CPU31aは、車速センサから車速情報を取得してもよい。また、ECU70は、エンジン回転数などの計測量や、車両1自体の警告情報(燃料低下や、エンジン油圧異常など)や、その他の車両情報をCPU31aへ送信する。ECU70から取得した情報に基づいて、CPU31aは、GPU31bを介して、表示部20に車速、エンジン回転数、各種警告などを示す画像を表示させることが可能となっている。つまり、図4(a)〜(c)に示すように、第1画像C1や第2画像C2の他に、虚像Vの表示領域内に車両情報を示す画像V1も表示可能となっている。なお、画像V1は、例えば、運転者Dと正対して視認されるようにパース度0%で表示される。また、画像V1には、例えば、周辺情報取得部40を介してV2Iで取得した交通情報(例えば、制限速度など)を示す画像が含まれていてもよい。   ECU70 controls each part of the vehicle 1, for example, transmits the vehicle speed information which shows the present vehicle speed of the vehicle 1 to CPU31a. Note that the CPU 31a may acquire vehicle speed information from a vehicle speed sensor. In addition, the ECU 70 transmits a measured amount such as the engine speed, warning information of the vehicle 1 itself (fuel reduction, engine oil pressure abnormality, etc.) and other vehicle information to the CPU 31a. Based on the information acquired from the ECU 70, the CPU 31a can display an image indicating the vehicle speed, the engine speed, various warnings, and the like on the display unit 20 via the GPU 31b. That is, as shown in FIGS. 4A to 4C, in addition to the first image C1 and the second image C2, an image V1 indicating vehicle information can be displayed in the display area of the virtual image V. Note that the image V1 is displayed with a degree of perspective of 0% so that it can be visually recognized as facing the driver D, for example. Further, the image V1 may include, for example, an image indicating traffic information (for example, a speed limit) acquired by V2I via the peripheral information acquisition unit 40.

(表示制御処理)
続いて、自車1の前方に存在する各種物体の存在を報知するための表示を行う表示制御処理について図3を参照して説明する。表示制御処理は、制御部31によって実行され、例えば、車両1のイグニッションがオンされた状態において継続して実行される。
(Display control processing)
Next, a display control process for performing display for notifying the presence of various objects existing in front of the host vehicle 1 will be described with reference to FIG. The display control process is executed by the control unit 31 and is continuously executed in a state where the ignition of the vehicle 1 is turned on, for example.

表示制御処理を開始すると、まず、制御部31は、周辺情報取得部40から物体情報を取得する(ステップS1)。続いて、制御部31は、取得した物体情報に基づいて、自車1の前方に位置する前方物体(第1物体M1)があるか否かを判別する(ステップS2)。   When the display control process is started, first, the control unit 31 acquires object information from the peripheral information acquisition unit 40 (step S1). Subsequently, the control unit 31 determines whether or not there is a front object (first object M1) located in front of the host vehicle 1 based on the acquired object information (step S2).

ステップS2において、例えば、制御部31は、路側のインフラから周辺情報取得部40を介してV2IやV2Vで取得した物体情報が示す物体の位置に基づき、当該物体が運転者Dから見て虚像Vの表示領域内に位置すると特定した場合に、前方物体(第1物体M1)があると判別する。なお、前方物体の存在の特定手法は、これに限られない。例えば、周辺情報取得部40からの物体情報は、V2IやV2Vに限られず、V2Xのうち任意の通信(V2N、V2V、V2Pのうち少なくともいずれか)により取得してもよい。また、制御部31は、前方情報取得部50から取得した情報に基づき、前方物体を特定してもよい。具体的には、前方画像データに基づき、例えばパタンマッチング法などの公知の画像解析法により前方物体を特定してもよいし、測距センサ、ソナー、超音波センサ、ミリ波レーダからの検出信号に基づき前方物体を特定してもよい。当該前方画像データや検出信号に基づいて前方物体を特定する場合でも、制御部31は、演算の過程で前方物体の位置を算出するため、物体情報を取得していると言える。   In step S2, for example, the control unit 31 determines that the object is a virtual image V viewed from the driver D based on the position of the object indicated by the object information acquired by the V2I or V2V from the roadside infrastructure via the peripheral information acquisition unit 40. When it is determined that the object is located within the display area, it is determined that there is a front object (first object M1). Note that the method for identifying the presence of the forward object is not limited to this. For example, the object information from the peripheral information acquisition unit 40 is not limited to V2I or V2V, and may be acquired by any communication (at least one of V2N, V2V, and V2P) of V2X. Further, the control unit 31 may specify the front object based on the information acquired from the front information acquisition unit 50. Specifically, based on the forward image data, for example, a forward object may be specified by a known image analysis method such as a pattern matching method, or a detection signal from a ranging sensor, sonar, ultrasonic sensor, or millimeter wave radar The forward object may be specified based on the above. Even when the front object is specified based on the front image data and the detection signal, it can be said that the control unit 31 obtains object information because the position of the front object is calculated in the calculation process.

前方物体ありと判別した場合(ステップS2;Yes)、制御部31は、第2画像C2が表示中であるか否かを判別する(ステップS3)。第2画像C2が表示中でない場合(ステップS3;No)、制御部31は、図4(a)に示すように、ステップS2で特定した前方物体(第1物体M1)に対応した位置に第1画像C1をAR態様で表示する(ステップS4)。
一方、前方物体なしと判別した場合(ステップS2;No)、制御部31は、第1画像C1を非表示に(虚像Vの表示領域内から消去)する(ステップS5)。ステップS5の実行後は、制御部31は、再びステップS1の処理から実行する。
When it is determined that there is a front object (step S2; Yes), the control unit 31 determines whether or not the second image C2 is being displayed (step S3). When the second image C2 is not being displayed (step S3; No), as shown in FIG. 4A, the control unit 31 takes the first position at the position corresponding to the front object (first object M1) specified in step S2. One image C1 is displayed in the AR mode (step S4).
On the other hand, when it is determined that there is no forward object (step S2; No), the control unit 31 hides the first image C1 (erase from the display area of the virtual image V) (step S5). After execution of step S5, the control unit 31 executes again from the process of step S1.

ステップS4の実行に続き、又は第2画像C2が表示中の場合(ステップS3;Yes)、制御部31は、割込物体(第2物体M2)があるか否かを判別する(ステップS6)。   Following execution of step S4 or when the second image C2 is being displayed (step S3; Yes), the control unit 31 determines whether or not there is an interrupting object (second object M2) (step S6). .

ここで、割込物体とは、自車1と前方物体との間に位置している、又は、位置しようとしている物体を言う。制御部31は、ステップS2と同様に物体情報に基づき物体を特定し、例えば、(ア)当該物体の少なくとも一部が自車1の走行車線内に位置したことや、(イ)当該物体の少なくとも一部が虚像Vの表示領域内に入ったことや、(ウ)当該物体の少なくとも一部がフロントガラス3を介して視認可能な運転者Dの視界領域内に入ったことや、(エ)当該物体が、前記走行車線、表示領域、又は視界領域内に入り込んでくる挙動を示したこと、等を特定した場合に、当該物体が割込物体(第2物体M2)であると特定する(割込物体ありと判別する)。なお、前記(エ)のように物体の挙動に基づいて割込物体を特定する場合、前方情報取得部50からの情報だけでは自車1の前方にある物体の挙動しか特定できないため、制御部31は、周辺情報取得部40からの情報を用いることが好ましい。自車1の側方や後方から現れる割込物体(自車1を追い越す車両や、自車1と併走するバイクなど)も存在するためである。   Here, the interrupting object refers to an object that is positioned between or about to be positioned between the vehicle 1 and the front object. The control unit 31 identifies the object based on the object information in the same manner as in step S2. For example, (a) at least a part of the object is located in the travel lane of the host vehicle 1, or (b) At least part of the object has entered the display area of the virtual image V, (c) At least part of the object has entered the field of view of the driver D visible through the windshield 3, ) When it is specified that the object has behaved into the driving lane, the display area, or the view area, the object is specified as an interrupted object (second object M2). (It is determined that there is an interrupting object). When the interrupting object is specified based on the behavior of the object as in (D), only the behavior of the object in front of the host vehicle 1 can be specified only by the information from the front information acquisition unit 50. 31 preferably uses information from the peripheral information acquisition unit 40. This is because there are interrupting objects appearing from the side or the back of the own vehicle 1 (such as a vehicle overtaking the own vehicle 1 or a motorcycle running alongside the own vehicle 1).

割込物体ありと判別した場合(ステップS6;Yes)、制御部31は、「第1画像C1が表示中、且つ、第2画像C2が非表示状態」であるか否かを判別する(ステップS7)。「第1画像C1が表示中、且つ、第2画像C2が非表示状態」ではない場合(ステップS7;No)、制御部31は、再びステップS1の処理から実行する。   When it is determined that there is an interrupted object (step S6; Yes), the control unit 31 determines whether or not “the first image C1 is being displayed and the second image C2 is in a non-display state” (step S6). S7). When it is not “the first image C1 is being displayed and the second image C2 is not being displayed” (step S7; No), the control unit 31 executes again from the process of step S1.

第1画像C1が表示中、且つ、第2画像C2が非表示状態である場合(ステップS7;Yes)、制御部31は、AR態様で表示されている第1画像C1を徐々に消去するとともに、第2画像C2を徐々に表示する画像遷移処理を実行する(ステップS8)。具体的には画像遷移処理において、制御部31は、図4(a)〜図4(c)に順を追って示すように、AR態様で表示していた第1画像C1をAR態様から起立態様へと変化させつつフェードアウトさせるとともに、第2画像C2をAR態様から起立態様へと変化させつつフェードインさせる。例えば、制御部31は、自車1から特定された物体(第1物体M1、第2物体M2)までの距離や、物体情報が示す当該物体の位置や属性に応じてコンテンツ画像(第1画像C1、第2画像C2)を生成するためのデータ(テーブル、数式、画像パーツなどを示すデータ)に基づいて、コンテンツ画像の表示制御を行えばよい。当該データは、予めROM32に格納しておけばよい。   When the first image C1 is being displayed and the second image C2 is in the non-display state (step S7; Yes), the control unit 31 gradually erases the first image C1 displayed in the AR mode. Then, an image transition process for gradually displaying the second image C2 is executed (step S8). Specifically, in the image transition process, the control unit 31 raises the first image C1 displayed in the AR mode from the AR mode as shown in order in FIGS. 4 (a) to 4 (c). The second image C2 is faded in while changing from the AR mode to the standing mode. For example, the control unit 31 determines the content image (first image) according to the distance from the own vehicle 1 to the identified objects (first object M1, second object M2) and the position and attribute of the object indicated by the object information. The display control of the content image may be performed based on data for generating (C1, second image C2) (data indicating a table, a mathematical expression, an image part, etc.). The data may be stored in the ROM 32 in advance.

ここで、図4(a)〜図4(c)に示す状態について順を追って説明する。
図4(a)は、自車1の先行車両としての第1物体M1に対応して、AR態様の第1画像C1を表示している例を示している。図4(b)は、第1物体M1と自車1との間に、他の車両としての第2物体M2が割り込んできた状態を示している。第2物体M2がこのように位置すると、AR態様の第1画像C1に重なってしまうため、第1物体M1の存在を強調するための第1画像C1の意味が無くなってしまう。そこで、ステップS8において、AR態様の第1画像C1を徐々にパース度を低くして起立態様へと変化させつつ、フェードアウトさせる。これと併せて、割込物体としての第2物体M2の存在を強調するための第2画像C2を徐々にパース度を低くして起立態様へと変化させつつ、フェードインさせる。その結果、図4(c)に示すように、自車1の前方に割り込んできた第2物体M2に対する第2画像C2を運転者Dと正対して視認されるように表示することができる。
Here, the states shown in FIGS. 4A to 4C will be described in order.
FIG. 4A shows an example in which a first image C <b> 1 in the AR mode is displayed corresponding to the first object M <b> 1 as the preceding vehicle of the host vehicle 1. FIG. 4B shows a state in which the second object M2 as another vehicle has entered between the first object M1 and the host vehicle 1. When the second object M2 is positioned in this manner, the first image C1 for emphasizing the presence of the first object M1 is lost because it overlaps the first image C1 in the AR mode. Therefore, in step S8, the first image C1 in the AR mode is faded out while gradually changing the perspective degree to the standing mode. At the same time, the second image C2 for emphasizing the presence of the second object M2 as an interrupting object is faded in while gradually changing the degree of perspective to a standing state. As a result, as shown in FIG. 4C, the second image C2 for the second object M2 that has been interrupted in front of the host vehicle 1 can be displayed so as to be viewed in front of the driver D.

ステップS8に続いて、制御部31は、視線検出部60から運転者Dの視線方向を示す視線情報を取得し、取得した視線情報に基づき、運転者Dが起立態様の第2画像C2を視認しているか否かを判別する(ステップS9)。   Subsequent to step S8, the control unit 31 acquires line-of-sight information indicating the line-of-sight direction of the driver D from the line-of-sight detection unit 60, and based on the acquired line-of-sight information, the driver D visually recognizes the second image C2 in the standing state. It is determined whether or not (step S9).

ステップS9で運転者Dが起立態様の第2画像C2を視認していると判別した場合(ステップS9;Yes)、制御部31は、第2画像C2を当該判別前よりも虚像Vの表示領域の端側の位置へと移動させる視認性確保処理を実行する(ステップS10)。当該視認性確保処理により、既に運転者Dによって認識されたと推定される第2画像C2が、運転者Dによる前方風景の視認を妨げることを抑制することができる。なお、第2画像C2を当該判別前よりも虚像Vの表示領域の端側の位置へと移動させるとともに、当該判別前よりも第2画像C2の大きさを縮小してもよいし、当該判別前よりも第2画像C2の視認性を低下させる(例えば、第2画像C2の表示輝度や彩度を低下させる、透明度を上げる等)ようにしてもよい。   When it is determined in step S9 that the driver D is viewing the second image C2 in the standing state (step S9; Yes), the control unit 31 displays the second image C2 in the display area of the virtual image V before the determination. A visibility ensuring process of moving to the end side position is executed (step S10). The visibility ensuring process can suppress the second image C <b> 2 presumed to have been recognized by the driver D from hindering the driver D from viewing the front landscape. Note that the second image C2 may be moved to a position closer to the end side of the display area of the virtual image V than before the determination, and the size of the second image C2 may be reduced more than before the determination. The visibility of the second image C2 may be lowered than before (for example, the display brightness and saturation of the second image C2 may be reduced, the transparency may be increased, etc.).

ステップS10の処理の実行後や、運転者Dが起立態様の第2画像C2を視認していない場合(ステップS9;No)、制御部31は、再びステップS1の処理から実行する。   After the execution of the process of step S10 or when the driver D has not visually recognized the second image C2 in the standing state (step S9; No), the control unit 31 executes again from the process of step S1.

ステップS6で割込物体なしと判別した場合(ステップS6;No)、制御部31は、ステップS11へ処理を進める。なお、前回のステップS6の処理において、既に特定された割込物体(第2物体M2)があった場合、制御部31は、第2物体M2が自車1と第1物体M1との間から外れることを示す移動状態を特定できた際に割込物体なしと判別すればよい。当該移動状態は、例えば、第2物体M2の所定部分が自車1の走行車線外に位置したことや、第2物体M2が自車1の走行車線から外れる挙動を示したこと等である。ステップS11で制御部31は、「第2画像C2が表示中、且つ、第1画像C1が非表示状態」であるか否かを判別する。「第2画像C2が表示中、且つ、第1画像C1が非表示状態」ではない場合(ステップS11;No)、制御部31は、再びステップS1の処理から実行する。   When it is determined in step S6 that there is no interrupted object (step S6; No), the control unit 31 advances the process to step S11. If there is an interrupted object (second object M2) that has already been identified in the previous step S6, the control unit 31 determines that the second object M2 is between the vehicle 1 and the first object M1. What is necessary is just to discriminate | determine that there is no interruption object, when the movement state which shows having come off can be specified. The movement state is, for example, that a predetermined part of the second object M2 is located outside the traveling lane of the own vehicle 1, or that the second object M2 exhibits a behavior that deviates from the traveling lane of the own vehicle 1. In step S11, the control unit 31 determines whether or not “the second image C2 is being displayed and the first image C1 is not being displayed”. When the “second image C2 is being displayed and the first image C1 is not being displayed” is not in effect (step S11; No), the control unit 31 executes the process from step S1 again.

第2画像C2が表示中、且つ、第1画像C1が非表示状態である場合(ステップS11;Yes)、制御部31は、第2画像C2を徐々に消去するとともに、第1画像C1を徐々に表示する(ステップS12)。具体的には、制御部31は、第2画像C2を起立態様からAR態様へと変化させつつフェードアウトさせるとともに、第1画像C1を起立態様からAR態様へと変化させつつフェードインさせる。つまり、ステップS8で説明した画像遷移を逆に辿るような表示制御を行う。こうすることで、スムーズに運転者Dの意識を第1物体M1に向かせることができる。ステップS12の処理の実行後、制御部31は、再びステップS1の処理から実行する。以上の表示制御処理は、例えばHUD装置10がオフされるまで、継続して実行される。   When the second image C2 is being displayed and the first image C1 is in a non-display state (step S11; Yes), the control unit 31 gradually deletes the second image C2 and gradually deletes the first image C1. (Step S12). Specifically, the control unit 31 causes the second image C2 to fade out while changing from the standing mode to the AR mode, and causes the first image C1 to fade in while changing from the standing mode to the AR mode. That is, display control is performed to reversely follow the image transition described in step S8. By doing so, the driver D's consciousness can be smoothly directed to the first object M1. After execution of the process of step S12, the control unit 31 executes the process from step S1 again. The display control process described above is continuously executed until, for example, the HUD device 10 is turned off.

図5(a)、(b)に、第1画像C1及び第2画像C2の遷移例のタイミングチャートを示す。
図5(a)は、時間経過に応じた第1画像C1及び第2画像C2の視認性を示す。ここでの視認性とは、例えば表示輝度であり、同図において視認性が最大となる箇所は、予め定められた輝度や外光環境に応じて設定される輝度であって、虚像Vの表示領域内に表示される画像が運転者Dに明瞭に視認される輝度を示している。一方、同図において視認性が最小となる箇所は、画像が非表示の状態を示している。なお、ここでの視認性は透明度であってもよい(透明度0%で視認性最大、透明度100%で視認性最小)。
図5(b)は、図5(a)に対応する時間経過に応じた第1画像C1及び第2画像C2のパース度を示す。t1は、割込物体(第2物体M2)が特定されたタイミングであり、ステップS6でYesと判別されるタイミングに対応する。
5A and 5B show timing charts of transition examples of the first image C1 and the second image C2.
FIG. 5A shows the visibility of the first image C1 and the second image C2 over time. Here, the visibility is, for example, display luminance. In the figure, the portion where the visibility is maximum is a luminance set according to a predetermined luminance or an external light environment, and the virtual image V is displayed. The image displayed in the area indicates the luminance that is clearly visible to the driver D. On the other hand, the portion where the visibility is minimum in the figure shows a state in which the image is not displayed. The visibility here may be transparency (maximum visibility when transparency is 0%, minimum visibility when transparency is 100%).
FIG. 5B shows the degree of parsing of the first image C1 and the second image C2 over time corresponding to FIG. t1 is the timing at which the interrupting object (second object M2) is specified, and corresponds to the timing at which Yes is determined in step S6.

割込物体が特定される前の状態「0≦t<t1」では、前方道路Rに沿って視認されるパース度合100%のAR態様の第1画像C1を第1物体M1に対応した位置に表示する。   In the state “0 ≦ t <t1” before the interrupted object is specified, the first image C1 in the AR mode with a perspective degree of 100% visually recognized along the front road R is at a position corresponding to the first object M1. indicate.

割込物体を特定してからの「t1≦t<t4」は、ステップS8における画像遷移処理に対応する。   “T1 ≦ t <t4” after specifying the interrupted object corresponds to the image transition processing in step S8.

「t1」で、第1画像C1の視認性を下げ始め、フェードアウトを開始する。また、運転者Dが直感的に手前の情報に注意を払うようにするため、第1画像C1のパース度を下げ始める。
第1画像C1の視認性が所定値THを下回る「t2」で、第2物体M2(割込物体)に対応した位置での第2画像C2の表示を開始する。この時から、第2画像C2が非表示状態から視認できる状態となっていくが、t2における第2画像C2のパース度は100%よりも低い値を設定することが好ましい。例えば、第2画像C2のパース度の変化率を第1画像C1と同じにすることで(図5(b)に示すように「傾き」を同じにすることで)、スムーズなパース変化を実現することができ、パース変化によって運転者Dが違和感を覚えてしまうことを抑制することができる。
「t3」で、第1画像C1の視認性が0(非表示)となるため、ここで第1画像C1のパース制御を終了する。一方、第2画像C2の視認性の増加は「t4」で視認性が最大になるまで継続する。また、この時、パース度が0%になるように第2画像C2の表示を制御する。
At “t1”, the visibility of the first image C1 starts to be lowered and fade-out is started. In addition, in order for the driver D to intuitively pay attention to the information in front, the degree of the first image C1 starts to be lowered.
Display of the second image C2 at a position corresponding to the second object M2 (interrupt object) is started at “t2” when the visibility of the first image C1 is lower than the predetermined value TH. From this time, the second image C2 becomes visible from the non-display state, but it is preferable to set the perspective of the second image C2 at t2 to a value lower than 100%. For example, by making the change rate of the second image C2 the same as the first image C1 (by making the “tilt” the same as shown in FIG. 5B), a smooth change in the perspective is realized. It is possible to suppress the driver D from feeling uncomfortable due to the change in the perspective.
At “t3”, the visibility of the first image C1 becomes 0 (non-display), so the parsing control of the first image C1 is ended here. On the other hand, the increase in the visibility of the second image C2 continues until the visibility becomes maximum at “t4”. At this time, the display of the second image C2 is controlled so that the degree of perspective is 0%.

なお、ステップS12での画像制御は、図5に示す時系列を遡って考えればよい。また、図5に示す例ではt2とt3を別にしているが、「t2=t3」としてもよい。こうすれば、上記の表示制御を第1物体M1、第2物体M2のどちらか一方に対して行うことができるため、表示制御や表示見栄えが複雑になることを回避することができる。また、図5に示す例ではパース度の変化率(傾き)を、第1画像C1と第2画像C2とで一致させたが、第2画像C2のパース度の変化率(傾き)を第1画像C1のパース度の変化率よりも大きくしてもよい。こうすれば、割込物体としての第2物体M2への注目度をより高めることができる。   The image control in step S12 may be considered retrospectively from the time series shown in FIG. Further, in the example shown in FIG. 5, t2 and t3 are separated, but “t2 = t3” may be used. By so doing, the display control described above can be performed on either the first object M1 or the second object M2, so that it is possible to avoid complicated display control and display appearance. Further, in the example shown in FIG. 5, the change rate (slope) of the degree of perspective is matched between the first image C1 and the second image C2, but the change rate (slope) of the degree of perspective of the second image C2 is the first. The rate of change in the degree of parsing of the image C1 may be larger. By so doing, it is possible to further increase the degree of attention to the second object M2 as the interrupting object.

なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。   In addition, this invention is not limited by the above embodiment, a modified example, and drawing. Changes (including deletion of components) can be made as appropriate without departing from the scope of the present invention.

第1物体M1及び第2物体M2は、車両に限られず、歩行者や自転車や他の移動物体であってもよい。なお、第1物体M1については、移動しない物体(例えば、前方道路Rの一部)であってもよい。例えば、第1物体M1としての前方道路Rの一部に重畳して視認される経路案内画像(矢印状の画像や、走行レーンを示す画像)が第1画像C1であり、当該第1画像C1の表示位置と自車1の間に、割込物体としての第2物体M2が発生した場合に、前記の表示制御処理を行ってもよい。   The first object M1 and the second object M2 are not limited to vehicles, and may be pedestrians, bicycles, and other moving objects. Note that the first object M1 may be an object that does not move (for example, a part of the front road R). For example, a route guidance image (an arrow-shaped image or an image showing a travel lane) that is visually recognized by being superimposed on a part of the front road R as the first object M1 is the first image C1, and the first image C1. When the second object M2 as an interrupted object is generated between the display position of the vehicle and the host vehicle 1, the display control process may be performed.

以上の説明では、第1画像C1のAR態様(第1特別態様)と、第2画像C2のAR態様(第2特別態様)とはパース度が異なり、第1画像C1の起立態様(第1所定態様)と、第2画像C2の起立態様(第2所定態様)とはパース度が異なる例を示したが、各態様のパース度は任意である。例えば、第2画像C2のAR態様をパース度100%としたり、第1画像C1の起立態様をパース度0%としたりしてもよい。また、「前方道路Rに沿って視認される」とは、パース度100%に限られず、運転者Dが前方道路Rに沿って画像が表示されていると認識できる状態であれば、パース度100%よりも小さい所定度合であってもよい。また、第1画像C1や第2画像C2におけるAR態様と起立態様との間における表示は、消失点などを用いた厳密な遠近法を利用したものでなくともよく、運転者Dが前方道路Rに沿って視認される状態と自身と正対して視認される状態との間の変化を感じることができれば任意である。   In the above description, the AR mode (first special mode) of the first image C1 and the AR mode (second special mode) of the second image C2 have different degrees of perspective, and the standing mode (first mode) of the first image C1. Although the predetermined aspect) and the standing aspect (second predetermined aspect) of the second image C2 have been shown as examples having different degrees of perspective, the degree of perspective of each aspect is arbitrary. For example, the AR mode of the second image C2 may be set to 100%, and the standing mode of the first image C1 may be set to 0%. Further, “perceived along the front road R” is not limited to the perspective degree 100%, and if the driver D can recognize that the image is displayed along the front road R, the degree of perspective It may be a predetermined degree smaller than 100%. In addition, the display between the AR mode and the standing mode in the first image C1 and the second image C2 does not have to use a strict perspective method using a vanishing point or the like. It is arbitrary if a change between a state visually recognized along the line and a state visually recognized by itself can be felt.

表示光Lの投射対象は、フロントガラス3に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。また、以上の表示制御処理を実行する表示装置としては、HUD装置10に限られない。表示装置は、車両1の運転者Dの頭部に装着されるヘッドマウントディスプレイ(HMD:Head Mounted Display)として構成されてもよい。そして、HMDが虚像として表示する画像において、コンテンツ画像(第1画像C1、第2画像C2)の表示制御を、前述と同様な手法で実行してもよい。つまり、表示装置は、車両1に搭載されているものに限られず、車両1で使用されるものであればよい。   The projection target of the display light L is not limited to the windshield 3 but may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like. Further, the display device that executes the above display control processing is not limited to the HUD device 10. The display device may be configured as a head mounted display (HMD) that is mounted on the head of the driver D of the vehicle 1. And in the image which HMD displays as a virtual image, you may perform display control of a content image (1st image C1, 2nd image C2) by the method similar to the above-mentioned. That is, the display device is not limited to the one mounted on the vehicle 1 and may be any device used in the vehicle 1.

以上に説明したHUD装置10(表示装置の一例)は、車両1の前方風景と重なる虚像Vとして運転者D(視認者の一例)に視認される重畳画像を表示する。
HUD装置10は、車両1の周辺に存在する物体に関する情報であって少なくとも物体の位置を示す物体情報を取得する物体情報取得手段(例えば、ステップS1の処理を実行する制御部31)と、物体情報に基づいて第1物体M1と第1物体M1よりも車両1から近い位置にある第2物体M2とを取得し、重畳画像の表示制御を行い、重畳画像の表示領域内において、第1物体M1に対応した位置に第1画像C1を表示するとともに第2物体M2に対応した位置に第2画像C2を表示可能な表示制御手段(例えば、ステップS8やS12の処理を実行する制御部31や表示部20)と、を備える。
表示制御手段は、第1画像C1を車両1の前方道路Rに沿って視認される第1特別態様(AR態様)と、第1特別態様よりも運転者D側に立ち上がって視認される第1所定態様(起立態様)とで表示可能であり、第2画像C2を第2所定態様(起立態様)と、第2所定態様よりも前方道路R側に傾いて視認される第2特別態様(AR態様)とで表示可能である。
表示制御処理は、第1物体M1及び第2物体M2の双方が存在する場合、第1特別態様で表示していた第1画像C1を第1特別態様から第1所定態様へと変化させつつフェードアウトさせるとともに、第2画像C2を第2特別態様から第2所定態様へと変化させつつフェードインさせる画像遷移処理を実行する。
このようにしたから、車両1の前方にある複数の情報を報知する際に優先度が高いと想定される情報を良好に報知することができる。
The HUD device 10 (an example of a display device) described above displays a superimposed image that is visually recognized by the driver D (an example of a viewer) as a virtual image V that overlaps with the scenery in front of the vehicle 1.
The HUD device 10 includes object information acquisition means (for example, a control unit 31 that executes the process of step S1) that acquires information about an object existing around the vehicle 1 and indicates at least the position of the object, and the object Based on the information, the first object M1 and the second object M2 located closer to the vehicle 1 than the first object M1 are acquired, display control of the superimposed image is performed, and the first object is displayed in the display area of the superimposed image. Display control means capable of displaying the first image C1 at a position corresponding to M1 and displaying the second image C2 at a position corresponding to the second object M2 (for example, the control unit 31 for executing the processes of steps S8 and S12, Display unit 20).
The display control means includes a first special mode (AR mode) in which the first image C1 is visually recognized along the front road R of the vehicle 1, and a first image in which the first image C1 is visually recognized by rising from the first special mode. The second special mode (AR) can be displayed in a predetermined mode (standing mode), and the second image C2 is visually recognized by being tilted to the front road R side with respect to the second predetermined mode (standing mode). Display).
When both the first object M1 and the second object M2 exist, the display control process fades out while changing the first image C1 displayed in the first special mode from the first special mode to the first predetermined mode. In addition, an image transition process for fading in the second image C2 while changing from the second special mode to the second predetermined mode is executed.
Since it did in this way, when alerting | reporting the some information ahead of the vehicle 1, the information assumed that a priority is high can be alert | reported favorably.

なお、以上の説明では、表示制御処理のステップS2やS6において、HUD装置10の制御部31が第1物体M1や第2物体M2の存在を特定する例を示したがこれに限られない。制御部31は、HUD装置10の外部の任意の構成(例えば、周辺情報取得部40や前方情報取得部50)から、第1物体M1や第2物体M2の存在を特定したことを示す特定データを取得し、取得した特定データに基づき、ステップS2やS6の判別処理を実行してもよい。
また、制御部31は、HUD装置10の外部の任意の構成(例えば、周辺情報取得部40や前方情報取得部50)から、第2物体M2が自車1と第1物体M1との間に割り込んできたことを示す割込状態情報を取得可能であり、第1画像C1の表示中に割込状態情報を取得したことに応じて画像遷移処理を実行してもよい。なお、「制御部31が割込状態情報を取得する」とは、このようにHUD装置10の外部から取得するだけでなく、図3を参照して説明したように制御部31自身が割込状態を特定し、当該特定結果を示すデータを生成することも含む。
また、制御部31は、HUD装置10の外部の任意の構成(例えば、周辺情報取得部40や前方情報取得部50)から、第2物体M2が自車1と第1物体M1との間から外れることを示す移動状態情報を取得可能であり、第2画像C2の表示中に移動状態情報を取得したことに応じて、第2画像C2を第2所定態様から第2特別態様へと変化させつつフェードアウトさせるとともに、第1画像C1を第1所定態様から第1特別態様へと変化させつつフェードインさせる、ようにしてもよい。なお、「制御部31が移動状態情報を取得する」とは、このようにHUD装置10の外部から取得するだけでなく、図3を参照して説明したように制御部31自身が移動状態を特定し、当該特定結果を示すデータを生成することも含む。
つまり、第1物体M1や第2物体M2の特定や、第2物体M2の割込状態や移動状態の特定自体は、HUD装置10の外部の任意の構成(例えば、周辺情報取得部40や前方情報取得部50)によって行われてもよい。そして、これらの特定結果を示す特定データが、ステップS1で制御部31が取得する物体情報に含まれていてもよい。
In the above description, an example is shown in which the control unit 31 of the HUD device 10 specifies the presence of the first object M1 and the second object M2 in steps S2 and S6 of the display control process, but is not limited thereto. The control unit 31 specifies specific data indicating that the presence of the first object M1 and the second object M2 has been specified from any configuration outside the HUD device 10 (for example, the peripheral information acquisition unit 40 and the front information acquisition unit 50). And the determination process of step S2 or S6 may be executed based on the acquired specific data.
In addition, the control unit 31 determines that the second object M2 is between the host vehicle 1 and the first object M1 from any configuration outside the HUD device 10 (for example, the peripheral information acquisition unit 40 and the front information acquisition unit 50). Interrupt state information indicating that an interrupt has occurred can be acquired, and image transition processing may be executed in response to the acquisition of interrupt state information during display of the first image C1. Note that “the control unit 31 acquires the interrupt state information” is not only acquired from the outside of the HUD device 10 as described above, but also as described with reference to FIG. It also includes specifying the state and generating data indicating the identification result.
In addition, the control unit 31 determines whether the second object M2 is between the host vehicle 1 and the first object M1 from any configuration outside the HUD device 10 (for example, the peripheral information acquisition unit 40 and the front information acquisition unit 50). It is possible to acquire movement state information indicating that the image is detached, and change the second image C2 from the second predetermined mode to the second special mode in response to the acquisition of the movement state information during the display of the second image C2. While fading out, the first image C1 may be faded in while changing from the first predetermined mode to the first special mode. Note that “the control unit 31 acquires the movement state information” is not only acquired from the outside of the HUD device 10 as described above, but also the control unit 31 itself determines the movement state as described with reference to FIG. It includes specifying and generating data indicating the specified result.
That is, the identification of the first object M1 and the second object M2 and the identification of the interruption state and the movement state of the second object M2 itself can be performed by any configuration outside the HUD device 10 (for example, the peripheral information acquisition unit 40 or the front It may be performed by the information acquisition unit 50). And the specific data which shows these specific results may be contained in the object information which the control part 31 acquires by step S1.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。   In the above description, in order to facilitate understanding of the present invention, descriptions of known technical matters are omitted as appropriate.

100…車両用表示システム
10…HUD装置
20…表示部
30…制御装置
31…制御部(31a…CPU、31b…GPU)
32…ROM、33…RAM
40…周辺情報取得部
50…前方情報取得部
60…視線検出部
70…ECU
1…車両、2…ダッシュボード、3…フロントガラス
D…運転者、E…アイボックス、L…表示光
V…虚像
V1…車両情報を示す画像
M1…第1物体、M2…第2物体
C1…第1画像、C2…第2画像
R…前方道路
DESCRIPTION OF SYMBOLS 100 ... Display system for vehicles 10 ... HUD apparatus 20 ... Display part 30 ... Control apparatus 31 ... Control part (31a ... CPU, 31b ... GPU)
32 ... ROM, 33 ... RAM
40 ... Peripheral information acquisition unit 50 ... Forward information acquisition unit 60 ... Gaze detection unit 70 ... ECU
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Dashboard, 3 ... Windshield D ... Driver, E ... Eye box, L ... Display light V ... Virtual image V1 ... Image which shows vehicle information M1 ... 1st object, M2 ... 2nd object C1 ... 1st image, C2 ... 2nd image R ... Road ahead

Claims (5)

車両の前方風景と重なる虚像として視認者に視認される重畳画像を表示する表示装置であって、
前記車両の周辺に存在する物体に関する情報であって少なくとも前記物体の位置を示す物体情報を取得する物体情報取得手段と、
前記物体情報に基づいて第1物体の位置と、前記第1物体よりも前記車両から近い位置にある第2物体の位置とを取得し、前記重畳画像の表示制御を行い、前記重畳画像の表示領域内において、前記第1物体に対応した位置に第1画像を表示するとともに前記第2物体に対応した位置に第2画像を表示可能な表示制御手段と、を備え、
前記表示制御手段は、
前記第1画像を前記車両の前方道路に沿って視認される第1特別態様と、前記第1特別態様よりも前記視認者側に立ち上がって視認される第1所定態様とで表示可能であり、
前記第2画像を第2所定態様と、前記第2所定態様よりも前記前方道路側に傾いて視認される第2特別態様とで表示可能であり、
前記第1物体及び前記第2物体の双方が存在する場合、前記第1特別態様で表示していた前記第1画像を前記第1特別態様から前記第1所定態様へと変化させつつフェードアウトさせるとともに、前記第2画像を前記第2特別態様から前記第2所定態様へと変化させつつフェードインさせる画像遷移処理を実行する、
表示装置。
A display device that displays a superimposed image that is visually recognized by a viewer as a virtual image that overlaps a front landscape of a vehicle,
Object information acquisition means for acquiring object information indicating at least the position of the object, which is information relating to an object existing around the vehicle;
Based on the object information, the position of the first object and the position of the second object closer to the vehicle than the first object are acquired, display control of the superimposed image is performed, and display of the superimposed image is performed. Display control means capable of displaying a first image at a position corresponding to the first object and displaying a second image at a position corresponding to the second object in the region;
The display control means includes
The first image can be displayed in a first special mode visually recognized along the road ahead of the vehicle, and a first predetermined mode that stands up to the viewer side from the first special mode and is visually recognized.
The second image can be displayed in a second predetermined mode and a second special mode that is visually recognized by tilting toward the front road side than the second predetermined mode,
When both the first object and the second object exist, the first image displayed in the first special mode is faded out while changing from the first special mode to the first predetermined mode. Performing an image transition process for fading in the second image while changing the second image from the second special mode to the second predetermined mode;
Display device.
前記表示制御手段は、前記第2物体が前記車両と前記第1物体との間に割り込んできたことを示す割込状態情報を取得可能であり、前記第1画像の表示中に前記割込状態情報を取得したことに応じて前記画像遷移処理を実行する、
請求項1に記載の表示装置。
The display control means can acquire interrupt status information indicating that the second object has interrupted between the vehicle and the first object, and the interrupt status is displayed during the display of the first image. Executing the image transition process in response to the acquisition of information;
The display device according to claim 1.
前記表示制御手段は、前記第2物体が前記車両と前記第1物体との間から外れることを示す移動状態情報を取得可能であり、前記第2画像の表示中に前記移動状態情報を取得したことに応じて、前記第2画像を前記第2所定態様から前記第2特別態様へと変化させつつフェードアウトさせるとともに、前記第1画像を前記第1所定態様から前記第1特別態様へと変化させつつフェードインさせる、
請求項1又は2に記載の表示装置。
The display control means can acquire movement state information indicating that the second object is out of the space between the vehicle and the first object, and has acquired the movement state information during the display of the second image. Accordingly, the second image is faded out while changing from the second predetermined mode to the second special mode, and the first image is changed from the first predetermined mode to the first special mode. While fading in,
The display device according to claim 1.
前記表示制御手段は、視線検出手段から前記視認者の視線方向を示す視線情報を取得し、前記視線情報に基づき前記視認者が前記第2画像を視認したことを特定した場合、前記第2画像を当該特定される前よりも前記表示領域の端側の位置へと移動させる、
請求項1乃至3のいずれか1項に記載の表示装置。
When the display control unit acquires line-of-sight information indicating the line-of-sight direction of the viewer from the line-of-sight detection unit, and specifies that the viewer has viewed the second image based on the line-of-sight information, the second image Is moved to a position closer to the end of the display area than before being specified,
The display device according to claim 1.
前記第1特別態様及び前記第2特別態様は、遠近法を用いた態様である、
請求項1乃至4のいずれか1項に記載の表示装置。
The first special mode and the second special mode are modes using a perspective method.
The display device according to claim 1.
JP2018103739A 2018-05-30 2018-05-30 Display device Pending JP2019207632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018103739A JP2019207632A (en) 2018-05-30 2018-05-30 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103739A JP2019207632A (en) 2018-05-30 2018-05-30 Display device

Publications (1)

Publication Number Publication Date
JP2019207632A true JP2019207632A (en) 2019-12-05

Family

ID=68767695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103739A Pending JP2019207632A (en) 2018-05-30 2018-05-30 Display device

Country Status (1)

Country Link
JP (1) JP2019207632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043939A (en) * 2021-11-09 2022-02-15 东风汽车集团股份有限公司 Vehicle-mounted central control system using holographic projection technology and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114043939A (en) * 2021-11-09 2022-02-15 东风汽车集团股份有限公司 Vehicle-mounted central control system using holographic projection technology and control method
CN114043939B (en) * 2021-11-09 2022-12-09 东风汽车集团股份有限公司 Vehicle-mounted central control system using holographic projection technology and control method

Similar Documents

Publication Publication Date Title
US9818206B2 (en) Display device
WO2016067574A1 (en) Display control device and display control program
JP6836206B2 (en) Display control device and display control program
JP2015099469A (en) Vehicle information projection system
WO2020241003A1 (en) Display control device and display control program
JP2017215816A (en) Information display device, information display system, information display method, and program
US20230221569A1 (en) Virtual image display device and display system
JPWO2020045328A1 (en) Display device
JP2019202589A (en) Display device
JP2019172245A (en) Image control device, display device, movable body, image control method and program
JP2014234139A (en) On-vehicle display device and program
JP7310560B2 (en) Display control device and display control program
JP2019207632A (en) Display device
JP7435465B2 (en) display device
WO2021039762A1 (en) Display device
JP7318431B2 (en) Display control device and display control program
JP6979096B2 (en) Attention device and alert method
JP2019206262A (en) Display device
WO2020040276A1 (en) Display device
JP7338632B2 (en) Display device
JP2019207672A (en) Display device
JP2020019420A (en) Display device for vehicle
JP7379945B2 (en) display device
JP7379946B2 (en) display device
JP2019219895A (en) Display device