JP2019206262A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2019206262A
JP2019206262A JP2018102544A JP2018102544A JP2019206262A JP 2019206262 A JP2019206262 A JP 2019206262A JP 2018102544 A JP2018102544 A JP 2018102544A JP 2018102544 A JP2018102544 A JP 2018102544A JP 2019206262 A JP2019206262 A JP 2019206262A
Authority
JP
Japan
Prior art keywords
blind spot
display
image
vehicle
content image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018102544A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
誠 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2018102544A priority Critical patent/JP2019206262A/en
Publication of JP2019206262A publication Critical patent/JP2019206262A/en
Pending legal-status Critical Current

Links

Abstract

To provide a display device that can reduce a feeling of strangeness given to a person who visually recognizes in notification of existence of an object in a dead angle zone.SOLUTION: For instance, a display device constituted of a head-up display device displays a superimposed image that can be visually recognized as a virtual image superimposed with a foreground of a vehicle 1 by a driver. The display device comprises specifying means that specifies a dead-angle object B in a dead-angle zone to the driver and a front object F causing the dead-angle zone, and display control means that controls a display position and a display distance of a contents image C in a display area of the superimposed image on the basis of information on the object. The display control means, when the dead-angle objects B is specified, displays the contents image C indicating existence of the dead-angle object B and controls the display position so that the contents image C is visually recognized at a position of the dead-angle object B, and controls the display distance so that the contents image C is visually recognized at a side closer to the vehicle 1 than a tip Ff of the front object F.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置に関する。   The present invention relates to a display device.

従来の表示装置として、特許文献1には、車両の前方風景と重なる虚像として視認者(主に車両の運転者)に視認される画像を表示するものが開示されている。また、特許文献2には、立体画像を表示する表示装置が開示されている。   As a conventional display device, Patent Document 1 discloses a display device that displays an image that is visually recognized by a viewer (mainly a driver of a vehicle) as a virtual image that overlaps the front landscape of the vehicle. Patent Document 2 discloses a display device that displays a stereoscopic image.

特開2016−60445号公報Japanese Patent Laid-Open No. 2006-60445 特開2001−197524号公報JP 2001-197524 A

ところで、視認者(主に車両の運転者)にとって死角となる死角物体(例えば、死角に位置する歩行者や前方車両)の存在を当該視認者に報知することができれば安全性の観点から好ましい。死角物体の存在を報知するに当たっては、例えば、死角物体の存在を示す報知画像を、自車両から当該死角物体までの距離を踏まえた立体的な態様で表示するとともに、前方物体に重畳させて表示する手法が考えられる。しかしながら、当該手法では、視認者から見て、実物としての前方物体の遙か前方に当該報知画像が表示される場合が想定され、違和感を生じさせる虞がある。   By the way, it is preferable from the viewpoint of safety if it is possible to inform the viewer of the presence of a blind spot object (for example, a pedestrian or a forward vehicle located in the blind spot) that becomes a blind spot for the viewer (mainly the driver of the vehicle). In order to notify the presence of the blind spot object, for example, a notification image indicating the presence of the blind spot object is displayed in a three-dimensional manner based on the distance from the vehicle to the blind spot object, and superimposed on the forward object. A method to do this is conceivable. However, in this method, it is assumed that the notification image is displayed in front of the actual front object as viewed from the viewer, which may cause a sense of discomfort.

本発明は、上記実情に鑑みてなされたものであり、死角物体の存在を報知する際に視認者に与える違和感を低減することができる表示装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a display device that can reduce a sense of discomfort given to a viewer when notifying the presence of a blind spot object.

上記目的を達成するため、本発明に係る表示装置は、
車両の前方風景と重なる虚像として視認者に視認される重畳画像を表示する表示装置であって、
前記前方風景の中に存在する物体に関する情報であって少なくとも前記物体の位置を示す物体情報を取得する物体情報取得手段と、
前記物体情報に基づいて前記視認者にとって死角となる死角物体と当該死角要因となる前方物体とを特定する特定手段と、
前記重畳画像の表示制御を行うとともに、前記物体情報に基づいて前記重畳画像の表示領域内におけるコンテンツ画像の表示位置及び表示距離を制御する表示制御手段と、を備え、
前記表示制御手段は、前記死角物体が特定された場合、前記死角物体の存在を示す前記コンテンツ画像を表示し、前記コンテンツ画像が前記死角物体の位置に視認されるように前記表示位置を制御するとともに、前記コンテンツ画像が前記前方物体の先端よりも前記車両側に視認されるように前記表示距離を制御する。
In order to achieve the above object, a display device according to the present invention includes:
A display device that displays a superimposed image that is visually recognized by a viewer as a virtual image that overlaps a front landscape of a vehicle,
Object information acquisition means for acquiring object information indicating at least a position of the object, which is information related to an object existing in the front landscape;
Identifying means for identifying a blind spot object that becomes a blind spot for the viewer based on the object information and a forward object that causes the blind spot;
Display control means for performing display control of the superimposed image, and controlling a display position and a display distance of the content image in a display area of the superimposed image based on the object information,
When the blind spot object is specified, the display control unit displays the content image indicating the presence of the blind spot object, and controls the display position so that the content image is visually recognized at the position of the blind spot object. At the same time, the display distance is controlled so that the content image is visually recognized on the vehicle side from the front end of the front object.

本発明によれば、死角物体の存在を報知する際に視認者に与える違和感を低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the discomfort given to a viewer when alert | reporting presence of a blind spot object can be reduced.

本発明の一実施形態に係るヘッドアップディスプレイ(HUD)装置の車両への搭載態様を説明するための図である。It is a figure for demonstrating the mounting aspect to the vehicle of the head-up display (HUD) apparatus which concerns on one Embodiment of this invention. 車両用表示システムのブロック図である。It is a block diagram of the display system for vehicles. 表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of a display control process. 車両、前方物体、死角物体、及びその他の物体を説明するための模式図である。It is a schematic diagram for demonstrating a vehicle, a front object, a blind spot object, and another object. 死角物体の存在を示すコンテンツ画像の表示例を示す図である。It is a figure which shows the example of a display of the content image which shows presence of a blind spot object.

本発明の一実施形態に係る表示装置について図面を参照して説明する。   A display device according to an embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る表示装置は、図2に示す車両用表示システム100に含まれるHUD(Head-Up Display)装置10である。HUD装置10は、図1に示すように、車両1のダッシュボード2の内部に設けられ、車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的に運転者Dに報知する。なお、車両情報は、車両1自体の情報だけでなく、車両1の運行に関連した車両1の外部の情報も含む。   The display device according to the present embodiment is a HUD (Head-Up Display) device 10 included in the vehicle display system 100 shown in FIG. As shown in FIG. 1, the HUD device 10 is provided inside a dashboard 2 of the vehicle 1, and not only information related to the vehicle 1 (hereinafter referred to as vehicle information) but also information other than vehicle information is integrated. The driver D is notified. The vehicle information includes not only information on the vehicle 1 itself but also information on the outside of the vehicle 1 related to the operation of the vehicle 1.

車両用表示システム100は、車両1内において構成されるシステムであり、HUD装置10と、周辺情報取得部40と、前方情報取得部50と、視点検出部60と、ECU(Electronic Control Unit)70とを備える。   The vehicle display system 100 is a system configured in the vehicle 1, and includes a HUD device 10, a peripheral information acquisition unit 40, a front information acquisition unit 50, a viewpoint detection unit 60, and an ECU (Electronic Control Unit) 70. With.

HUD装置10は、図1に示すように、コンバイナ処理されたフロントガラス3に向けて表示光Lを射出する。フロントガラス3で反射した表示光Lは、運転者D側へと向かう。運転者Dは、視点をアイボックスE内におくことで、フロントガラス3の前方に、表示光Lが表す画像を虚像Vとして視認することができる。つまり、HUD装置10は、フロントガラス3の前方位置に虚像Vを表示する。これにより、運転者Dは、虚像Vを前方風景と重畳させて観察することができる。   As shown in FIG. 1, the HUD device 10 emits display light L toward the windshield 3 subjected to the combiner process. The display light L reflected by the windshield 3 goes to the driver D side. The driver D can visually recognize the image represented by the display light L as the virtual image V in front of the windshield 3 by placing the viewpoint in the eye box E. That is, the HUD device 10 displays the virtual image V at the front position of the windshield 3. Thereby, the driver D can observe the virtual image V superimposed on the front scenery.

HUD装置10は、図2に示す表示部20及び制御装置30と、図示しない反射部とを備える。   The HUD device 10 includes the display unit 20 and the control device 30 shown in FIG. 2 and a reflection unit (not shown).

表示部20は、制御装置30の制御により、虚像Vとして運転者Dに視認される重畳画像を表示する。表示部20は、例えば、TFT(Thin Film Transistor)型のLCD(Liquid Crystal Display)や、LCDを背後から照明するバックライト等を有する。バックライトは、例えばLED(Light Emitting Diode)から構成されている。表示部20は、制御装置30の制御の下で、バックライトに照明されたLCDが画像を表示することにより表示光Lを生成する。生成した表示光Lは、反射部で反射した後に、フロントガラス3に向けて射出される。反射部は、例えば、折り返しミラーと凹面鏡の二枚の鏡から構成される。折り返しミラーは、表示部20から射出された表示光Lを折り返して凹面鏡へと向かわせる。凹面鏡は、折り返しミラーからの表示光Lを拡大しつつ、フロントガラス3に向けて反射させる。これにより、運転者Dに視認される虚像Vは、表示部20に表示されている画像が拡大されたものとなる。なお、反射部を構成する鏡の枚数は設計に応じて任意に変更可能である。   The display unit 20 displays a superimposed image that is visually recognized by the driver D as a virtual image V under the control of the control device 30. The display unit 20 includes, for example, a TFT (Thin Film Transistor) type LCD (Liquid Crystal Display), a backlight that illuminates the LCD from behind, and the like. The backlight is composed of, for example, an LED (Light Emitting Diode). The display unit 20 generates the display light L when the LCD illuminated by the backlight displays an image under the control of the control device 30. The generated display light L is emitted toward the windshield 3 after being reflected by the reflecting portion. The reflection part is composed of, for example, two mirrors, a folding mirror and a concave mirror. The folding mirror folds the display light L emitted from the display unit 20 and directs it toward the concave mirror. The concave mirror reflects the light L toward the windshield 3 while expanding the display light L from the folding mirror. Thereby, the virtual image V visually recognized by the driver D is an enlarged image displayed on the display unit 20. Note that the number of mirrors constituting the reflecting portion can be arbitrarily changed according to the design.

なお、以下では、虚像Vとして運転者Dに視認される画像を表示部20が表示することを「重畳画像を表示する」とも言う。また、制御装置30が表示部20の表示制御を行うことを「重畳画像の表示制御を行う」とも言う。また、表示部20は、重畳画像を表示することができれば、LCDを用いたものに限られず、OLED(Organic Light Emitting Diodes)、DMD(Digital Micro mirror Device)、LCOS(Liquid Crystal On Silicon)などの表示デバイスを用いたものであってもよい。   In the following description, the display unit 20 displaying an image visually recognized by the driver D as the virtual image V is also referred to as “displaying a superimposed image”. In addition, the fact that the control device 30 performs display control of the display unit 20 is also referred to as “performs display control of a superimposed image”. In addition, the display unit 20 is not limited to the one using an LCD as long as it can display a superimposed image, such as OLED (Organic Light Emitting Diodes), DMD (Digital Micromirror Device), and LCOS (Liquid Crystal On Silicon). A display device may be used.

制御装置30は、HUD装置10の全体動作を制御するマイクロコンピュータからなり、制御部31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33とを備える。また、制御装置30は、図示しない構成として、駆動回路や、車両1内の各種システムと通信を行うための入出力回路を備える。   The control device 30 includes a microcomputer that controls the overall operation of the HUD device 10, and includes a control unit 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33. Moreover, the control apparatus 30 is provided with the input / output circuit for communicating with a drive circuit and the various systems in the vehicle 1 as a structure which is not shown in figure.

ROM32は、動作プログラムや各種の画像データを予め記憶する。RAM33は、各種の演算結果などを一時的に記憶する。制御部31は、ROM32に記憶された動作プログラムを実行するCPU(Central Processing Unit)31aと、CPUと協働して画像処理を実行するGPU(Graphics Processing Unit)31bとを備える。特に、ROM32には、後述する表示制御処理を実行するための動作プログラムが格納されている。なお、制御部31の一部は、ASIC(Application Specific Integrated Circuit)によって構成されていてもよい。また、制御装置30や制御部31の構成は、以下に説明する機能を充足する限りにおいては任意である。   The ROM 32 stores an operation program and various image data in advance. The RAM 33 temporarily stores various calculation results and the like. The control unit 31 includes a CPU (Central Processing Unit) 31a that executes an operation program stored in the ROM 32, and a GPU (Graphics Processing Unit) 31b that executes image processing in cooperation with the CPU. In particular, the ROM 32 stores an operation program for executing display control processing described later. A part of the control unit 31 may be configured by an ASIC (Application Specific Integrated Circuit). Moreover, the structure of the control apparatus 30 and the control part 31 is arbitrary as long as the function demonstrated below is satisfied.

制御部31は、表示部20を駆動制御する。例えば、制御部31は、CPU31aで表示部20のバックライトを駆動制御し、CPU31aと協働して動作するGPU31bで表示部20のLCDを駆動制御する。   The control unit 31 drives and controls the display unit 20. For example, the control unit 31 drives and controls the backlight of the display unit 20 with the CPU 31a, and drives and controls the LCD of the display unit 20 with the GPU 31b that operates in cooperation with the CPU 31a.

制御部31のCPU31aは、GPU31bと協働して、ROM32に記憶された各種の画像データに基づき、重畳画像の制御を行う。GPU31bは、CPU31aからの表示制御指令に基づき、表示部20の表示動作の制御内容を決定する。GPU31bは、表示部20に表示する1画面を構成するために必要な画像パーツデータをROM32から読み込み、RAM33へ転送する。また、GPU31bは、RAM33を使って、画像パーツデータやHUD装置10の外部から通信により受け取った各種の画像データを元に、1画面分の絵データを作成する。そして、GPU31bは、RAM33で1画面分の絵データを完成させたところで、画像の更新タイミングに合わせて、表示部20に転送する。これにより、表示部20に虚像Vとして運転者Dに視認される重畳画像が表示される。また、虚像Vとして視認される画像を構成する各画像には予めレイヤが割り当てられており、制御部31は、各画像の個別の表示制御が可能となっている。   The CPU 31a of the control unit 31 controls the superimposed image based on various image data stored in the ROM 32 in cooperation with the GPU 31b. The GPU 31b determines the control content of the display operation of the display unit 20 based on the display control command from the CPU 31a. The GPU 31 b reads image part data necessary for configuring one screen to be displayed on the display unit 20 from the ROM 32 and transfers it to the RAM 33. Also, the GPU 31b uses the RAM 33 to create picture data for one screen based on the image part data and various image data received from the outside of the HUD device 10 by communication. Then, when the GPU 31b completes the picture data for one screen in the RAM 33, the GPU 31b transfers the picture data to the display unit 20 in accordance with the update timing of the image. Thereby, the superimposed image visually recognized by the driver D as a virtual image V is displayed on the display unit 20. In addition, a layer is assigned in advance to each image constituting an image visually recognized as the virtual image V, and the control unit 31 can individually control display of each image.

また、制御部31は、図5に示すように、虚像Vの表示領域内におけるコンテンツ画像Cの表示位置と、コンテンツ画像Cの表示距離とを制御する。なお、図5で虚像Vが示している点線の枠は、虚像Vの表示領域を示し、コンテンツ画像Cは、当該表示領域内に虚像として視認される画像である。これは、虚像Vとして運転者Dに視認される重畳画像を表示する表示部20において、当該重畳画像の表示領域内にコンテンツ画像Cが表示されることと同義である。   Further, as shown in FIG. 5, the control unit 31 controls the display position of the content image C and the display distance of the content image C within the display area of the virtual image V. In addition, the dotted line frame which the virtual image V has shown in FIG. 5 shows the display area of the virtual image V, and the content image C is an image visually recognized as a virtual image in the said display area. This is synonymous with displaying the content image C in the display area of the superimposed image on the display unit 20 that displays the superimposed image visually recognized by the driver D as the virtual image V.

表示位置の制御とは、運転者Dから見て、虚像Vの表示領域内における任意の位置に画像が表示されるように制御部31が表示部20を制御することである。この実施形態では特に、制御部31は、後述のように特定される死角物体Bの位置に、図5に示すように、コンテンツ画像Cが重畳して視認されるように重畳画像を制御する。なお、図5に示す死角物体Bは、前方物体Fによる死角に位置する物体であり、実際には運転者Dからは見えない。コンテンツ画像Cは、このように実際には運転者Dからは見えない死角物体Bの存在を報知するための画像である。   The control of the display position means that the control unit 31 controls the display unit 20 so that an image is displayed at an arbitrary position in the display region of the virtual image V as viewed from the driver D. In this embodiment, in particular, the control unit 31 controls the superimposed image so that the content image C is superimposed and viewed at the position of the blind spot object B specified as described later, as shown in FIG. A blind spot object B shown in FIG. 5 is an object located at a blind spot by the forward object F, and is not actually visible to the driver D. The content image C is an image for notifying the existence of the blind spot object B that is actually not visible to the driver D in this way.

また、表示距離の制御とは、運転者Dから見て、コンテンツ画像Cが車両1からどのくらい前方に表示されるかの制御である。つまり、表示距離の制御とは、車両1の前方に所定距離向かった位置にコンテンツ画像Cが視認されるように制御部31が表示部20を制御することである。表示距離の制御については、制御部31が虚像Vの表示領域内における各種画像(ここでは、特にコンテンツ画像C)を、奥行きを持たせた態様で表示制御可能であることにより実現される。例えば、当該奥行きを持たせた態様で死角物体画像を表示するには、ROM32に予め3D画像データを格納しておき、物体情報等から算出可能な、死角物体Bの位置や自車1から死角物体Bまでの距離に基づいて、遠近法(例えば、一点透視図法)を用いてコンテンツ画像Cを描画制御する。また、表示部20の表示面(LCDの表示面や、DMDやLCOSを用いた場合にはスクリーン)を傾けて配置することにより、虚像Vが表示される仮想面(表示部20の表示面に対応する面)を車両1の上下方向に対して前方に傾けて設定することでコンテンツ画像Cに奥行きを持たせてもよい。この場合、運転者Dの視点から視認させたい像の前記仮想面への射影を考慮して、制御部31は、死角物体画像を奥行きを持たせた態様で描画制御すればよい。運転者Dの視点位置として、制御部31は、ROM32内に予め格納した想定される視点位置を用いてもよいし、視点検出部60からの視点情報を用いてもよい。
この実施形態では、後述するように、コンテンツ画像Cを表示位置としては死角物体Bの位置に視認されるように表示制御するが、表示距離としては死角物体Bの実際位置よりも自車1側に制御する。
The display distance control is a control of how far the content image C is displayed from the vehicle 1 when viewed from the driver D. That is, the control of the display distance is that the control unit 31 controls the display unit 20 so that the content image C is visually recognized at a position facing a predetermined distance in front of the vehicle 1. The control of the display distance is realized by the control unit 31 being able to control the display of various images (in particular, the content image C here) in the display area of the virtual image V in a manner having a depth. For example, in order to display the blind spot object image in a manner having the depth, 3D image data is stored in the ROM 32 in advance, and the position of the blind spot object B that can be calculated from the object information or the blind spot from the own vehicle 1 is displayed. Based on the distance to the object B, the content image C is controlled to be drawn using a perspective method (for example, a one-point perspective method). Further, by arranging the display surface of the display unit 20 (an LCD display surface or a screen in the case of using DMD or LCOS) with an inclination, a virtual surface on which the virtual image V is displayed (on the display surface of the display unit 20). The content image C may be given depth by setting the corresponding surface) to be tilted forward with respect to the vertical direction of the vehicle 1. In this case, in consideration of the projection of the image desired to be viewed from the viewpoint of the driver D onto the virtual plane, the control unit 31 may perform drawing control in a manner in which the blind spot object image has a depth. As the viewpoint position of the driver D, the control unit 31 may use an assumed viewpoint position stored in advance in the ROM 32, or may use the viewpoint information from the viewpoint detection unit 60.
In this embodiment, as will be described later, the display control is performed so that the content image C is viewed at the position of the blind spot object B as the display position, but the display distance is closer to the own vehicle 1 than the actual position of the blind spot object B. To control.

制御部31のCPU31aは、周辺情報取得部40、前方情報取得部50、視点検出部60、ECU70の各々と通信を行う。当該通信としては、例えば、CAN(Controller Area Network)、Ethernet、MOST(Media Oriented Systems Transport)、LVDS(Low Voltage Differential Signaling)などの通信方式が適用可能である。   The CPU 31a of the control unit 31 communicates with each of the peripheral information acquisition unit 40, the front information acquisition unit 50, the viewpoint detection unit 60, and the ECU 70. As the communication, for example, a communication method such as CAN (Controller Area Network), Ethernet, MOST (Media Oriented Systems Transport), or LVDS (Low Voltage Differential Signaling) is applicable.

周辺情報取得部40は、車両1の周辺(外部)の情報を取得するものであり、車両1とワイヤレスネットワークとの通信(V2N:Vehicle To cellular Network)、車両1と他車両との通信(V2V:Vehicle To Vehicle)、車両1と歩行者との通信(V2P:Vehicle To Pedestrian)、車両1と路側のインフラとの通信(V2I:Vehicle To roadside Infrastructure)を可能とする各種モジュールから構成される。つまり、周辺情報取得部40は、車両1と車両1の外部との間でV2X(Vehicle To Everything)による通信を可能とする。   The peripheral information acquisition unit 40 acquires information about the periphery (external) of the vehicle 1, and communicates between the vehicle 1 and a wireless network (V2N: Vehicle To cellular Network), and communicates between the vehicle 1 and another vehicle (V2V). : Vehicle To Vehicle), communication between the vehicle 1 and pedestrians (V2P: Vehicle To Pedestrian), and communication between the vehicle 1 and roadside infrastructure (V2I: Vehicle To roadside Infrastructure). That is, the peripheral information acquisition unit 40 enables communication by V2X (Vehicle To Everything) between the vehicle 1 and the outside of the vehicle 1.

例えば、(i)周辺情報取得部40は、WAN(Wide Area Network)に直接アクセスできる通信モジュール、WANにアクセス可能な外部装置(モバイルルータなど)や公衆無線LAN(Local Area Network)のアクセスポイント等と通信するための通信モジュールなどを備え、インターネット通信を行う。また、周辺情報取得部40は、人工衛星などから受信したGPS(Global Positioning System)信号に基づいて車両1の位置を算出するGPSコントローラを備える。これらの構成により、V2Nによる通信を可能とする。(ii)また、周辺情報取得部40は、所定の無線通信規格に準拠した無線通信モジュールを備え、V2VやV2Pによる通信を行う。(iii)また、周辺情報取得部40は、路側のインフラと無線通信する通信装置を有し、例えば、安全運転支援システム(DSSS:Driving Safety Support Systems)の基地局から、インフラストラクチャーとして設置された路側無線装置を介して、物体情報や交通情報を取得する。これによりV2Iによる通信が可能となる。   For example, (i) the peripheral information acquisition unit 40 includes a communication module that can directly access a WAN (Wide Area Network), an external device (such as a mobile router) that can access the WAN, an access point of a public wireless LAN (Local Area Network), and the like. A communication module for communication is provided, and Internet communication is performed. The peripheral information acquisition unit 40 includes a GPS controller that calculates the position of the vehicle 1 based on a GPS (Global Positioning System) signal received from an artificial satellite or the like. With these configurations, communication by V2N is enabled. (Ii) In addition, the peripheral information acquisition unit 40 includes a wireless communication module compliant with a predetermined wireless communication standard, and performs communication using V2V or V2P. (Iii) In addition, the peripheral information acquisition unit 40 has a communication device that wirelessly communicates with roadside infrastructure, and is installed as an infrastructure from a base station of a driving safety support system (DSSS), for example. Object information and traffic information are acquired via the roadside apparatus. As a result, communication by V2I becomes possible.

この実施形態では、周辺情報取得部40は、車両1(以下、自車1とも言う。)の外部に存在する車両、信号機、歩行者などの各種物体の位置、大きさ、属性などを示す物体情報をV2Iにより取得し、制御部31に供給する。なお、物体情報は、V2Iに限られず、V2Xのうち任意の通信により取得されてもよい。また、周辺情報取得部40は、V2Iにより車両1の周辺道路の位置や形状を含む交通情報を取得し、制御部31に供給する。また、周辺情報取得部40のGPSコントローラからの情報に基づき、制御部31は、自車1の位置を算出する。   In this embodiment, the peripheral information acquisition unit 40 is an object that indicates the position, size, attribute, and the like of various objects such as vehicles, traffic lights, and pedestrians that exist outside the vehicle 1 (hereinafter also referred to as the own vehicle 1). Information is acquired by V2I and supplied to the control unit 31. The object information is not limited to V2I, and may be acquired by any communication of V2X. In addition, the surrounding information acquisition unit 40 acquires traffic information including the position and shape of the surrounding road of the vehicle 1 by V2I and supplies the traffic information to the control unit 31. Further, based on information from the GPS controller of the peripheral information acquisition unit 40, the control unit 31 calculates the position of the host vehicle 1.

前方情報取得部50は、例えば、車両1の前方風景を撮像するステレオカメラや、自車1から自車1の前方に位置する物体までの距離を測定するLIDAR(Laser Imaging Detection And Ranging)などの測距センサや、車両1の前方に位置する物体を検出するソナー、超音波センサ、ミリ波レーダ等から構成される。   The forward information acquisition unit 50 is, for example, a stereo camera that captures a landscape in front of the vehicle 1 or a LIDAR (Laser Imaging Detection And Ranging) that measures the distance from the vehicle 1 to an object positioned in front of the vehicle 1. A distance measuring sensor, a sonar that detects an object located in front of the vehicle 1, an ultrasonic sensor, a millimeter wave radar, and the like are included.

この実施形態では、前方情報取得部50は、ステレオカメラにより撮像した前方風景画像を示す前方画像データや、測距センサが測定した物体までの距離を示すデータや、その他の検出データをCPU31aに送信する。   In this embodiment, the forward information acquisition unit 50 transmits forward image data indicating a forward landscape image captured by a stereo camera, data indicating a distance to an object measured by a distance measuring sensor, and other detection data to the CPU 31a. To do.

視点検出部60は、例えば、運転者Dの顔を撮像し、撮像データを生成する撮像手段(例えばステレオカメラ)や、撮像データの画像処理を行う画像処理部からなり、運転者Dの視点位置を検出する。例えば、視点検出部60は、パタンマッチング法などの公知の画像解析法により運転者Dの視点位置を検出し、検出した視点位置を示す視点位置情報をCPU31aに送信する。   The viewpoint detection unit 60 includes, for example, an imaging unit (for example, a stereo camera) that captures the face of the driver D and generates imaging data, and an image processing unit that performs image processing of the captured data. Is detected. For example, the viewpoint detection unit 60 detects the viewpoint position of the driver D by a known image analysis method such as a pattern matching method, and transmits viewpoint position information indicating the detected viewpoint position to the CPU 31a.

なお、視点検出部60は、視点位置を運転者Dの両目のいずれかに基づいて検出してもよいし、両目の重心として検出してもよい。また、視点検出部60は、検出した視点位置に基づいて運転者Dの視線方向を推定してもよい。また、視点検出部60は、運転者Dの顔の向きを公知の画像解析法により検出し、当該顔の向きを示すデータを制御部31に供給してもよい。また、視点検出部60は、運転者Dが頭部に装着したウェアラブルデバイスに搭載された撮像手段や、眼電位センサや、モーションセンサであってもよい。撮像手段による撮像データにより、前述と同様に視点位置や顔の向きを検出可能である。また、眼電位センサは、測定した眼電位に基づいて運転者Dの視点位置を検出する。また、モーションセンサは、例えば、加速度センサ、ジャイロセンサ及び地磁気センサのうち1つ又は複数の組み合わせからなり、運転者Dの顔の向きを検出する。なお、制御部31が、撮像手段や各種センサからの信号に基づき、運転者Dの視点位置などを検出する構成としてもよい。制御部31は、後述のように死角物体Bの存在を特定することができれば、運転者Dの視点位置、視線方向、顔の向きの各々を示す情報のいずれを用いてもよい。   Note that the viewpoint detection unit 60 may detect the viewpoint position based on one of the eyes of the driver D, or may detect the center of gravity of both eyes. Further, the viewpoint detection unit 60 may estimate the line-of-sight direction of the driver D based on the detected viewpoint position. Further, the viewpoint detection unit 60 may detect the direction of the face of the driver D by a known image analysis method and supply data indicating the direction of the face to the control unit 31. The viewpoint detection unit 60 may be an imaging unit, an electrooculogram sensor, or a motion sensor mounted on a wearable device worn by the driver D on the head. The viewpoint position and the face orientation can be detected from the imaging data obtained by the imaging means in the same manner as described above. The electrooculogram sensor detects the viewpoint position of the driver D based on the measured electrooculogram. Moreover, a motion sensor consists of 1 or a combination of an acceleration sensor, a gyro sensor, and a geomagnetic sensor, for example, and detects the direction of the driver | operator's D face. In addition, it is good also as a structure which the control part 31 detects the viewpoint position etc. of the driver | operator D based on the signal from an imaging means or various sensors. If the presence of the blind spot object B can be specified as will be described later, the control unit 31 may use any of information indicating each of the viewpoint position, the line-of-sight direction, and the face direction of the driver D.

ECU70は、車両1の各部を制御するものであり、例えば、車両1の現在の車速を示す車速情報をCPU31aへ送信する。なお、CPU31aは、車速センサから車速情報を取得してもよい。また、ECU70は、エンジン回転数などの計測量や、車両1自体の警告情報(燃料低下や、エンジン油圧異常など)や、その他の車両情報をCPU31aへ送信する。ECU70から取得した情報に基づいて、CPU31aは、GPU31bを介して、表示部20に車速、エンジン回転数、各種警告などを示す画像を表示させることが可能となっている。つまり、図5に示すように、コンテンツ画像Cの他に、虚像Vの表示領域内に車両情報を示す画像V1も表示可能となっている。   ECU70 controls each part of the vehicle 1, for example, transmits the vehicle speed information which shows the present vehicle speed of the vehicle 1 to CPU31a. Note that the CPU 31a may acquire vehicle speed information from a vehicle speed sensor. In addition, the ECU 70 transmits a measured amount such as the engine speed, warning information of the vehicle 1 itself (fuel reduction, engine oil pressure abnormality, etc.) and other vehicle information to the CPU 31a. Based on the information acquired from the ECU 70, the CPU 31a can display an image indicating the vehicle speed, the engine speed, various warnings, and the like on the display unit 20 via the GPU 31b. That is, as shown in FIG. 5, in addition to the content image C, an image V1 indicating vehicle information can be displayed in the display area of the virtual image V.

(表示制御処理)
続いて、自車1から見て前方物体Fのさらに前方に存在する死角物体Bの位置に、死角物体Bが存在することを示すコンテンツ画像Cを表示する表示制御処理について図3を参照して説明する。表示制御処理は、制御部31によって実行され、例えば、車両1のイグニッションがオンされた状態において継続して実行される。
(Display control processing)
Subsequently, a display control process for displaying a content image C indicating that the blind spot object B exists at the position of the blind spot object B existing further forward of the forward object F as viewed from the own vehicle 1 is described with reference to FIG. explain. The display control process is executed by the control unit 31 and is continuously executed in a state where the ignition of the vehicle 1 is turned on, for example.

表示制御処理を開始すると、まず、制御部31は、周辺情報取得部40から物体情報を取得する(ステップS1)。続いて、制御部31は、取得した物体情報に基づいて、運転者Dにとって死角となる死角物体Bがあるか否かを判別する(ステップS2)。   When the display control process is started, first, the control unit 31 acquires object information from the peripheral information acquisition unit 40 (step S1). Subsequently, the control unit 31 determines whether or not there is a blind spot object B that becomes a blind spot for the driver D based on the acquired object information (step S2).

ここで、図5では、自車1の前方を走行する車両(例えばトラックなど)が死角要因となる前方物体Fである例を示している。この例では、前方物体Fによって死角となる位置にある車両、歩行者などが死角物体Bであり、ステップS2では、このような死角物体Bがあるか否かを判別する。   Here, FIG. 5 shows an example in which a vehicle (for example, a truck or the like) traveling in front of the host vehicle 1 is a front object F that causes a blind spot. In this example, a vehicle, a pedestrian, or the like at a position that becomes a blind spot by the front object F is the blind spot object B. In step S2, it is determined whether or not there is such a blind spot object B.

ステップS2において、まず、制御部31は、前方情報取得部50から取得した前方画像データに基づき、例えばパタンマッチング法などの公知の画像解析法により前方物体Fを特定する。また、制御部31は、路側のインフラから周辺情報取得部40を介してV2Iで取得した物体情報に基づき、自車1の周辺物体の位置や大きさを特定する。また、制御部31は、視点検出部60から取得した視点情報に基づき、運転者Dの視点位置を特定する。そして、制御部31は、特定した周辺物体が運転者Dから見て前方物体Fと重畳する位置にあれば、当該周辺物体が死角物体Bであると特定、即ち、死角物体Bが存在すると判別する。   In step S <b> 2, first, the control unit 31 specifies the front object F by a known image analysis method such as a pattern matching method based on the front image data acquired from the front information acquisition unit 50. Further, the control unit 31 specifies the position and size of the peripheral object of the host vehicle 1 based on the object information acquired by the V2I from the roadside infrastructure via the peripheral information acquisition unit 40. Further, the control unit 31 specifies the viewpoint position of the driver D based on the viewpoint information acquired from the viewpoint detection unit 60. Then, if the identified peripheral object is at a position where it overlaps with the front object F as viewed from the driver D, the control unit 31 determines that the peripheral object is the blind spot object B, that is, determines that the blind spot object B exists. To do.

図4に、自車1、前方物体F及び死角物体Bなどの例を示す。この例では、前方物体Fの前方に、死角物体Bとしての第1死角物体B1及び第2死角物体B2が位置するとともに、自車1から見て前方物体Fによる死角には位置しない非死角物体NBが位置している。この例を用いれば、ステップS2の処理で制御部31は、自車1の周辺物体として、符号B1、B2、NBで表される物体をまず特定し、これらの物体のうち運転者Dから見て前方物体Fと重畳する位置にあるものを死角物体B(第1死角物体B1や第2死角物体B2)として特定する。   FIG. 4 shows an example of the vehicle 1, the front object F, the blind spot object B, and the like. In this example, the first blind spot object B1 and the second blind spot object B2 as the blind spot object B are located in front of the forward object F, and the non-dead spot object that is not located in the blind spot by the forward object F when viewed from the own vehicle 1. NB is located. Using this example, the control unit 31 first identifies the objects represented by the symbols B1, B2, and NB as peripheral objects of the host vehicle 1 in the process of step S2, and among these objects, the driver D sees them. Then, the object at the position overlapping the front object F is specified as the blind spot object B (the first blind spot object B1 or the second blind spot object B2).

なお、死角物体Bの存在の特定手法は、前記したものに限られない。例えば、周辺情報取得部40からの物体情報は、V2Iに限られず、V2Xのうち任意の通信(V2N、V2V、V2Pのうち少なくともいずれか)により取得してもよい。また、前方物体Fの特定は、前方画像データに基づくものに限られず、ソナー、超音波センサ、ミリ波レーダからの検出信号に基づくものであってもよい。また、前方物体Fの特定も、周辺情報取得部40からの物体情報に基づいて行ってもよい。また、運転者Dの視点位置は、視点検出部60からの情報に基づいて特定されなくともよく、予め想定される運転者Dの視点位置をROM32に格納しておき、制御部31は、当該視点位置を用いてもよい。また、死角物体Bは、人や車両などの移動物体に限られず、信号機や道路標識などであってもよい。信号機や道路標識は、周辺情報取得部40を介してV2Iで取得可能な交通情報に基づいて特定可能である。   Note that the method of specifying the presence of the blind spot object B is not limited to the above-described method. For example, the object information from the peripheral information acquisition unit 40 is not limited to V2I, and may be acquired by any communication (at least one of V2N, V2V, and V2P) in V2X. The identification of the front object F is not limited to the one based on the front image data, and may be based on a detection signal from a sonar, an ultrasonic sensor, or a millimeter wave radar. The identification of the front object F may also be performed based on the object information from the peripheral information acquisition unit 40. Further, the viewpoint position of the driver D may not be specified based on the information from the viewpoint detection unit 60, the viewpoint position of the driver D that is assumed in advance is stored in the ROM 32, and the control unit 31 A viewpoint position may be used. The blind spot object B is not limited to a moving object such as a person or a vehicle, and may be a traffic light, a road sign, or the like. The traffic lights and road signs can be specified based on traffic information that can be acquired by the V2I via the peripheral information acquisition unit 40.

ステップS2で死角物体ありと判別した場合(ステップS2;Yes)、制御部31は、自車1と前方物体Fとの相対速度と、各種距離を算出する(ステップS3)。相対速度を求める際には、例えば、制御部31は、周辺情報取得部40のGPSコントローラにより取得した自車1の位置情報とそのタイムスタンプに基づき自車1の速度を算出する。また、制御部31は、周辺情報取得部40から取得した物体情報に含まれる前方物体Fの位置情報とそのタイムスタンプに基づき前方物体Fの速度を算出する。そして、制御部31は、自車1の速度と前方物体Fの速度とから相対速度を算出する。なお、制御部31は、ECU70から自車1の速度を取得してもよい。また、制御部31は、測距センサが検出した距離を時間微分する等、前方情報取得部50からの情報に基づき相対速度を算出してもよい。
各種距離として、制御部31は、自車1から前方物体Fまでの距離Xと、自車1から死角物体B(ここでは、ステップS2で特定された死角物体Bが図4に示す第2死角物体B2であるものとする。)までの距離Yを算出する。また、制御部31は、距離Yから距離Xを減じることで、前方物体Fと死角物体Bとの距離(Y−X)も求める。例えば、制御部31は、自車1から前方物体Fまでの距離Xを前方情報取得部50の測距センサから取得する。また、制御部31は、自車1から死角物体Bまでの距離Yを、周辺情報取得部40からの物体情報と、前記の自車1の位置に基づき算出する。
If it is determined in step S2 that there is a blind spot object (step S2; Yes), the control unit 31 calculates the relative speed between the vehicle 1 and the front object F and various distances (step S3). When determining the relative speed, for example, the control unit 31 calculates the speed of the host vehicle 1 based on the position information of the host vehicle 1 acquired by the GPS controller of the surrounding information acquisition unit 40 and its time stamp. In addition, the control unit 31 calculates the speed of the front object F based on the position information of the front object F included in the object information acquired from the peripheral information acquisition unit 40 and its time stamp. Then, the control unit 31 calculates a relative speed from the speed of the host vehicle 1 and the speed of the front object F. Note that the control unit 31 may acquire the speed of the host vehicle 1 from the ECU 70. The control unit 31 may calculate the relative speed based on information from the front information acquisition unit 50, such as time differentiation of the distance detected by the distance measuring sensor.
As various distances, the control unit 31 determines that the distance X from the host vehicle 1 to the front object F and the blind spot object B from the host vehicle 1 (here, the blind spot object B identified in step S2 is the second blind spot shown in FIG. 4). The distance Y to the object B2 is calculated. The control unit 31 also obtains the distance (Y−X) between the front object F and the blind spot object B by subtracting the distance X from the distance Y. For example, the control unit 31 acquires the distance X from the vehicle 1 to the front object F from the distance measurement sensor of the front information acquisition unit 50. Further, the control unit 31 calculates the distance Y from the own vehicle 1 to the blind spot object B based on the object information from the surrounding information acquisition unit 40 and the position of the own vehicle 1.

続いて、制御部31は、具体的には、ステップS3で算出した相対速度が予めROM32に記憶した所定速度以上であるか否かを判別する(ステップS4)。相対速度が所定速度以上である場合(ステップS4;Yes)、自車1に対して前方物体Fが何らかの挙動を示し、自車1の運転に注意を要すると推定できるため、制御部31は、後述のようにコンテンツ画像Cを表示部20に表示させる(ステップS6)。
一方、相対速度が所定速度未満である場合(ステップS4;No)、制御部31は、自車1から前方物体Fまでの距離Xが予めROM32に記憶した所定値以上であるか否かを判別する(ステップS5)。距離Xが所定値未満である場合(ステップS5;No)、前方物体Fが自車1に近く、自車1の運転に注意を要すると推定できるため、制御部31は、後述のようにコンテンツ画像Cを表示部20に表示させる(ステップS6)。
Subsequently, the control unit 31 specifically determines whether or not the relative speed calculated in step S3 is equal to or higher than a predetermined speed stored in the ROM 32 in advance (step S4). When the relative speed is equal to or higher than the predetermined speed (step S4; Yes), it can be estimated that the forward object F exhibits some behavior with respect to the own vehicle 1 and that the driving of the own vehicle 1 requires attention. As will be described later, the content image C is displayed on the display unit 20 (step S6).
On the other hand, when the relative speed is less than the predetermined speed (step S4; No), the control unit 31 determines whether or not the distance X from the vehicle 1 to the front object F is equal to or greater than a predetermined value stored in the ROM 32 in advance. (Step S5). When the distance X is less than the predetermined value (step S5; No), it can be estimated that the forward object F is close to the host vehicle 1 and needs attention to the driving of the host vehicle 1, and therefore the control unit 31 performs content as described later. The image C is displayed on the display unit 20 (step S6).

なお、これらの閾値としての所定速度及び所定値の各々をROM32に複数用意しておき、制御部31は、自車1の速度、運転シーン、死角物体Bの種別(例えば、人、車両、その他の移動物体)等に応じて、適切な値を設定可能とすることが好ましい。例えば、(i)自車1が高速道路などの自動車専用道路を走行中のシーンでは、走行車両の速度が速いため距離Xの閾値としての所定値を他のシーンに比べて長く設定する、(ii)夜間や雨天時のシーンでは、外景が見えづらいため所定速度を他のシーンに比べて低く設定する、(iii)死角物体Bが車両や他の移動物体である場合には、死角物体Bが人であるときに比べて当該所定値を長く設定する、等である。   A plurality of predetermined speeds and predetermined values as threshold values are prepared in the ROM 32, and the control unit 31 determines the speed of the host vehicle 1, the driving scene, and the type of blind spot object B (for example, person, vehicle, etc. It is preferable that an appropriate value can be set according to the moving object). For example, (i) In a scene in which the vehicle 1 is traveling on an automobile-only road such as an expressway, a predetermined value as a threshold value of the distance X is set longer than in other scenes because the speed of the traveling vehicle is high. ii) In a scene at night or in the rain, it is difficult to see the outside scene, so the predetermined speed is set lower than in other scenes. (iii) When the blind spot object B is a vehicle or other moving object, The predetermined value is set to be longer than when the person is a person.

ステップS6で制御部31は、死角物体Bの存在を示すコンテンツ画像Cを、図5に示すように、表示位置としては死角物体Bの位置に視認されるように表示制御するが、図4に示すように、表示距離としては前方物体Fの先端Ffよりも自車1側に視認されるように表示制御する(ステップS6)。このようにすることで、運転者Dは、実際の死角物体Bの位置よりも自車1の近くにコンテンツ画像Cを視認するため、実物としての前方物体Fの遙か前方にコンテンツ画像Cが表示されることによる違和感を低減することができる。   In step S6, the control unit 31 performs display control so that the content image C indicating the presence of the blind spot object B is visually recognized at the position of the blind spot object B as shown in FIG. As shown, display control is performed so that the display distance is visually recognized closer to the vehicle 1 than the front end Ff of the front object F (step S6). By doing so, the driver D visually recognizes the content image C closer to the own vehicle 1 than the actual position of the blind spot object B, so that the content image C is far ahead of the front object F as a real object. Discomfort caused by the display can be reduced.

具体的には、ステップS6において、制御部31は、ステップS2で特定した死角物体Bの位置座標に基づきコンテンツ画像Cの表示位置を制御するとともに、ステップS3で算出した自車1から死角物体Bまでの距離Yを所定量減らした距離に基づきコンテンツ画像Cの表示距離を制御する。これにより、実際の死角物体Bの位置よりも自車1の近くにおいてコンテンツ画像Cを視認させることができる。なお、コンテンツ画像Cは、図5に示す図形やアイコンによるものに限られず、死角物体Bの存在を報知することができれば任意である。周辺情報取得部40を介して取得可能な物体情報が、死角物体Bの属性(例えば、車種、信号機の形状や点灯色、歩行者の身長など)も含んでいれば、当該属性も考慮した死角物体Bを示す画像をコンテンツ画像Cとして表示してもよい。例えば、死角物体Bが車である場合、コンテンツ画像Cは、車の絵を表した画像や、車種(自動四輪者か自動二輪車など)も認識させることが可能な画像であってもよい。制御部31は、自車1から死角物体までの距離や、物体情報が示す死角物体Bの位置や属性に応じてコンテンツ画像Cを生成するためのデータ(テーブル、数式、画像パーツなどを示すデータ)に基づいて、コンテンツ画像Cの表示制御を行えばよい。当該データは、予めROM32に格納しておけばよい。   Specifically, in step S6, the control unit 31 controls the display position of the content image C based on the position coordinates of the blind spot object B specified in step S2, and from the own vehicle 1 calculated in step S3, the blind spot object B. The display distance of the content image C is controlled on the basis of the distance obtained by reducing the distance Y up to a predetermined amount. Thereby, the content image C can be visually recognized nearer the own vehicle 1 than the actual position of the blind spot object B. The content image C is not limited to the graphic or icon shown in FIG. 5, and may be any as long as the presence of the blind spot object B can be notified. If the object information that can be acquired through the peripheral information acquisition unit 40 includes the attributes of the blind spot object B (for example, the vehicle type, the shape and lighting color of the traffic light, the height of the pedestrian, etc.) An image showing the object B may be displayed as the content image C. For example, when the blind spot object B is a car, the content image C may be an image representing a picture of a car or an image capable of recognizing a vehicle type (such as an auto four-wheeler or a motorcycle). The control unit 31 generates data (table, formula, image parts, etc.) for generating the content image C according to the distance from the vehicle 1 to the blind spot object, and the position and attribute of the blind spot object B indicated by the object information. ), The display control of the content image C may be performed. The data may be stored in the ROM 32 in advance.

なお、ステップS6において、制御部31は、コンテンツ画像Cが前方物体Fの後端Frよりも自車1側に視認されるように表示距離を制御することがより好ましい。こうすれば、前方物体Fにコンテンツ画像Cがめり込んで視認されることが防止され、表示されるコンテンツ画像Cの違和感をより低減することができる。   In step S <b> 6, it is more preferable that the control unit 31 controls the display distance so that the content image C is visually recognized closer to the vehicle 1 than the rear end Fr of the front object F. By doing so, it is possible to prevent the content image C from being sunk into the front object F and being visually recognized, and to reduce the sense of incongruity of the displayed content image C.

制御部31は、ステップS4でNo、ステップS5でYesと判別した場合、自車1の運転に関する注意要因が比較的少ないと推定できるため、コンテンツ画像Cを非表示に(虚像Vの表示領域内から消去)する(ステップS7)。こうすることで、必要以上にコンテンツ画像Cが表示されて運転者Dに煩わしさを与えることを防止することができる。   When it is determined that the control unit 31 is No in step S4 and Yes in step S5, it can be estimated that there are relatively few caution factors regarding the driving of the host vehicle 1, so the content image C is not displayed (in the display region of the virtual image V). (Step S7). By doing so, it is possible to prevent the content image C from being displayed more than necessary and causing trouble to the driver D.

なお、ステップS6において、制御部31は、前方物体Fと死角物体Bとの距離(第2死角物体B2の場合は、距離(Y−X)。)が短いほど、死角物体Bを示すコンテンツ画像Cの視認性を上げることが好ましい。こうすることで、死角物体Bの注意度を運転者Dに直感的に認識させることができる。ここで、前方物体Fと死角物体Bとの距離として、第1距離と、第1距離よりも長い第2距離を考えた場合、視認性を上げるとは、例えば、(i)第2距離の場合に比べて第1距離におけるコンテンツ画像Cの大きさを大きくする、(ii)第2距離の場合に比べて第1距離におけるコンテンツ画像Cの輝度や彩度を高くする等である。制御部31は、例えば、ROM32内に予め格納された、前方物体Fと死角物体Bとの距離と、コンテンツ画像Cの視認性に関連するデータ(大きさや表示輝度)とを対応付けたテーブルを参照して、前方物体Fと死角物体Bとの距離に応じてコンテンツ画像Cの視認性を変更すればよい。   In step S6, the control unit 31 displays the content image indicating the blind spot object B as the distance between the front object F and the blind spot object B (distance (YX in the case of the second blind spot object B2)) is shorter. It is preferable to increase the visibility of C. In this way, the driver D can intuitively recognize the attention level of the blind spot object B. Here, when the first distance and the second distance longer than the first distance are considered as the distance between the front object F and the blind spot object B, for example, (i) the second distance is The size of the content image C at the first distance is increased compared to the case, and (ii) the luminance and saturation of the content image C at the first distance are increased compared to the case of the second distance. For example, the control unit 31 stores a table in which the distance between the front object F and the blind spot object B and data related to the visibility of the content image C (size and display brightness) are stored in advance in the ROM 32. Referring to the visibility of the content image C may be changed according to the distance between the front object F and the blind spot object B.

また、ステップS2で死角物体Bを複数特定し、図4に示すように、複数の死角物体Bが第1死角物体B1(自車1からの距離Z)と第1死角物体B1よりも前方物体Fに近い第2死角物体B2(自車1からの距離Y(Y<Z))とを含む場合、制御部31は、ステップS6において、第1死角物体B1を示す第1コンテンツ画像C1と第2死角物体B2を示す第2コンテンツ画像C2とを表示部20に表示させるようにしてもよい。そして、この場合、制御部31は、第1コンテンツ画像C1よりも第2コンテンツ画像C2の視認性を上げることが好ましい。コンテンツ画像Cの視認性については前述と同様である。こうすることで、複数存在する死角物体Bの注意度を運転者Dに直感的に認識させることができる。   Further, a plurality of blind spot objects B are specified in step S2, and as shown in FIG. 4, the plurality of blind spot objects B are objects ahead of the first blind spot object B1 (distance Z from the host vehicle 1) and the first blind spot object B1. When the second blind spot object B2 (distance Y (Y <Z) from the own vehicle 1) close to F is included, the control unit 31 in step S6 includes the first content image C1 indicating the first blind spot object B1 and the first content image C1. You may make it display the 2nd content image C2 which shows 2 blind spot object B2 on the display part 20. FIG. In this case, the control unit 31 preferably increases the visibility of the second content image C2 rather than the first content image C1. The visibility of the content image C is the same as described above. In this way, the driver D can intuitively recognize the attention level of the plurality of blind spot objects B.

また、ステップS2で死角物体Bを複数特定し、図4に示すように、複数の死角物体Bが第1死角物体B1と第1死角物体B1よりも前方物体Fに近い第2死角物体B2とを含む場合、制御部31は、前方物体Fに最も近い第2死角物体B2を示す第2コンテンツ画像C2のみを表示部20に表示させるようにしてもよい。こうすれば、運転者Dに煩わしさを与えることを防止しつつ、最も注意を払う必要があると想定される死角物体Bの存在を報知することができる。
なお、死角物体Bが3つある場合は、当該3つの死角物体Bのうち、前方物体Fにより近い2つの各々の存在を示すコンテンツ画像Cを表示するなどしてもよい。つまり、制御部31は、少なくとも複数の死角物体Bのうち前方物体Fに最も近いものを示す前コンテンツ画像Cを表示部20に表示させるようにすればよい。
Further, a plurality of blind spot objects B are identified in step S2, and as shown in FIG. 4, the plurality of blind spot objects B are a first blind spot object B1 and a second blind spot object B2 closer to the front object F than the first blind spot object B1. , The control unit 31 may cause the display unit 20 to display only the second content image C2 indicating the second blind spot object B2 closest to the front object F. In this way, it is possible to notify the presence of the blind spot object B that is supposed to be most paying attention while preventing the driver D from being bothered.
In addition, when there are three blind spot objects B, a content image C indicating the presence of each of the three blind spot objects B that are closer to the front object F may be displayed. In other words, the control unit 31 may display the previous content image C indicating the closest one to the front object F among the plurality of blind spot objects B on the display unit 20.

制御部31は、ステップS6又はS7の実行後は、再びステップS1の処理から実行する。以上の表示制御処理は、例えばHUD装置10がオフされるまで、継続して実行される。   After executing step S6 or S7, the control unit 31 executes again from the process of step S1. The display control process described above is continuously executed until, for example, the HUD device 10 is turned off.

なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。   In addition, this invention is not limited by the above embodiment, a modified example, and drawing. Changes (including deletion of components) can be made as appropriate without departing from the scope of the present invention.

表示制御処理において、相対速度が所定速度以上(ステップS4;Yes)という条件(以下、第1条件と言う。)、又は、距離Xが所定値未満(ステップS5;No)という条件(以下、第2条件と言う。)を満たした場合に、自車1の運転に注意を要すると推定できるため、コンテンツ画像Cを表示する例を説明したが、これに限られない。表示制御処理において、第1条件と第2条件のいずれか一方のみを自車1の運転に注意を要する条件としてもよいし、第1条件と第2条件とを共に満たした場合にコンテンツ画像Cを表示するようにしてもよい。また、表示制御処理において、第1条件と第2条件とを共に設けず、単に死角物体が存在するか否かに応じて、コンテンツ画像Cの表示と非表示の制御を行うようにしてもよい。死角物体Bの存在を報知する際に運転者Dに与える違和感を低減することができれば、表示制御処理の一部変更、一部削除、処理手順の入れ替えは任意である。   In the display control process, the condition that the relative speed is equal to or higher than the predetermined speed (step S4; Yes) (hereinafter referred to as the first condition), or the condition that the distance X is less than the predetermined value (step S5; No) (hereinafter referred to as the first condition). 2), the content image C is displayed. However, the present invention is not limited to this. In the display control process, only one of the first condition and the second condition may be a condition that requires attention for driving the vehicle 1, or the content image C when both the first condition and the second condition are satisfied. May be displayed. In the display control process, both the first condition and the second condition may not be provided, and the display and non-display control of the content image C may be performed according to whether or not a blind spot object exists. . If the discomfort given to the driver D when notifying the presence of the blind spot object B can be reduced, the display control processing may be partially changed, partially deleted, and the processing procedure replaced.

また、図4に示す、自車1から前方物体Fまでの距離Xや、自車1から死角物体B(第2死角物体2)までの距離Yは、あくまで一例である。各種の距離は、各物体の前後方向(図4での左右方向に相当)における位置関係を把握することができ、死角物体Bの存在を報知する際に運転者Dに与える違和感を低減するという目的を達することができれば、任意である。例えば、各物体の代表位置を示す位置座標の差分により各種の距離を求めてもよいし、上記で(Y−X)として説明した前方物体Fと第2死角物体B2との距離を、前方物体Fの先端Ffから第2死角物体B2までの距離として算出するなどしてもよい。   Further, the distance X from the vehicle 1 to the front object F and the distance Y from the vehicle 1 to the blind spot object B (second blind spot object 2) shown in FIG. 4 are merely examples. Various distances can grasp the positional relationship of each object in the front-rear direction (corresponding to the left-right direction in FIG. 4), and reduce the uncomfortable feeling given to the driver D when reporting the presence of the blind spot object B. It is optional if the goal can be achieved. For example, various distances may be obtained from the difference in position coordinates indicating the representative position of each object, or the distance between the front object F and the second blind spot object B2 described above as (YX) is determined as the front object. It may be calculated as a distance from the front end Ff of F to the second blind spot object B2.

表示光Lの投射対象は、フロントガラス3に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。また、以上の表示制御処理を実行する表示装置としては、HUD装置10に限られない。表示装置は、車両1の運転者Dの頭部に装着されるヘッドマウントディスプレイ(HMD:Head Mounted Display)として構成されてもよい。そして、HMDが虚像として表示する画像において、コンテンツ画像Cの表示制御を、前述と同様な手法で実行してもよい。つまり、表示装置は、車両1に搭載されているものに限られず、車両1で使用されるものであればよい。   The projection target of the display light L is not limited to the windshield 3 but may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like. Further, the display device that executes the above display control processing is not limited to the HUD device 10. The display device may be configured as a head mounted display (HMD) that is mounted on the head of the driver D of the vehicle 1. Then, the display control of the content image C may be executed by the same method as described above in the image displayed as a virtual image by the HMD. That is, the display device is not limited to the one mounted on the vehicle 1 and may be any device used in the vehicle 1.

以上に説明したHUD装置10(表示装置の一例)は、車両1の前方風景と重なる虚像Vとして運転者D(視認者の一例)に視認される重畳画像を表示する。
HUD装置10は、前方風景の中に存在する物体に関する情報であって少なくとも物体の位置を示す物体情報を取得する物体情報取得手段(例えば、ステップS1の処理を実行する制御部31)と、物体情報に基づいて運転者Dにとって死角となる死角物体Bと当該死角要因となる前方物体Fとを特定する特定手段(例えば、ステップS2の処理を実行する制御部31)と、重畳画像の表示制御を行うとともに、物体情報に基づいて重畳画像の表示領域内におけるコンテンツ画像Cの表示位置及び表示距離を制御する表示制御手段(例えば、ステップS6の処理を実行する制御部31、制御部31に制御される表示部20)と、を備える。
表示制御手段は、死角物体Bが特定された場合、死角物体Bの存在を示すコンテンツ画像Cを表示し、コンテンツ画像Cが死角物体Bの位置に視認されるように表示位置を制御するとともに、コンテンツ画像Cが前方物体Fの先端Ffよりも車両1側に視認されるように表示距離を制御する。このようにしたから、前述の通り、死角物体Bの存在を報知する際に視認者に与える違和感を低減することができる。
The HUD device 10 (an example of a display device) described above displays a superimposed image that is visually recognized by the driver D (an example of a viewer) as a virtual image V that overlaps with the scenery in front of the vehicle 1.
The HUD device 10 includes object information acquisition means (for example, the control unit 31 that executes the process of step S1) that acquires information about an object existing in the forward landscape and that indicates object information indicating at least the position of the object, Identification means (for example, the control unit 31 that executes the process of step S2) for identifying the blind spot object B that is a blind spot for the driver D and the forward object F that is the cause of the blind spot based on the information, and display control of the superimposed image Display control means for controlling the display position and the display distance of the content image C in the display area of the superimposed image based on the object information (for example, control by the control unit 31 and the control unit 31 that execute the process of step S6) Display unit 20).
When the blind spot object B is specified, the display control means displays the content image C indicating the presence of the blind spot object B, and controls the display position so that the content image C is visually recognized at the position of the blind spot object B. The display distance is controlled so that the content image C is visually recognized closer to the vehicle 1 than the front end Ff of the front object F. Since it did in this way, the discomfort given to a viewer at the time of alert | reporting presence of the blind spot object B can be reduced as mentioned above.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。   In the above description, in order to facilitate understanding of the present invention, descriptions of known technical matters are omitted as appropriate.

100…車両用表示システム
10…HUD装置
20…表示部
30…制御装置
31…制御部(31a…CPU、31b…GPU)
32…ROM、33…RAM
40…周辺情報取得部
50…前方情報取得部
60…視点検出部
70…ECU
1…車両、2…ダッシュボード、3…フロントガラス
D…運転者、E…アイボックス、L…表示光
V…虚像
V1…車両情報を示す画像
C…コンテンツ画像(C1…第1コンテンツ画像、C2…第2コンテンツ画像)
F…前方物体(Ff…先端、Fr…後端)
B…死角物体(B1…第1死角物体、B2…第2死角物体)
NB…非死角物体
DESCRIPTION OF SYMBOLS 100 ... Display system for vehicles 10 ... HUD apparatus 20 ... Display part 30 ... Control apparatus 31 ... Control part (31a ... CPU, 31b ... GPU)
32 ... ROM, 33 ... RAM
40 ... Peripheral information acquisition unit 50 ... Forward information acquisition unit 60 ... Viewpoint detection unit 70 ... ECU
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Dashboard, 3 ... Windshield D ... Driver, E ... Eye box, L ... Display light V ... Virtual image V1 ... Image which shows vehicle information C ... Content image (C1 ... 1st content image, C2 ... second content image)
F: Front object (Ff ... front end, Fr ... rear end)
B ... blind spot object (B1 ... first blind spot object, B2 ... second blind spot object)
NB ... Non-blind object

Claims (6)

車両の前方風景と重なる虚像として視認者に視認される重畳画像を表示する表示装置であって、
前記前方風景の中に存在する物体に関する情報であって少なくとも前記物体の位置を示す物体情報を取得する物体情報取得手段と、
前記物体情報に基づいて前記視認者にとって死角となる死角物体と当該死角要因となる前方物体とを特定する特定手段と、
前記重畳画像の表示制御を行うとともに、前記物体情報に基づいて前記重畳画像の表示領域内におけるコンテンツ画像の表示位置及び表示距離を制御する表示制御手段と、を備え、
前記表示制御手段は、前記死角物体が特定された場合、前記死角物体の存在を示す前記コンテンツ画像を表示し、前記コンテンツ画像が前記死角物体の位置に視認されるように前記表示位置を制御するとともに、前記コンテンツ画像が前記前方物体の先端よりも前記車両側に視認されるように前記表示距離を制御する、
表示装置。
A display device that displays a superimposed image that is visually recognized by a viewer as a virtual image that overlaps a front landscape of a vehicle,
Object information acquisition means for acquiring object information indicating at least a position of the object, which is information related to an object existing in the front landscape;
Identifying means for identifying a blind spot object that becomes a blind spot for the viewer based on the object information and a forward object that causes the blind spot;
Display control means for performing display control of the superimposed image, and controlling a display position and a display distance of the content image in a display area of the superimposed image based on the object information,
When the blind spot object is specified, the display control unit displays the content image indicating the presence of the blind spot object, and controls the display position so that the content image is visually recognized at the position of the blind spot object. And controlling the display distance so that the content image is visually recognized on the vehicle side from the front end of the front object.
Display device.
前記表示制御手段は、前記車両と前記前方物体との相対速度が所定速度未満である場合、又は、前記車両と前記前方物体との間隔が所定値以上である場合は、前記死角物体を示す前記コンテンツ画像を非表示とする、
請求項1に記載の表示装置。
The display control means indicates the blind spot object when a relative speed between the vehicle and the front object is less than a predetermined speed, or when a distance between the vehicle and the front object is a predetermined value or more. Hide content images,
The display device according to claim 1.
前記表示制御手段は、前記前方物体と前記死角物体との距離が短いほど、前記死角物体を示す前記コンテンツ画像の視認性を上げる、
請求項1又は2に記載の表示装置。
The display control means increases the visibility of the content image indicating the blind spot object as the distance between the front object and the blind spot object is short.
The display device according to claim 1.
前記表示制御手段は、特定された前記死角物体が複数存在し、複数の前記死角物体が第1死角物体と前記第1死角物体よりも前記前方物体に近い第2死角物体とを含む場合、前記コンテンツ画像として前記第1死角物体を示す第1コンテンツ画像と前記第2死角物体を示す第2コンテンツ画像とを表示し、
前記第1コンテンツ画像よりも前記第2コンテンツ画像の視認性を上げる、
請求項1乃至3のいずれか1項に記載の表示装置。
The display control means, when there are a plurality of identified blind spot objects, the plurality of blind spot objects include a first blind spot object and a second blind spot object closer to the front object than the first blind spot object, Displaying a first content image showing the first blind spot object and a second content image showing the second blind spot object as content images;
Increasing the visibility of the second content image over the first content image;
The display device according to claim 1.
前記表示制御手段は、特定された前記死角物体が複数存在する場合は、少なくとも複数の前記死角物体のうち前記前方物体に最も近いものを示す前記コンテンツ画像を表示する、
請求項1乃至3のいずれか1項に記載の表示装置。
The display control means, when there are a plurality of identified blind spot objects, displays the content image showing at least the dead spot object closest to the front object,
The display device according to claim 1.
前記表示制御手段は、前記死角物体が特定された場合、前記コンテンツ画像が前記前方物体の後端よりも前記車両側に視認されるように前記表示距離を制御する、
請求項1乃至5のいずれか1項に記載の表示装置。
When the blind spot object is specified, the display control unit controls the display distance so that the content image is visually recognized on the vehicle side from the rear end of the front object.
The display device according to claim 1.
JP2018102544A 2018-05-29 2018-05-29 Display device Pending JP2019206262A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018102544A JP2019206262A (en) 2018-05-29 2018-05-29 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018102544A JP2019206262A (en) 2018-05-29 2018-05-29 Display device

Publications (1)

Publication Number Publication Date
JP2019206262A true JP2019206262A (en) 2019-12-05

Family

ID=68767327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018102544A Pending JP2019206262A (en) 2018-05-29 2018-05-29 Display device

Country Status (1)

Country Link
JP (1) JP2019206262A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172333A1 (en) * 2020-02-28 2021-09-02 日本精機株式会社 Vehicle display device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61134437U (en) * 1985-02-13 1986-08-21
JPH04349599A (en) * 1991-05-28 1992-12-04 Nissan Motor Co Ltd Obstacle display
JP2008149786A (en) * 2006-12-14 2008-07-03 Mazda Motor Corp Vehicle driving assistance device and vehicle driving assistance system
US20160257199A1 (en) * 2015-03-05 2016-09-08 Honda Motor Co., Ltd. Vehicle-to-vehicle communication system providing a spatiotemporal look ahead and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61134437U (en) * 1985-02-13 1986-08-21
JPH04349599A (en) * 1991-05-28 1992-12-04 Nissan Motor Co Ltd Obstacle display
JP2008149786A (en) * 2006-12-14 2008-07-03 Mazda Motor Corp Vehicle driving assistance device and vehicle driving assistance system
US20160257199A1 (en) * 2015-03-05 2016-09-08 Honda Motor Co., Ltd. Vehicle-to-vehicle communication system providing a spatiotemporal look ahead and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021172333A1 (en) * 2020-02-28 2021-09-02 日本精機株式会社 Vehicle display device
US11816862B2 (en) 2020-02-28 2023-11-14 Nippon Seiki Co., Ltd. Vehicle display device

Similar Documents

Publication Publication Date Title
US9818206B2 (en) Display device
US8536995B2 (en) Information display apparatus and information display method
WO2011108091A1 (en) In-vehicle display device and display method
US11639138B2 (en) Vehicle display system and vehicle
JP7309724B2 (en) Vehicle display system and vehicle
JPWO2020110580A1 (en) Head-up display, vehicle display system, and vehicle display method
WO2019004244A1 (en) Display system, information presentation system, method for controlling display system, program, and mobile body
JP2013174667A (en) Display device for vehicle
JP2019202589A (en) Display device
EP3835128A1 (en) Vehicle display system and vehicle
JP2014234139A (en) On-vehicle display device and program
JP2019206262A (en) Display device
JP7435465B2 (en) display device
WO2021039762A1 (en) Display device
WO2020040276A1 (en) Display device
JP2019207632A (en) Display device
JP7338632B2 (en) Display device
JP2021037916A (en) Display control device and display control program
JP7434894B2 (en) Vehicle display device
WO2023145851A1 (en) Display device
JP2019207672A (en) Display device
JP2019202641A (en) Display device
JP2020047153A (en) Display device
JP2019219895A (en) Display device
JP2022113292A (en) Display control device, head-up display device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220816