WO2016051586A1 - Display control device - Google Patents

Display control device Download PDF

Info

Publication number
WO2016051586A1
WO2016051586A1 PCT/JP2014/076541 JP2014076541W WO2016051586A1 WO 2016051586 A1 WO2016051586 A1 WO 2016051586A1 JP 2014076541 W JP2014076541 W JP 2014076541W WO 2016051586 A1 WO2016051586 A1 WO 2016051586A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display
driver
vehicle
estimation unit
Prior art date
Application number
PCT/JP2014/076541
Other languages
French (fr)
Japanese (ja)
Inventor
奈津季 織田
敬 平野
太郎 熊谷
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2016551447A priority Critical patent/JP6184607B2/en
Priority to PCT/JP2014/076541 priority patent/WO2016051586A1/en
Publication of WO2016051586A1 publication Critical patent/WO2016051586A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)

Abstract

In the present invention, a HUD (14) displays virtual images of information regarding display subjects on a reference layer (L1) that is fixed in position in the depth direction, which is the direction extending from the driver (15) to the area in front, and a proximal additional layer (L2) and distal additional layer (L3) disposed at different positions in the depth direction. Vehicle-related vehicle information among the information regarding display subjects is displayed on the reference layer (L1) position. Additional information other than vehicle information among the information regarding display subjects is displayed on the proximal additional layer (L2) or distal additional layer (L3) depending on the focal position of the driver (15) that is estimated according to the driving situation.

Description

表示制御装置Display control device
 この発明は、車両に搭載されたヘッドアップディスプレイ型の表示装置を制御する表示制御装置に関するものである。 The present invention relates to a display control device for controlling a head-up display type display device mounted on a vehicle.
 運転者が前方の道路から視線を外すことなく必要な情報を確認できるヘッドアップディスプレイ型の表示装置において、情報を表示する位置を、運転者から見て車両前方の奥行き方向へ変える方式が提案されている。 In a head-up display type display device that allows a driver to check necessary information without taking his gaze off the road ahead, a method has been proposed in which the information display position is changed in the depth direction ahead of the vehicle as viewed from the driver. ing.
 例えば、特許文献1に係る発明では、情報を表示する奥行き方向の位置を車速に応じて変化させる。運転者は、車速が遅いときには近くを注視し、車速が速いときには遠くを注視するため、車速が速くなるに従って遠くなる注視距離にあわせて情報の表示位置を奥行き方向の奥側へ変化させることにより、運転者が奥行き方向に視線を移動させる量(輻輳変動)を低減する効果が示されている。 For example, in the invention according to Patent Document 1, the position in the depth direction where information is displayed is changed according to the vehicle speed. The driver looks closely when the vehicle speed is slow and looks far away when the vehicle speed is fast. The effect of reducing the amount (congestion fluctuation) by which the driver moves his / her line of sight in the depth direction is shown.
 また、特許文献2に係る発明では、カメラ画像を基に算出した運転者の焦点位置に応じて、情報を表示する奥行き方向の位置を変化させる。焦点位置は、運転者がある位置を注視してそこに目の焦点をあわせている場合、その焦点がある奥行き方向の位置である。焦点位置付近に情報を表示することにより、運転者の輻輳変動を低減し、目の疲れを抑制する効果が示されている。 In the invention according to Patent Document 2, the position in the depth direction where information is displayed is changed according to the focal position of the driver calculated based on the camera image. The focus position is a position in the depth direction where the focus is in the case where the driver focuses on a position and focuses his eyes on the position. By displaying information in the vicinity of the focal position, the effect of reducing the driver's congestion fluctuation and suppressing eye fatigue is shown.
特開平11-119147号公報JP 11-119147 A 特開2005-301144号公報JP 2005-301144 A
 従来のヘッドアップディスプレイは、情報の表示位置を奥行き方向に可変とする構成ではあるが、単一の位置にすべての種類の情報を表示するものであった。ここで表示すべき情報には、車両情報などのように運転者が容易に認識できるべき情報、および案内矢印などのように運転者の焦点位置に合わせて表示することにより輻輳の変動を抑制するべき付加情報などがある。しかしながら、単一の位置にすべての種類の情報を表示するものにおいては、運転者が容易に認識可能とすることと輻輳の変動を抑制することを両立することはできなかった。 The conventional head-up display is configured to change the information display position in the depth direction, but displays all types of information at a single position. Information to be displayed here is information that can be easily recognized by the driver, such as vehicle information, and is displayed in accordance with the focus position of the driver, such as a guide arrow, to suppress fluctuations in congestion. There is additional information that should be. However, in the case where all types of information are displayed at a single position, it has not been possible to make it easy for the driver to recognize and to suppress fluctuations in congestion.
 この発明は、上記のような課題を解決するためになされたもので、情報の種類に拘らず運転者が容易に認識可能とすることと輻輳の変動を抑制することを両立することができるヘッドアップディスプレイの表示制御装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, and is a head that can make a driver easily recognizable regardless of the type of information and can suppress fluctuations in congestion. An object of the present invention is to provide a display control device for an up display.
 この発明に係る表示制御装置は、車両の運転状況に基づいて運転者の焦点位置を推定する運転状況推定部と、表示対象情報のうちの車両に関する車両情報を運転者から前方へ向かう奥行き方向の位置が予め定められた基準位置に表示させるとともに、表示対象情報のうちの車両情報以外の付加情報を奥行き方向の位置が基準位置よりも奥行き方向の奥側であってかつその位置を変更可能な付加位置に表示させ、当該付加位置を運転状況推定部により推定された運転者の焦点位置に応じて変更する表示位置判定部とを備えるものである。 The display control device according to the present invention includes a driving situation estimation unit that estimates a driver's focal position based on a driving situation of the vehicle, and vehicle information related to the vehicle in the display target information in a depth direction from the driver forward. The position is displayed at a predetermined reference position, and the additional information other than the vehicle information in the display target information is located on the far side in the depth direction with respect to the reference position, and the position can be changed. And a display position determination unit that displays the additional position according to the driver's focal position estimated by the driving state estimation unit.
 この発明によれば、車両情報と付加情報を異なる位置に分けて表示し、かつ付加情報の表示位置を推定された運転者の焦点位置に応じて変更するようにしたので、情報の種類に拘らず運転者が容易に認識可能とすることと輻輳の変動を抑制することを両立することができる。即ち、基準位置に車両情報を表示するようにしたので、運転者が容易に認識可能とすることができる。さらに付加情報を表示する付加位置を推定された運転者の焦点位置に応じて変更するようにしたので、運転者の奥行き方向の視線移動量を低減し輻輳の変動を抑制することができる。 According to the present invention, the vehicle information and the additional information are displayed separately at different positions, and the display position of the additional information is changed according to the estimated focus position of the driver. Therefore, it is possible to make it possible for the driver to easily recognize and to suppress fluctuations in congestion. That is, since the vehicle information is displayed at the reference position, the driver can easily recognize it. Furthermore, since the additional position for displaying the additional information is changed according to the estimated focus position of the driver, it is possible to reduce the amount of movement of the line of sight in the depth direction of the driver and suppress the fluctuation of the congestion.
この発明の実施の形態1に係る表示制御装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display control apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係る表示制御装置が制御するヘッドアップディスプレイ型の表示装置の模式図である。3 is a schematic diagram of a head-up display type display device controlled by the display control device according to Embodiment 1. FIG. 表示対象情報が立体的に表示される原理を説明する図である。It is a figure explaining the principle by which display object information is displayed in three dimensions. 表示対象情報の種類を説明する図である。It is a figure explaining the kind of display target information. 運転者の焦点位置と車速の関係を示すグラフである。It is a graph which shows the relationship between a driver | operator's focus position and vehicle speed. 実施の形態1の運転状況推定部による動作を示すフローチャートである。3 is a flowchart illustrating an operation by an operation state estimation unit according to the first embodiment. 実施の形態1の表示位置判定部による動作を示すフローチャートである。4 is a flowchart illustrating an operation performed by a display position determination unit according to the first embodiment. この発明の実施の形態2に係る表示制御装置の運転状況推定部による動作を示すフローチャートである。It is a flowchart which shows the operation | movement by the driving condition estimation part of the display control apparatus which concerns on Embodiment 2 of this invention. 実施の形態2の基準レイヤL1と付加レイヤL21を説明する模式図である。6 is a schematic diagram for explaining a reference layer L1 and an additional layer L21 according to Embodiment 2. FIG. この発明の実施の形態3に係る表示制御装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display control apparatus which concerns on Embodiment 3 of this invention. 実施の形態3の基準レイヤL1、近距離付加レイヤL2、遠距離付加レイヤL3、および案内地点用付加レイヤL31を説明する模式図である。It is a schematic diagram explaining the reference | standard layer L1, the short distance addition layer L2, the long distance addition layer L3, and the guidance layer addition layer L31 of Embodiment 3. 実施の形態3の表示位置判定部による動作を示すフローチャートである。10 is a flowchart illustrating an operation performed by a display position determination unit according to the third embodiment.
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る表示制御装置1の構成例を示すブロック図である。この表示制御装置1は車両に搭載され、同じく車両に搭載された車速センサ2、GPSセンサ3、運転モード取得部4、対象物検出センサ5、ナビゲーション装置6、および3D液晶ディスプレイ11に接続されている。
Hereinafter, in order to explain the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration example of a display control apparatus 1 according to Embodiment 1 of the present invention. This display control device 1 is mounted on a vehicle and connected to a vehicle speed sensor 2, a GPS sensor 3, an operation mode acquisition unit 4, an object detection sensor 5, a navigation device 6, and a 3D liquid crystal display 11 that are also mounted on the vehicle. Yes.
 図2は、実施の形態1に係る表示制御装置1が制御するヘッドアップディスプレイ型の表示装置(以下、HUD14と呼ぶ)の模式図である。
 3D液晶ディスプレイ11は、視差バリア方式によって裸眼のまま立体視可能な映像を表示する液晶ディスプレイであり、表示制御装置1から受信した表示用の映像(表示対象情報の右眼用画像と左眼用画像)を表示する。3D液晶ディスプレイ11が表示した表示対象情報は、フレネルレンズ12を通してハーフミラー13で反射し、運転者15に視認される。ハーフミラー13は、車両のフロントガラスで構成しても良い。またはフロントガラスと運転者15との間に設けられた平板状部材であるコンバイナで構成しても良い。この際、運転者15から見て奥行き方向の位置が固定された基準レイヤL1、この基準レイヤL1よりも奥行き方向の奥側の位置に設定された近距離付加レイヤL2、更に奥側に設定された遠距離付加レイヤL3のうちの少なくとも1つのレイヤ位置に、表示対象情報の虚像が浮かび上がって見える。基準レイヤL1の位置は、光学部品の配置構成によりフレネルレンズ12の焦点付近に予め設定される。また後述するが、基準レイヤL1の位置に表示する表示対象情報の右眼用画像と左眼用画像には、視差がない。そのため、基準レイヤL1の位置に浮かび上がって見える虚像は、ぼやけず、運転者15が容易に認識可能とすることができる。
FIG. 2 is a schematic diagram of a head-up display type display device (hereinafter referred to as HUD 14) controlled by the display control device 1 according to the first embodiment.
The 3D liquid crystal display 11 is a liquid crystal display that displays an image that can be stereoscopically viewed with the naked eye by a parallax barrier method, and is a display image received from the display control device 1 (right eye image and left eye image of display target information). Image). The display target information displayed on the 3D liquid crystal display 11 is reflected by the half mirror 13 through the Fresnel lens 12 and visually recognized by the driver 15. The half mirror 13 may be composed of a vehicle windshield. Or you may comprise with the combiner which is a flat member provided between the windshield and the driver | operator 15. FIG. At this time, the reference layer L1 in which the position in the depth direction as viewed from the driver 15 is fixed, the short-distance addition layer L2 set in the back side in the depth direction with respect to the reference layer L1, and further set in the back side. In addition, a virtual image of the display target information appears to appear in at least one layer position of the long-distance addition layer L3. The position of the reference layer L1 is preset in the vicinity of the focal point of the Fresnel lens 12 depending on the arrangement configuration of the optical components. As will be described later, the right-eye image and the left-eye image of the display target information displayed at the position of the reference layer L1 have no parallax. Therefore, the virtual image that appears to emerge at the position of the reference layer L1 is not blurred and can be easily recognized by the driver 15.
 なお、説明中ではレイヤと呼ぶが、物体が存在しているわけではなく、表示対象情報が浮かび上がって見える位置を比喩的にレイヤと呼ぶにすぎない。基準レイヤL1の位置が「基準位置」であり、近距離付加レイヤL2および遠距離付加レイヤL3の位置が「付加位置」である。 In the description, it is referred to as a layer, but an object does not exist, and a position where display target information appears is merely called a layer figuratively. The position of the reference layer L1 is the “reference position”, and the positions of the short-distance addition layer L2 and the long-distance addition layer L3 are “additional positions”.
 図3は、表示対象情報が立体的に表示される原理を説明する図である。
 表示制御装置1は右眼用画像IRと左眼用画像ILを3D液晶ディスプレイ11に表示させ、それをハーフミラー13に反射させることで、運転者15に立体的に映像を視認させる。3D液晶ディスプレイ11に表示する右眼用画像IRと左眼用画像ILの間隔を変化させて視差を変化させることにより、虚像Vの奥行き方向の表示位置が変わる。
FIG. 3 is a diagram for explaining the principle of displaying the display target information in a three-dimensional manner.
The display control device 1 displays the image for the right eye IR and the image for the left eye IL on the 3D liquid crystal display 11 and reflects them on the half mirror 13, thereby allowing the driver 15 to visually recognize the image three-dimensionally. The display position of the virtual image V in the depth direction is changed by changing the parallax by changing the interval between the right-eye image IR and the left-eye image IL displayed on the 3D liquid crystal display 11.
 例えば、図3(a)に示すように、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間に少量の視差が存在すると(つまり、右眼用画像IRと左眼用画像ILとが若干ずれて表示されていると)、表示対象情報の虚像Vは近距離付加レイヤL2の位置に浮かんで、かつ立体的(即ち三次元的)に見える。また、図3(b)に示すように、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間に大きな視差が存在すると(つまり、右眼用画像IRと左眼用画像ILとが大きくずれて表示されていると)、虚像Vは遠距離付加レイヤL3の位置に浮かんで、かつ立体的に見える。
 一方、図3(c)に示すように、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間に視差がない場合(つまり、右眼用画像IRと左眼用画像ILとが重なって表示されている場合)、基準レイヤL1に平面的(即ち二次元的)な虚像Vが浮かんで見える。
 即ち、基準レイヤL1に浮かんで見える虚像は、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間に視差がない画像に基づいているので、高精細な虚像であってかつ二次元的な虚像になる。
 他方、近距離付加レイヤL2と遠距離付加レイヤL3に浮かんで見える虚像は、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間に視差がある画像に基づいているので、基準レイヤL1の虚像ほどの精細度ではないが三次元的な虚像になる。また、3D液晶ディスプレイ11上で右眼用画像IRと左眼用画像ILとの間の視差を調整することにより、浮かんで見える虚像を近距離付加レイヤL2あるいは遠距離付加レイヤL3のいずれに表示するのか変更することができる。
For example, as shown in FIG. 3A, when a small amount of parallax exists between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11 (that is, the right-eye image IR and the left-eye image). If the display image is slightly shifted from the display image IL), the virtual image V of the display target information floats at the position of the short-distance addition layer L2 and appears three-dimensional (that is, three-dimensional). Further, as shown in FIG. 3B, if there is a large parallax between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11, that is, the right-eye image IR and the left-eye image When the image IL is displayed with a large deviation), the virtual image V floats at the position of the long-distance addition layer L3 and looks three-dimensional.
On the other hand, as shown in FIG. 3C, when there is no parallax between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11 (that is, the right-eye image IR and the left-eye image). When the image is superimposed on IL), a planar (that is, two-dimensional) virtual image V appears to float on the reference layer L1.
That is, the virtual image that appears in the reference layer L1 is based on an image having no parallax between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11, and is therefore a high-definition virtual image. And it becomes a two-dimensional virtual image.
On the other hand, the virtual image that appears in the short-distance addition layer L2 and the long-distance addition layer L3 is based on an image having parallax between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11. Although not as fine as the virtual image of the reference layer L1, it becomes a three-dimensional virtual image. Further, by adjusting the parallax between the right-eye image IR and the left-eye image IL on the 3D liquid crystal display 11, a floating virtual image is displayed on either the short-distance addition layer L2 or the long-distance addition layer L3. You can change what you do.
 図4は、表示対象情報の種類を説明する図である。表示対象情報は、情報の種類によって、車両情報と付加情報とに分けられる。車両情報は、例えば、車速、メータ表示、燃料残量といった車両に関する情報である。付加情報は、例えば、経路の案内矢印、道路標識、制限速度、渋滞情報、警告、電子メールといった車両に関する情報以外の情報である。
 図4(a)は、道路を走行中において、運転者15の視点からハーフミラー13を介して車両前方を眺めた際のイメージ図である。実施の形態1では、車両情報は基準レイヤL1に表示され、付加情報は運転状況等に応じて原則として、近距離付加レイヤL2または遠距離付加レイヤL3に表示される。
 例えば、車両情報として車速、付加情報として案内矢印と警告が表示される場合、図4(b)に示すように、推定された運転者15の焦点位置が近距離であるときは車両情報である車速20が基準レイヤL1に表示され、付加情報である案内矢印21は近距離付加レイヤL2に表示される。また、運転状況等によっては、即ち推定された運転者15の焦点位置が遠距離であるときは図4(c)に示すように案内矢印21が遠距離付加レイヤL3に表示されることもある。さらに、付加情報は原則として近距離付加レイヤL2または遠距離付加レイヤL3に表示されるが、例外として、付加情報であっても警告22は基準レイヤL1に表示される。どの情報をどのレイヤに表示するかの詳細は後述する。
FIG. 4 is a diagram illustrating the types of display target information. The display target information is divided into vehicle information and additional information depending on the type of information. The vehicle information is information about the vehicle such as vehicle speed, meter display, and fuel remaining amount. The additional information is information other than information related to the vehicle, such as route guidance arrows, road signs, speed limits, traffic jam information, warnings, and e-mails.
FIG. 4A is an image diagram when the vehicle front is viewed from the viewpoint of the driver 15 through the half mirror 13 while traveling on the road. In the first embodiment, the vehicle information is displayed on the reference layer L1, and the additional information is displayed on the short-distance addition layer L2 or the long-distance addition layer L3 in principle according to the driving situation or the like.
For example, when vehicle speed is displayed as vehicle information and a guidance arrow and warning are displayed as additional information, as shown in FIG. 4B, vehicle information is obtained when the estimated focal position of the driver 15 is a short distance. The vehicle speed 20 is displayed on the reference layer L1, and a guide arrow 21 that is additional information is displayed on the short-distance addition layer L2. Further, depending on the driving situation, that is, when the estimated focus position of the driver 15 is a long distance, the guide arrow 21 may be displayed on the long distance addition layer L3 as shown in FIG. 4C. . Furthermore, although the additional information is displayed on the short-distance additional layer L2 or the long-distance additional layer L3 in principle, the warning 22 is displayed on the reference layer L1 even if it is additional information. Details of which information is displayed on which layer will be described later.
 図5は、運転者15の焦点位置と車速の関係を示すグラフである。ここで、焦点位置とは、運転者15が見ている場所の奥行き方向の位置のことをいい、車速が遅い場合は焦点位置が近く(奥行き方向の手前側)になり、車速が速い場合は焦点位置が遠く(奥行き方向の奥側)になる傾向にある。例えば実線で示すように、運転者15の焦点位置と車速が一次関数の関係にあると仮定した場合、運転者15から奥行き方向3mの位置に近距離付加レイヤL2を設定し、10mの位置に遠距離付加レイヤL3を設定しておく。近距離付加レイヤL2の3mは、30km/hで走行中に運転者15が注視するであろう焦点位置、遠距離付加レイヤL3の10mは、100km/hで走行中に運転者15が注視するであろう焦点位置である。また、近距離付加レイヤL2より奥行き方向の手前側であってフレネルレンズ12の焦点付近、例えば2~2.5mの位置に基準レイヤL1を設定しておく。
 なお、各レイヤの位置は一例であり、これに限定されるものではない。また、破線で示すように、運転者15の焦点位置と車速を対数関数の関係にあると仮定して各レイヤの位置を設定してもよい。
FIG. 5 is a graph showing the relationship between the focus position of the driver 15 and the vehicle speed. Here, the focal position means the position in the depth direction where the driver 15 is looking. When the vehicle speed is slow, the focal position is close (front side in the depth direction), and when the vehicle speed is fast. There is a tendency that the focal position is far away (the far side in the depth direction). For example, as shown by the solid line, when it is assumed that the focus position of the driver 15 and the vehicle speed have a linear function relationship, the short-distance addition layer L2 is set at a position in the depth direction of 3 m from the driver 15, and the position of 10 m is set. A long-distance addition layer L3 is set. 3m of the short-distance addition layer L2 is a focus position that the driver 15 will watch while driving at 30 km / h, and 10 m of the long-distance addition layer L3 is watched by the driver 15 while driving at 100 km / h. It will be the focal position. Further, the reference layer L1 is set near the focal point of the Fresnel lens 12, for example, at a position of 2 to 2.5 m, in front of the short distance addition layer L2 in the depth direction.
In addition, the position of each layer is an example and is not limited to this. Further, as indicated by a broken line, the position of each layer may be set on the assumption that the focal position of the driver 15 and the vehicle speed are in a logarithmic function.
 次に、表示制御装置1を説明する。
 表示制御装置1は、不図示のCPU(Central Processing Unit)で構成されており、このCPUが内部メモリに格納されたプログラムを実行することによって、情報取得部7、運転状況推定部8、表示対象情報生成部9、および表示位置判定部10としての機能を実現する。
Next, the display control apparatus 1 will be described.
The display control device 1 is composed of a CPU (Central Processing Unit) (not shown), and when this CPU executes a program stored in an internal memory, an information acquisition unit 7, an operation state estimation unit 8, a display target Functions as the information generation unit 9 and the display position determination unit 10 are realized.
 情報取得部7は、車速センサ2、GPSセンサ3、運転モード取得部4、対象物検出センサ5およびナビゲーション装置6といった車載機器から各種の情報を取得する。情報取得部7が取得した情報は、後述する運転状況推定部8において運転状況を推定するために用いられる。また、情報取得部7が取得した情報を、HUD14に表示する表示対象情報に流用しても構わない。 The information acquisition unit 7 acquires various types of information from in-vehicle devices such as the vehicle speed sensor 2, the GPS sensor 3, the operation mode acquisition unit 4, the object detection sensor 5, and the navigation device 6. The information acquired by the information acquisition unit 7 is used to estimate the driving situation in the driving situation estimation unit 8 described later. Further, the information acquired by the information acquisition unit 7 may be used as display target information displayed on the HUD 14.
 車速センサ2は、車速を検出するセンサである。
 GPSセンサ3は、GPS衛星の信号を受信して車両の位置を特定する。
 運転モード取得部4は、運転者15が選択した運転モード(例えば、比較的低速な街乗りモード、または比較的高速なスポーツモード等)を取得する。運転者15は、ハンドルまたはシフトレバー等に設置された運転モード選択用のボタン等を操作することにより、所望の運転モードを選択する。あるいは、ナビゲーション装置6が運転者15から運転モードの選択を受け付けても構わない。
 対象物検出センサ5は、自車両前方の人および車両などの視認対象物の有無、および視認対象物の位置を検出する。対象物検出センサ5としては、例えば車外をセンシングするステレオカメラまたはレーダ等が用いられる。視認対象物とは、歩行者および車など、運転者15が運転中に注意すべき物体である。
 ナビゲーション装置6は、地図データの他、経路の案内矢印、道路標識、制限速度、渋滞情報、警告といった情報を、必要に応じて情報取得部7へ出力する。
The vehicle speed sensor 2 is a sensor that detects the vehicle speed.
The GPS sensor 3 receives a GPS satellite signal and specifies the position of the vehicle.
The driving mode acquisition unit 4 acquires the driving mode selected by the driver 15 (for example, a relatively low speed city riding mode or a relatively high speed sports mode). The driver 15 selects a desired operation mode by operating an operation mode selection button or the like installed on a handle or a shift lever. Alternatively, the navigation device 6 may accept the selection of the driving mode from the driver 15.
The object detection sensor 5 detects the presence or absence of a visual object such as a person and a vehicle ahead of the host vehicle, and the position of the visual object. As the object detection sensor 5, for example, a stereo camera or a radar that senses the outside of the vehicle is used. The visual recognition object is an object that the driver 15 should be careful while driving, such as a pedestrian and a car.
In addition to the map data, the navigation device 6 outputs information such as route guidance arrows, road signs, speed limits, traffic jam information, and warnings to the information acquisition unit 7 as necessary.
 運転状況推定部8は、情報取得部7が車載機器から取得した車速を推定可能な情報に基づいて、車両の運転状況を推定し、運転者の焦点位置が遠距離か近距離かを判定する。車速を推定可能な情報とは、車速、運転モード、および地図データに含まれる道路種別等である。
 運転状況推定部8の詳細は後述する。
The driving situation estimation unit 8 estimates the driving situation of the vehicle based on the information that the information acquisition unit 7 can estimate the vehicle speed acquired from the in-vehicle device, and determines whether the driver's focal position is a long distance or a short distance. . The information capable of estimating the vehicle speed includes the vehicle speed, the driving mode, and the road type included in the map data.
Details of the driving situation estimation unit 8 will be described later.
 表示対象情報生成部9は、車速、メータ表示、燃料残量といった車両情報と、案内矢印、道路標識、制限速度、渋滞情報、警告、電子メールといった付加情報を、車載機器から取得し、これらを元に表示対象情報を生成する。なお、車両情報と付加情報は、情報取得部7を介して、車速センサ2、GPSセンサ3、運転モード取得部4、対象物検出センサ5、およびナビゲーション装置6から取得する他、不図示の車載機器(例えば、オーディオ曲名などの付加情報をオーディオ装置)からも取得可能である。ここでの説明は一例であって、情報の種類および車載機器の種類を限定するものではない。
 表示対象情報としては、例えば図4に示した車速20のような文字列、ならびに案内矢印21および警告22のような図形等がある。
The display target information generation unit 9 acquires vehicle information such as vehicle speed, meter display, and fuel remaining amount, and additional information such as guidance arrows, road signs, speed limits, traffic jam information, warnings, and e-mails from in-vehicle devices. The display target information is generated originally. Vehicle information and additional information are acquired from the vehicle speed sensor 2, the GPS sensor 3, the driving mode acquisition unit 4, the object detection sensor 5, and the navigation device 6 via the information acquisition unit 7. Additional information such as an audio song name can also be acquired from a device (for example, an audio device). The description here is an example, and does not limit the type of information and the type of in-vehicle equipment.
The display target information includes, for example, a character string such as the vehicle speed 20 shown in FIG. 4 and graphics such as a guide arrow 21 and a warning 22.
 表示位置判定部10は、表示対象情報生成部9が生成した表示対象情報と運転状況推定部8が推定した運転者15の焦点位置に基づいて、表示対象情報を表示するレイヤを判定し、レイヤ位置に合わせた右眼用画像と左眼用画像の映像を生成する。
 表示位置判定部10の詳細は後述する。
The display position determination unit 10 determines a layer for displaying the display target information based on the display target information generated by the display target information generation unit 9 and the focal position of the driver 15 estimated by the driving situation estimation unit 8. A right-eye image and a left-eye image that match the position are generated.
Details of the display position determination unit 10 will be described later.
 次に、表示制御装置1の動作を詳述する。
 まず、図6に示すフローチャートに従い、運転状況推定部8の動作を説明する。ここでは、運転者15から車両前方の奥行き方向に2~2.5mの位置に基準レイヤL1が設定され、3mの位置に近距離付加レイヤL2が設定され、10mの位置に遠距離付加レイヤL3が設定されているものとする。運転状況推定部8は、この設定に合わせて、運転者15の焦点位置3mを近距離、10mを遠距離とみなす。
 運転状況推定部8の動作に先立ち、情報取得部7が、車速センサ2から車速を取得し、GPSセンサ3から自車位置を取得し、運転モード取得部4から運転モード(比較的低速な街乗りモード、または比較的高速なスポーツモード)を取得し、対象物検出センサ5から車両前方の視認対象物の有無と視認対象物の位置を取得し、ナビゲーション装置6から自車位置周辺の地図データを取得する。
Next, the operation of the display control device 1 will be described in detail.
First, the operation of the driving situation estimation unit 8 will be described according to the flowchart shown in FIG. Here, the reference layer L1 is set at a position of 2 to 2.5 m from the driver 15 in the depth direction ahead of the vehicle, the short-distance addition layer L2 is set at a position of 3 m, and the long-distance addition layer L3 is set at a position of 10 m. Is set. In accordance with this setting, the driving situation estimation unit 8 regards the focal position 3m of the driver 15 as a short distance and 10m as a long distance.
Prior to the operation of the driving situation estimation unit 8, the information acquisition unit 7 acquires the vehicle speed from the vehicle speed sensor 2, acquires the vehicle position from the GPS sensor 3, and operates from the driving mode acquisition unit 4 in the driving mode (relatively slow city Riding mode or relatively high-speed sports mode), the presence / absence of the visual recognition object in front of the vehicle and the position of the visual recognition object are obtained from the object detection sensor 5, and the map data around the vehicle position from the navigation device 6 To get.
 運転状況推定部8は、情報取得部7が取得した情報に基づいて、自車両が高速道路を走行中か否かを判定する(ステップST1)。ここでは、運転状況推定部8は、GPSセンサ3の自車位置とナビゲーション装置6の地図データに基づいて、自車両が走行している道路の種別を判定する。運転状況推定部8は、道路種別が高速道路の場合にステップST2へ進み、一般道路の場合にステップST3へ進む。 The driving state estimation unit 8 determines whether or not the host vehicle is traveling on the highway based on the information acquired by the information acquisition unit 7 (step ST1). Here, the driving situation estimation unit 8 determines the type of road on which the host vehicle is traveling based on the host vehicle position of the GPS sensor 3 and the map data of the navigation device 6. The driving state estimation unit 8 proceeds to step ST2 when the road type is a highway, and proceeds to step ST3 when the road type is a general road.
 自車両が高速道路を走行中と判定した場合(ステップST1“YES”)、運転状況推定部8は、高速道路走行時は比較的高速で走行しているとみなし、運転者15の奥行き方向の焦点位置は遠距離と推定する(ステップST2)。
 一方、自車両が一般道路を走行中と判定した場合(ステップST1“NO”)、運転状況推定部8は、運転モードが選択されているか否かを判定する(ステップST3)。運転状況推定部8は、運転者15によって運転モードが選択されていない場合にステップST4へ進み、運転モードが選択されている場合にステップST7へ進む。
When it is determined that the host vehicle is traveling on the highway (step ST1 “YES”), the driving state estimation unit 8 regards the vehicle 15 as traveling at a relatively high speed when traveling on the highway, The focal position is estimated to be a long distance (step ST2).
On the other hand, when it is determined that the host vehicle is traveling on a general road (step ST1 “NO”), the driving state estimation unit 8 determines whether or not the driving mode is selected (step ST3). The driving state estimation unit 8 proceeds to step ST4 when the driving mode is not selected by the driver 15, and proceeds to step ST7 when the driving mode is selected.
 運転モードが選択されていないと判定した場合(ステップST3“NO”)、運転状況推定部8は、運転モードではなく車速に基づいて運転状況を判断する。運転状況推定部8は、車速センサ2で取得した車速と予め定めた閾値との大小を比較し(ステップST4)、車速が閾値以上の場合にステップST6へ進み、車速が閾値より小さい場合にステップST5へ進む。ここで、閾値は、焦点位置が遠距離にあるか近距離にあるかを推定するための車速である。図5に示したように焦点位置と車速が一次関数の関係にある場合、焦点位置が遠距離10mのとき車速が100km/h、焦点位置が近距離3mのとき車速が30km/hになるため、閾値として、30km/hより大きく100km/hより小さい値が用いられる。具体例としては例えば60km/hを用いる。日本の一般道路においては、通常60km/hを超えることはないからである。なおこの閾値は、各国または地域の事情を加味して自由に設定し得るものであって、かつ状況に応じて変更しても良い。 When it is determined that the driving mode is not selected (step ST3 “NO”), the driving state estimation unit 8 determines the driving state based on the vehicle speed instead of the driving mode. The driving state estimation unit 8 compares the vehicle speed acquired by the vehicle speed sensor 2 with a predetermined threshold value (step ST4), and proceeds to step ST6 when the vehicle speed is equal to or higher than the threshold value, and proceeds to step ST6 when the vehicle speed is lower than the threshold value. Proceed to ST5. Here, the threshold value is a vehicle speed for estimating whether the focal position is at a long distance or a short distance. As shown in FIG. 5, when the focal position and the vehicle speed are in a linear function, the vehicle speed is 100 km / h when the focal position is a long distance of 10 m, and the vehicle speed is 30 km / h when the focal position is a short distance of 3 m. As the threshold value, a value larger than 30 km / h and smaller than 100 km / h is used. For example, 60 km / h is used. This is because the ordinary roads in Japan usually do not exceed 60 km / h. This threshold value can be freely set in consideration of the circumstances of each country or region, and may be changed according to the circumstances.
 車速が閾値より小さい場合(ステップST4“NO”)、運転状況推定部8は、比較的低速で走行しているとみなし、運転者15の焦点位置を近距離と推定する(ステップST5)。
 一方、車速が閾値以上の場合(ステップST4“YES”)、運転状況推定部8は、比較的高速で走行しているとみなし、運転者15の焦点位置を遠距離と推定する(ステップST6)。
When the vehicle speed is smaller than the threshold (step ST4 “NO”), the driving state estimation unit 8 considers that the vehicle is traveling at a relatively low speed, and estimates the focal position of the driver 15 as a short distance (step ST5).
On the other hand, when the vehicle speed is equal to or higher than the threshold value (step ST4 “YES”), the driving state estimation unit 8 considers that the vehicle is traveling at a relatively high speed, and estimates the focal position of the driver 15 as a long distance (step ST6). .
 他方、運転モードが選択されていると判定した場合(ステップST3“YES”)、運転状況推定部8は、運転者15により選択された運転モードがスポーツモードか否かを判定する(ステップST7)。運転状況推定部8は、スポーツモードが選択されている場合にステップST9へ進む。スポーツモード選択時(ステップST7“YES”)は比較的高速で走行していると推定されるため、運転状況推定部8は、運転者15の焦点位置を遠距離と推定する(ステップST9)。逆に、スポーツモードが選択されていない、つまり街乗りモードが選択されている場合(ステップST7“NO”)、運転状況推定部8は、比較的低速で走行しているとみなし、運転者15の焦点位置を近距離と推定する(ステップST8)。 On the other hand, when it is determined that the driving mode is selected (step ST3 “YES”), the driving state estimation unit 8 determines whether or not the driving mode selected by the driver 15 is the sports mode (step ST7). . The driving situation estimation unit 8 proceeds to step ST9 when the sports mode is selected. Since it is presumed that the vehicle is traveling at a relatively high speed when the sport mode is selected (step ST7 “YES”), the driving situation estimation unit 8 estimates the focal position of the driver 15 as a long distance (step ST9). On the other hand, when the sport mode is not selected, that is, when the city riding mode is selected (step ST7 “NO”), the driving state estimating unit 8 regards that the vehicle is traveling at a relatively low speed, and the driver 15 Is estimated as a short distance (step ST8).
 続いて運転状況推定部8は、対象物検出センサ5によって車両前方の予め定めた距離内に視認対象物が検出されているか否かを判定する(ステップST10)。運転状況推定部8は、視認対象物が検出されなかった場合にステップST11へ進み、視認対象物が検出された場合にステップST12へ進む。ここで、予め定めた距離とは、遠距離付加レイヤL3が設定された位置(この例では10m)である。 Subsequently, the driving state estimation unit 8 determines whether or not a visual object is detected within a predetermined distance in front of the vehicle by the object detection sensor 5 (step ST10). The driving state estimation unit 8 proceeds to step ST11 when the visual recognition object is not detected, and proceeds to step ST12 when the visual recognition object is detected. Here, the predetermined distance is a position (10 m in this example) where the long-distance addition layer L3 is set.
 車両前方に視認対象物が検出されなかった場合(ステップST10“NO”)、運転状況推定部8は、車両前方の予め定めた距離内にカーブがあるか否かを判定する(ステップST11)。予め定めた距離とは、上記同様、遠距離付加レイヤL3が設定された位置(この例では10m)である。運転状況推定部8は、例えば、ナビゲーション装置6の地図データから現在走行中の道路情報を選択し、車両前方にカーブがあるか否かを判定する。運転状況推定部8は、前方にカーブがある場合にステップST12に進み、カーブがない場合は処理を終了する。 If no visual recognition object is detected in front of the vehicle (step ST10 “NO”), the driving state estimation unit 8 determines whether or not there is a curve within a predetermined distance in front of the vehicle (step ST11). The predetermined distance is a position (10 m in this example) where the long-distance addition layer L3 is set as described above. The driving situation estimation unit 8 selects, for example, road information currently running from the map data of the navigation device 6 and determines whether there is a curve ahead of the vehicle. The driving state estimation unit 8 proceeds to step ST12 when there is a curve ahead, and ends the process when there is no curve.
 車両前方に視認対象物またはカーブが検出された場合(ステップST10“YES”またはステップST11“YES”)、運転者15の焦点位置は車両近傍になることが想定される。そのため、運転状況推定部8は、運転者15が車両近傍を見ているとみなし、焦点位置を近距離と推定する(ステップST12)。
 なお、運転状況推定部8は、ステップST2,ST6,ST9において運転状況に基づき焦点位置を遠距離と推定した場合であっても、ステップST12を優先し、推定した焦点位置を近距離に変更する。
When a visual recognition object or a curve is detected in front of the vehicle (step ST10 “YES” or step ST11 “YES”), it is assumed that the focus position of the driver 15 is in the vicinity of the vehicle. Therefore, the driving situation estimation unit 8 considers that the driver 15 is looking in the vicinity of the vehicle, and estimates the focal position as a short distance (step ST12).
Note that the driving situation estimation unit 8 prioritizes step ST12 and changes the estimated focal position to a short distance even when the focal position is estimated to be a long distance based on the driving situation in steps ST2, ST6, ST9. .
 以上の処理により、運転者15の焦点位置が遠距離(この例では10m)にあるか近距離(この例では3m)にあるかが推定される。 Through the above processing, it is estimated whether the focus position of the driver 15 is at a long distance (10 m in this example) or a short distance (3 m in this example).
 運転状況推定部8が運転者15の焦点位置を推定した後、続いて、表示対象情報生成部9がHUD14に表示するための表示対象情報を生成する。その後、表示位置判定部10が、表示対象情報生成部9により生成された表示対象情報と、運転状況推定部8により推定された運転者15の焦点位置を元に、表示対象情報を表示する奥行き方向の位置、つまりレイヤを判定して、表示用の右眼用画像と左眼用画像を作成する。 After the driving situation estimation unit 8 estimates the focus position of the driver 15, the display target information generation unit 9 subsequently generates display target information for display on the HUD 14. Thereafter, the display position determination unit 10 displays the display target information based on the display target information generated by the display target information generation unit 9 and the focal position of the driver 15 estimated by the driving situation estimation unit 8. The position of the direction, that is, the layer is determined, and a right eye image and a left eye image for display are created.
 次に、図7に示すフローチャートに従い、表示位置判定部10の動作を説明する。
 表示位置判定部10は、まず、表示対象情報生成部9により生成された表示対象情報が車両情報か否かを判定する(ステップST21)。表示位置判定部10は、表示対象情報が車速、メータ表示、燃料残量といった車両情報である場合にステップST22へ進み、逆に車両情報でない、つまり案内矢印、道路標識、制限速度、渋滞情報、警告、電子メールといった付加情報である場合にステップST23へ進む。
 表示対象情報が車両情報である場合(ステップST21“YES”)、表示位置判定部10は、奥行き方向の位置が固定された基準レイヤL1に表示対象情報である車両情報を表示するための二次元映像、即ち視差のない右眼用画像と左眼用画像を作成し(ステップST22)、処理を終了する。
Next, the operation of the display position determination unit 10 will be described according to the flowchart shown in FIG.
The display position determination unit 10 first determines whether the display target information generated by the display target information generation unit 9 is vehicle information (step ST21). The display position determination unit 10 proceeds to step ST22 when the display target information is vehicle information such as vehicle speed, meter display, and fuel remaining amount. Conversely, the display position determination unit 10 is not vehicle information, that is, guidance arrows, road signs, speed limits, traffic jam information, If it is additional information such as a warning or e-mail, the process proceeds to step ST23.
When the display target information is vehicle information (step ST21 “YES”), the display position determination unit 10 displays the vehicle information as the display target information on the reference layer L1 whose position in the depth direction is fixed. A video, that is, a right-eye image and a left-eye image without parallax are created (step ST22), and the process ends.
 一方、表示対象情報が車両情報ではない場合(ステップST21“NO”)、表示位置判定部10は、表示対象情報である付加情報が警告か否かを判定する(ステップST23)。表示位置判定部10は、付加情報が警告でない場合にステップST24へ進み、付加情報が警告の場合にステップST26へ進む。 On the other hand, when the display target information is not vehicle information (step ST21 “NO”), the display position determination unit 10 determines whether or not the additional information that is the display target information is a warning (step ST23). The display position determination unit 10 proceeds to step ST24 when the additional information is not a warning, and proceeds to step ST26 when the additional information is a warning.
 付加情報が警告でない場合(ステップST23“NO”)、表示位置判定部10は、表示対象情報である付加情報が高解像度情報か否かを判定する(ステップST24)。高解像度情報とは、表示に必要とされる解像度が予め定められた閾値以上の付加情報であり、例えば電子メールおよびオーディオ曲名といった文字情報、ならびにきめ細かいグラフィックスの画像、例えばメータ画像などである。表示位置判定部10は、付加情報が高解像度情報でない場合にステップST25へ進み、付加情報が高解像度情報の場合にステップST26へ進む。 If the additional information is not a warning (“NO” in step ST23), the display position determination unit 10 determines whether or not the additional information that is display target information is high-resolution information (step ST24). The high resolution information is additional information whose resolution required for display is equal to or higher than a predetermined threshold, and includes, for example, character information such as e-mail and audio song names, and fine graphics images such as meter images. The display position determination unit 10 proceeds to step ST25 when the additional information is not high resolution information, and proceeds to step ST26 when the additional information is high resolution information.
 付加情報が高解像度情報でない場合(ステップST24“NO”)、表示位置判定部10は、運転状況推定部8が推定した運転者15の焦点位置に対応する付加レイヤに、付加情報を表示するための三次元映像、即ち視差のある右眼用画像と左眼用画像を作成し(ステップST25)、処理を終了する。運転状況推定部8において運転者15の焦点位置が近距離と推定された場合、表示位置判定部10は、3m先の近距離付加レイヤL2に付加情報を表示するための三次元映像を作成する。一方、焦点位置が遠距離と推定された場合、表示位置判定部10は、10m先の遠距離付加レイヤL3に付加情報を表示するための三次元映像を作成する。 When the additional information is not high resolution information (step ST24 “NO”), the display position determination unit 10 displays the additional information on the additional layer corresponding to the focal position of the driver 15 estimated by the driving situation estimation unit 8. 3D video, that is, a right-eye image and a left-eye image with parallax are created (step ST25), and the process is terminated. When the driver 15 estimates that the focus position of the driver 15 is a short distance in the driving situation estimation unit 8, the display position determination unit 10 creates a three-dimensional image for displaying additional information on the short-distance addition layer L2 3 meters ahead. . On the other hand, when the focal position is estimated to be a long distance, the display position determination unit 10 creates a 3D image for displaying additional information on the long distance addition layer L3 10 meters ahead.
 付加情報が警告または高解像度情報である場合(ステップST23“YES”またはステップST24“YES”)、表示位置判定部10は、警告または高解像度情報を基準レイヤL1に表示するための二次元映像を作成し(ステップST26)、処理を終了する。 When the additional information is warning or high-resolution information (step ST23 “YES” or step ST24 “YES”), the display position determination unit 10 displays a two-dimensional image for displaying the warning or high-resolution information on the reference layer L1. Create (step ST26), and the process ends.
 最後に、表示位置判定部10により作成された映像が3D液晶ディスプレイ11に送付され、そこに表示されることで表示対象情報が運転者15に提示される。
 以上の処理により、運転者15の焦点位置が遠距離のときには付加情報が遠距離付加レイヤL3に表示され、運転者15の焦点位置が近距離のときには付加情報が近距離付加レイヤL2に表示されるので、運転者15の焦点位置と付加レイヤL2,L3の奥行き方向の位置との差異を抑制できる。これにより、運転者15の奥行き方向の視線移動量(輻輳変動)を低減することができ、視認時の疲労を抑制できる。
Finally, the image created by the display position determination unit 10 is sent to the 3D liquid crystal display 11 and displayed there, so that display target information is presented to the driver 15.
With the above processing, the additional information is displayed on the long-distance addition layer L3 when the driver's 15 focal position is a long distance, and the additional information is displayed on the short-distance addition layer L2 when the driver's 15 focal position is a short distance. Therefore, the difference between the focus position of the driver 15 and the positions in the depth direction of the additional layers L2 and L3 can be suppressed. As a result, the amount of line-of-sight movement (congestion fluctuation) in the depth direction of the driver 15 can be reduced, and fatigue during visual recognition can be suppressed.
 なお、上記説明では、付加レイヤの表示位置を近距離と遠距離の2段階に設定したが、3段階以上に設定しても構わない。また図7では1つの表示対象情報を用いて動作を説明したが、この処理は表示対象情報ごとに行われる。即ち、図4に示す場合は、表示対象情報である車速20、案内矢印21および警告22のそれぞれに対して行われる。 In the above description, the display position of the additional layer is set in two steps, short distance and long distance, but it may be set in three steps or more. In FIG. 7, the operation has been described using one piece of display target information, but this process is performed for each piece of display target information. That is, in the case shown in FIG. 4, it is performed for each of the vehicle speed 20, the guide arrow 21, and the warning 22 that are display target information.
 以上より、実施の形態1によれば、表示制御装置1は、車両の運転状況に基づいて運転者15の焦点位置を推定する運転状況推定部8と、表示対象情報生成部9が生成した表示対象情報のうちの車両情報を奥行き方向の位置が予め定められた基準レイヤL1の位置に表示させるとともに、表示対象情報のうちの付加情報を奥行き方向の位置が基準レイヤL1の位置よりも奥行き方向の奥側であってかつその位置が異なる近距離付加レイヤL2または遠距離付加レイヤL3の位置に表示させ、付加情報の表示位置を、運転状況推定部8により推定された運転者15の焦点位置に応じて近距離付加レイヤL2か遠距離付加レイヤL3に変更する表示位置判定部10を備える構成にした。即ち車両情報を基準レイヤL1に表示するとともに付加情報を近距離付加レイヤL2または遠距離付加レイヤL3に表示するといった多層レイヤ構造であるため、情報の種類に応じて表示を分けることができる。また、視差のない画像に基づいて二次元の虚像が浮かび上がる基準レイヤL1に車両情報を表示するようにしたので、情報の種類に拘らず運転者15が容易に認識可能とすることができる。さらに、付加情報の表示位置を、運転者15の焦点位置に応じて変更するようにしたので、運転者15の奥行き方向の視線移動量を低減し、輻輳の変動を抑制することができる。 As described above, according to the first embodiment, the display control device 1 displays the driving status estimation unit 8 that estimates the focal position of the driver 15 based on the driving status of the vehicle and the display target information generation unit 9 that generates the display. The vehicle information in the target information is displayed at the position of the reference layer L1 whose position in the depth direction is determined in advance, and the additional information in the display target information is displayed in the depth direction from the position of the reference layer L1 in the depth direction. The focal position of the driver 15 estimated by the driving situation estimation unit 8 is displayed at the position of the short-distance addition layer L2 or the long-distance addition layer L3, which is the back side of the vehicle. Accordingly, the display position determination unit 10 that changes to the short-distance addition layer L2 or the long-distance addition layer L3 is provided. That is, since the vehicle information is displayed on the reference layer L1 and the additional information is displayed on the short-distance addition layer L2 or the long-distance addition layer L3, the display can be divided according to the type of information. In addition, since the vehicle information is displayed on the reference layer L1 in which a two-dimensional virtual image emerges based on an image without parallax, the driver 15 can easily recognize the vehicle regardless of the type of information. Furthermore, since the display position of the additional information is changed according to the focal position of the driver 15, the amount of line-of-sight movement in the depth direction of the driver 15 can be reduced, and fluctuations in congestion can be suppressed.
 また、実施の形態1によれば、運転状況推定部8は、車速を推定可能な情報(車速、運転モード、および地図データに含まれる道路種別)に基づいて、運転者15の焦点位置を推定する構成にした。このため、上記特許文献2に係る発明で必要だった運転者視線監視用のカメラが不要となる。
 なお、上記実施の形態1ではレイヤが頻繁に切り替わらないようにするため、車速を推定可能な情報について優先順位を付けた例(優先順位が高い順から道路種別、運転モードまたは車速)を示した。即ち自車両が高速道路を走行中と判定した場合(ステップST1“YES”)、運転状況推定部8は、運転モードおよび車速を確認することなく焦点位置は遠距離と推定する。同様に自車両が一般道路を走行中と判定した場合(ステップST1“NO”)、運転状況推定部8は、運転モード(ステップST3)により焦点位置を推定することとなり、この場合は車速の確認はしない。
 即ち車速を推定可能な情報について優先順位を付けることにより、車速が閾値60km/hを頻繁に上下しても道路種別もしくは運転モードが切り替わらなければレイヤを切り替えない。このためレイヤの切り替えを安定したものにすることができる。なお上記優先順位は例示に過ぎない。優先順位は予め定めておいてもよいし、運転者が自由に設定しても構わない。また車速を推定可能な情報として、道路種別、運転モードまたは車速以外のものを用いてもよい。またこれらの情報に優先順位を付けても良い。
 他方、図6の例では、車速を推定可能な情報として車速、運転モードおよび道路種別の3つを優先順位を付けて使用したが、少なくとも1つを使用する構成にしてもよい。また、どの情報を使用するか、ユーザが設定する構成にしてもよい。例えば、運転者が自分の焦点位置と連動して速やかにレイヤを切り替えることを望む場合は、車速を推定可能な情報として、車速センサ2の車速を使用すればよい。この場合は時々刻々と変わる車速に応じて運転者の焦点位置も変化しており、この焦点位置に合ったレイヤに速やかに切り替えることができる。あるいは、車速を推定可能な情報として、車速センサ2の車速を使用せず、運転モードまたは道路種別を使用した場合は、大まかな運転者15の焦点位置を推定可能となる。近距離付加レイヤL2と遠距離付加レイヤL3を判定する閾値付近の車速で走行している場合、車速センサ2の車速を使用するとレイヤが頻繁に切り替わるが、運転モードあるいは道路種別が変化しない限りレイヤの切り替えが起こることはなくなる。
Further, according to the first embodiment, the driving situation estimation unit 8 estimates the focal position of the driver 15 based on information (vehicle speed, driving mode, and road type included in the map data) that can estimate the vehicle speed. It was configured to be. For this reason, the camera for driver | operator eyes | visual_axis monitoring required by the invention which concerns on the said patent document 2 becomes unnecessary.
In the first embodiment, in order to prevent layers from switching frequently, an example in which priority is given to information that can estimate the vehicle speed (road type, driving mode or vehicle speed from the highest priority) is shown. . That is, when it is determined that the host vehicle is traveling on the highway (step ST1 “YES”), the driving state estimation unit 8 estimates the focal position as a long distance without confirming the driving mode and the vehicle speed. Similarly, when it is determined that the host vehicle is traveling on a general road (“NO” in step ST1), the driving state estimation unit 8 estimates the focal position in the driving mode (step ST3). In this case, the vehicle speed is confirmed. I do not.
That is, by assigning priorities to information that can estimate the vehicle speed, the layer is not switched if the road type or the driving mode does not change even if the vehicle speed frequently fluctuates the threshold value 60 km / h. For this reason, layer switching can be made stable. The priorities are merely examples. The priority order may be determined in advance or may be set freely by the driver. Information other than the road type, driving mode, or vehicle speed may be used as information that can estimate the vehicle speed. Moreover, you may give priority to such information.
On the other hand, in the example of FIG. 6, the vehicle speed, the driving mode, and the road type are used with priority given as information that can estimate the vehicle speed, but at least one may be used. Further, a configuration in which the user sets which information is used may be used. For example, when the driver desires to quickly switch the layer in conjunction with his / her focal position, the vehicle speed of the vehicle speed sensor 2 may be used as information capable of estimating the vehicle speed. In this case, the driver's focal position also changes according to the vehicle speed that changes from moment to moment, and it is possible to quickly switch to a layer that matches this focal position. Alternatively, when the vehicle speed of the vehicle speed sensor 2 is not used as the information that can estimate the vehicle speed, and the driving mode or the road type is used, the approximate focus position of the driver 15 can be estimated. When traveling at a vehicle speed near the threshold for determining the short-distance addition layer L2 and the long-distance addition layer L3, the layer is frequently switched when the vehicle speed of the vehicle speed sensor 2 is used. No switching occurs.
 また、実施の形態1によれば、車両の前方に視認対象物が存在する場合、または、車両が走行する道路の前方にカーブが存在する場合、運転状況推定部8は、現在の運転状況に基づいて推定した焦点位置を、当該推定した焦点位置より運転者15に近い位置に変更する構成にした。歩行者などの視認対象物が存在する場合またはカーブを走行する場合、運転者15の焦点位置が近くになることが想定されるため、付加情報の表示位置を奥行き方向の手前側にすることで運転者15の奥行き方向の視線移動量を低減できる。 Further, according to the first embodiment, when there is a visual recognition object in front of the vehicle, or when there is a curve in front of the road on which the vehicle travels, the driving situation estimation unit 8 sets the current driving situation. The focal position estimated on the basis of the estimated focal position is changed to a position closer to the driver 15 than the estimated focal position. When there is a visual target such as a pedestrian or when driving on a curve, the focus position of the driver 15 is assumed to be close, so the display position of the additional information is set to the near side in the depth direction. The amount of line-of-sight movement in the depth direction of the driver 15 can be reduced.
 また、実施の形態1によれば、表示位置判定部10は、付加情報が警告の場合、当該付加情報を基準レイヤL1に表示させる構成にした。運転者15の最も手前側に設定され、かつ、高解像度の虚像を表示可能な基準レイヤL1に警告を表示することで、基準レイヤL1よりも奥行き方向の奥側に設定された近距離付加レイヤL2または遠距離付加レイヤL3に表示する場合に比べて、見逃してはいけない警告の認知が容易になる。 Further, according to the first embodiment, the display position determination unit 10 is configured to display the additional information on the reference layer L1 when the additional information is a warning. A short-distance addition layer set on the far side in the depth direction with respect to the reference layer L1 by displaying a warning on the reference layer L1 that is set closest to the driver 15 and can display a high-resolution virtual image As compared with the case of displaying on L2 or the long-distance addition layer L3, it becomes easier to recognize warnings that should not be overlooked.
 また、実施の形態1によれば、表示位置判定部10は、付加情報の表示に必要とされる解像度が予め定められた閾値以上の場合、当該付加情報を基準レイヤL1に表示させる構成にした。電子メール、オーディオ曲名といった文字情報は形状が複雑であるため表示に高い解像度を必要とする。このような情報を視差のない画像に基づいて表示される基準レイヤL1の高解像度の虚像として表示することで、視差がある画像に基づいて表示される近距離付加レイヤL2または遠距離付加レイヤL3に表示する場合に比べて、可読性を改善できる。 Further, according to the first embodiment, the display position determination unit 10 is configured to display the additional information on the reference layer L1 when the resolution required for displaying the additional information is equal to or higher than a predetermined threshold. . Character information such as e-mails and audio song names is complicated in shape and requires high resolution for display. By displaying such information as a high-resolution virtual image of the reference layer L1 displayed based on an image without parallax, a short-distance addition layer L2 or a long-distance addition layer L3 displayed based on an image with parallax Readability can be improved compared to the case of displaying on the screen.
実施の形態2.
 実施の形態2に係る表示制御装置1の構成は、図面上は図1と同じであるため、以下では図1を援用する。
 実施の形態2に係る表示制御装置1が実施の形態1と異なる点は、運転状況推定部8の動作にある。実施の形態1の運転状況推定部8では、付加情報を表示する位置を近距離付加レイヤL2の位置または遠距離付加レイヤL3の位置にしていた。実施の形態2の運転状況推定部8では、これに加え、付加情報を表示する位置を車速に応じて連続的に変化させることも可能とする。
Embodiment 2. FIG.
Since the configuration of the display control apparatus 1 according to the second embodiment is the same as that of FIG. 1 in the drawing, FIG. 1 is used below.
The difference between the display control device 1 according to the second embodiment and the first embodiment is in the operation of the driving situation estimation unit 8. In the driving state estimation unit 8 of the first embodiment, the position where the additional information is displayed is the position of the short-distance addition layer L2 or the position of the long-distance addition layer L3. In addition to this, the driving state estimation unit 8 of the second embodiment can continuously change the position for displaying the additional information according to the vehicle speed.
 図8は、実施の形態2における運転状況推定部8の動作を示すフローチャートである。以下、運転状況推定部8の動作を、図8に基づいて説明する。
 図8において実施の形態1の図6と異なるのは、図6のステップST4~ST6に代わってステップST13が行われる点である。
 つまり、運転状況推定部8は、ステップST3において運転モードが選択されていない場合(ステップST3“NO”)、運転者15の焦点位置を車速センサ2の車速に応じて連続的に変化させる(ステップST13)。例えば、図5に示したように焦点位置と車速が一次関数の関係にある場合、運転状況推定部8は車速が20km/hのとき焦点位置を2m、30km/hのとき焦点位置を3m、60km/hのとき焦点位置を6m、100km/hのとき焦点位置を10mと推定する。このように、実施の形態2では、車速に応じて焦点位置を連続的に変化させる。
FIG. 8 is a flowchart showing the operation of the driving situation estimation unit 8 in the second embodiment. Hereinafter, the operation of the driving situation estimation unit 8 will be described with reference to FIG.
FIG. 8 differs from FIG. 6 in the first embodiment in that step ST13 is performed instead of steps ST4 to ST6 in FIG.
That is, when the driving mode is not selected in step ST3 (step ST3 “NO”), the driving state estimating unit 8 continuously changes the focal position of the driver 15 according to the vehicle speed of the vehicle speed sensor 2 (step ST3). ST13). For example, as shown in FIG. 5, when the focal position and the vehicle speed are in a linear function, the driving situation estimation unit 8 sets the focal position to 2 m when the vehicle speed is 20 km / h, 3 m when the vehicle speed is 30 km / h, The focal position is estimated to be 6 m at 60 km / h, and 10 m at 100 km / h. Thus, in the second embodiment, the focal position is continuously changed according to the vehicle speed.
 図9は、実施の形態2の基準レイヤL1と付加レイヤL21を説明する模式図である。表示位置判定部10は、実施の形態1と同様に、車速20などの車両情報ならびに付加情報のうちの警告22および高解像度情報を、奥行き方向の位置が固定された基準レイヤL1の位置に表示するための二次元映像を作成する。
 一方、表示位置判定部10は、案内矢印21などの付加情報(警告および高解像度情報を除く)を、運転状況推定部8が推定した運転者15の焦点位置に対応する付加レイヤL21に表示するための三次元映像を作成する。運転状況推定部8が推定した焦点位置に応じて、表示位置判定部10が付加情報の右眼用画像と左眼用画像の間隔を調整して視差を変更することにより、虚像が浮かんで見える付加レイヤL21の位置が奥行き方向に変更される。付加レイヤL21の奥行き方向における移動範囲は任意に設定可能であり、例えば、基準レイヤL1から遠距離付加レイヤL3までの範囲とする。
FIG. 9 is a schematic diagram illustrating the reference layer L1 and the additional layer L21 according to the second embodiment. Similar to the first embodiment, the display position determination unit 10 displays the vehicle information such as the vehicle speed 20 and the warning 22 and the high resolution information among the additional information at the position of the reference layer L1 where the position in the depth direction is fixed. Create a 2D image to do.
On the other hand, the display position determination unit 10 displays additional information (excluding warning and high resolution information) such as the guidance arrow 21 on the additional layer L21 corresponding to the focal position of the driver 15 estimated by the driving situation estimation unit 8. Create 3D video for Depending on the focal position estimated by the driving situation estimation unit 8, the display position determination unit 10 adjusts the interval between the right-eye image and the left-eye image as additional information to change the parallax, thereby making the virtual image appear to float. The position of the additional layer L21 is changed in the depth direction. The moving range in the depth direction of the additional layer L21 can be arbitrarily set, and is, for example, a range from the reference layer L1 to the long-distance additional layer L3.
 例えば、図8のステップST2またはステップST9で焦点位置が遠距離と推定された場合、表示位置判定部10は、付加レイヤL21を遠距離(例えば、10m)の位置に設定し、その位置に付加情報を表示するための三次元映像を作成する。図8のステップST8またはステップST12で焦点位置が近距離と推定された場合、表示位置判定部10は、付加レイヤL21を近距離(例えば、3m)の位置に設定し、その位置に付加情報を表示するための三次元映像を作成する。図8のステップST13で車速に応じた焦点位置が推定された場合、表示位置判定部10は、付加レイヤL21をその焦点位置(例えば、車速60km/hのとき6m)に設定し、その位置に付加情報を表示するための三次元映像を作成する。 For example, when the focal position is estimated to be a long distance in step ST2 or step ST9 in FIG. 8, the display position determination unit 10 sets the additional layer L21 to a position at a long distance (for example, 10 m) and adds it to the position. Create 3D images to display information. When the focal position is estimated to be a short distance in step ST8 or step ST12 in FIG. 8, the display position determination unit 10 sets the additional layer L21 at a short distance (for example, 3 m), and adds additional information to the position. Create a 3D image for display. When the focal position corresponding to the vehicle speed is estimated in step ST13 of FIG. 8, the display position determining unit 10 sets the additional layer L21 to the focal position (for example, 6 m when the vehicle speed is 60 km / h), and at that position. Create a 3D image to display additional information.
 以上より、実施の形態2によれば、運転状況推定部8は、車速が大きくなるほど、付加情報を表示する付加レイヤL21の位置を奥行き方向の奥側に変更する構成にした。このため実施の形態1と比べて実施の形態2では、より細かく運転者15の焦点位置を推定できる。そして、推定した運転者15の焦点位置に合わせて付加レイヤの表示位置を連続的に変化させるようにしたので、運転者15の奥行き方向の視線移動量を更に低減することができる効果がある。 As described above, according to the second embodiment, the driving situation estimation unit 8 is configured to change the position of the additional layer L21 that displays additional information to the far side in the depth direction as the vehicle speed increases. Therefore, the focus position of the driver 15 can be estimated more finely in the second embodiment than in the first embodiment. Since the display position of the additional layer is continuously changed in accordance with the estimated focus position of the driver 15, there is an effect that the amount of line-of-sight movement in the depth direction of the driver 15 can be further reduced.
実施の形態3.
 図10は、実施の形態3に係る表示制御装置1の構成例を示すブロック図である。図10において、図1と同一または相当の部分については同一の符号を付し説明を省略する。
 実施の形態3に係る表示制御装置1が実施の形態1と異なる点は、到着予定時刻推定部30が追加されている点である。また、到着予定時刻推定部30の追加に伴い、情報取得部7および表示位置判定部10の動作も異なる。
Embodiment 3 FIG.
FIG. 10 is a block diagram illustrating a configuration example of the display control device 1 according to the third embodiment. 10, parts that are the same as or equivalent to those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.
The difference between the display control device 1 according to the third embodiment and the first embodiment is that an estimated arrival time estimation unit 30 is added. Further, with the addition of the estimated arrival time estimation unit 30, the operations of the information acquisition unit 7 and the display position determination unit 10 are also different.
 実施の形態3では、情報取得部7が、ナビゲーション装置6から案内地点情報を取得する。案内地点とは、例えば、自車両の目的地または経由地として設定された地点である。案内地点情報とは、例えば、目的地の施設情報(施設の位置、施設を表すアイコンなど)、または経由地の施設情報(施設の位置、施設を表すアイコンなど)であり、付加情報の1つである。
 運転状況推定部8は、実施の形態1と同様の動作を行う。
 その後、到着予定時刻推定部30は、情報取得部7がGPSセンサ3から取得した自車位置と、ナビゲーション装置6から取得した地図データおよび案内地点情報とを用いて、自車両から案内地点までの距離を求める。到着予定時刻推定部30は、求めた距離を、情報取得部7が車速センサ2から取得した車速で除することにより、案内地点へ到着する時刻を推定し、案内地点に到着するまでに要する時間を推定する。
 なお、到着予定時刻推定部30は、自身で到着予定時刻を推定する代わりに、ナビゲーション装置6から到着予定時刻に関する情報を取得しても構わない。
In the third embodiment, the information acquisition unit 7 acquires guide point information from the navigation device 6. The guidance point is, for example, a point set as the destination or waypoint of the host vehicle. The guide point information is, for example, destination facility information (facility location, icons representing facilities, etc.) or transit location facility information (facility locations, icons representing facilities, etc.), which is one of additional information. It is.
The driving situation estimation unit 8 performs the same operation as in the first embodiment.
Thereafter, the estimated arrival time estimation unit 30 uses the vehicle position acquired by the information acquisition unit 7 from the GPS sensor 3, the map data acquired from the navigation device 6, and the guide point information, from the host vehicle to the guide point. Find the distance. The estimated arrival time estimation unit 30 divides the obtained distance by the vehicle speed acquired from the vehicle speed sensor 2 by the information acquisition unit 7 to estimate the time of arrival at the guidance point, and the time required to arrive at the guidance point Is estimated.
The estimated arrival time estimation unit 30 may acquire information on the estimated arrival time from the navigation device 6 instead of estimating the estimated arrival time by itself.
 到着予定時刻推定部30が到着に要する時間を推定した後、表示対象情報生成部9が実施の形態1と同様に表示対象情報を生成する。その際、表示対象情報生成部9は、案内地点情報から、目的地または経由地となる施設を表すアイコンなどの表示対象情報を生成する。
 その後、表示位置判定部10は、到着予定時刻推定部30が推定した到着に要する時間、表示対象情報生成部9が生成した表示対象情報、および運転状況推定部8が推定した運転者15の焦点位置を用いて、表示対象情報を表示する奥行き方向の位置を判定する。
After the estimated arrival time estimation unit 30 estimates the time required for arrival, the display target information generation unit 9 generates display target information as in the first embodiment. At that time, the display target information generation unit 9 generates display target information such as an icon representing a facility that is a destination or waypoint from the guide point information.
Thereafter, the display position determination unit 10 determines the time required for arrival estimated by the estimated arrival time estimation unit 30, the display target information generated by the display target information generation unit 9, and the focus of the driver 15 estimated by the driving situation estimation unit 8. The position in the depth direction for displaying the display target information is determined using the position.
 図11は、実施の形態3の基準レイヤL1、近距離付加レイヤL2、遠距離付加レイヤL3、および案内地点用付加レイヤL31を説明する模式図である。実施の形態3では、到着予定時刻推定部30が推定した到着に要する時間に合わせて奥行き方向の位置を変更可能な案内地点用付加レイヤL31が追加されている。案内地点用付加レイヤL31の奥行き方向における移動範囲は任意に設定可能であり、例えば、遠距離付加レイヤL3から近距離付加レイヤL2までの範囲とする。目的地または経由地となる施設を表すアイコン31等の案内地点情報の表示対象情報は、案内地点用付加レイヤL31に表示される。 FIG. 11 is a schematic diagram illustrating the reference layer L1, the short-distance addition layer L2, the long-distance addition layer L3, and the guide point addition layer L31 according to the third embodiment. In the third embodiment, a guide point additional layer L31 that can change the position in the depth direction according to the time required for arrival estimated by the estimated arrival time estimation unit 30 is added. The movement range in the depth direction of the guidance point additional layer L31 can be arbitrarily set, and is, for example, a range from the long-distance addition layer L3 to the short-distance addition layer L2. The display target information of the guide point information such as the icon 31 representing the facility that is the destination or waypoint is displayed on the guide point additional layer L31.
 図12は、実施の形態3における表示位置判定部10の動作を示すフローチャートである。
 図12において実施の形態1の図7と異なるのは、ステップST27,ST28が追加された点である。
 ステップST27において、表示位置判定部10は、付加情報が案内地点情報か否かを判定する。表示位置判定部10は、付加情報が案内地点情報である場合にステップST28へ進み、付加情報が案内地点情報でない場合にステップST25へ進む。
FIG. 12 is a flowchart showing the operation of the display position determination unit 10 according to the third embodiment.
12 differs from FIG. 7 of the first embodiment in that steps ST27 and ST28 are added.
In step ST27, the display position determination unit 10 determines whether the additional information is guidance point information. The display position determination unit 10 proceeds to step ST28 when the additional information is guidance point information, and proceeds to step ST25 when the additional information is not guidance point information.
 付加情報が案内地点情報である場合(ステップST27“YES”)、表示位置判定部10は、到着予定時刻推定部30が推定した到着に要する時間に基づいて、案内地点情報を表示する案内地点用付加レイヤL31の奥行き方向の位置を設定し、その位置に案内地点情報を表示するための三次元映像を作成する(ステップST28)。 When the additional information is guidance point information (step ST27 “YES”), the display position determination unit 10 displays guidance point information based on the time required for arrival estimated by the estimated arrival time estimation unit 30. A position in the depth direction of the additional layer L31 is set, and a 3D image for displaying the guide point information at the position is created (step ST28).
 例えば、案内地点への到着予定時刻が1時間後の場合、案内地点用付加レイヤL31を遠距離付加レイヤL3と同じ位置に表示する。車両が走行を開始し、到着予定時刻が近づくにつれて案内地点用付加レイヤL31が手前側に移動し、到着予定時刻が30分後になると案内地点用付加レイヤL31は遠距離付加レイヤL3と近距離付加レイヤL2の中間位置にくる。案内地点に到着すると案内地点用付加レイヤL31が近距離付加レイヤL2と同じ位置にくる。運転者15は、到着予定時刻が近づくと案内地点情報の虚像が近づいてくるので、直感的に案内地点に到着するまでの時間を把握できる。
 このように、表示位置判定部10は、到着予定時刻に応じて案内地点情報の表示位置を連続的に変化させる。なお、案内地点情報の表示位置を、遠距離付加レイヤL3の位置、遠距離付加レイヤL3と遠距離付加レイヤL3の中間位置、近距離付加レイヤL2の位置に段階的に変化させてもよい。
For example, when the estimated arrival time at the guidance point is one hour later, the guidance point additional layer L31 is displayed at the same position as the long-distance addition layer L3. As the vehicle starts to travel and the estimated arrival time approaches, the guidance point additional layer L31 moves to the near side. When the estimated arrival time is 30 minutes later, the guidance point additional layer L31 is added to the long-distance addition layer L3. It is in the middle position of layer L2. Upon arrival at the guide point, the guide point additional layer L31 comes to the same position as the short-distance additional layer L2. Since the virtual image of the guidance point information approaches as the estimated arrival time approaches, the driver 15 can intuitively grasp the time until the arrival at the guidance point.
As described above, the display position determination unit 10 continuously changes the display position of the guide point information according to the estimated arrival time. Note that the display position of the guidance point information may be changed in stages to the position of the long-distance addition layer L3, the intermediate position between the long-distance addition layer L3 and the long-distance addition layer L3, and the position of the short-distance addition layer L2.
 上記説明では現在地から案内地点に到達するまでの時間に応じて案内地点用付加レイヤL31の位置を変更したが、代わりに、現在地から案内地点までの道のり距離に応じて案内地点用付加レイヤL31の位置を変更してもよい。
 あるいは、案内地点用付加レイヤL31において案内地点を矢印等で指し示す場合、現在地から案内地点までの直線距離に応じて案内地点用付加レイヤL31の位置を変更してもよい。
In the above description, the position of the guide point additional layer L31 is changed according to the time from the current location to the guide point. Instead, the guide point additional layer L31 is changed according to the distance from the current location to the guide point. The position may be changed.
Alternatively, when the guidance point is indicated by an arrow or the like in the guidance point addition layer L31, the position of the guidance point addition layer L31 may be changed according to the straight line distance from the current location to the guidance point.
 なお、案内地点情報を案内地点用付加レイヤL31に常時表示させる必要はない。そのため、表示位置判定部10は、例えば、自車両が案内地点に到達する所定時間前(例えば、10分前)に案内地点情報を案内地点用付加レイヤL31に表示開始するようにしてもよい。 Note that the guide point information need not always be displayed on the guide point additional layer L31. Therefore, the display position determination unit 10 may start displaying the guidance point information on the guidance point additional layer L31, for example, a predetermined time before the host vehicle reaches the guidance point (for example, 10 minutes before).
 上記説明では、実施の形態3の構成を実施の形態1の構成と組み合わせた場合を例にしたが、実施の形態2の構成と組み合わせても構わない。 In the above description, the case where the configuration of the third embodiment is combined with the configuration of the first embodiment is taken as an example, but the configuration may be combined with the configuration of the second embodiment.
 以上より、実施の形態3によれば、表示制御装置1は、案内地点に到着するまでの時間を推定する到着予定時刻推定部30を備える構成にした。表示位置判定部10は、付加情報が案内地点に関する情報の場合、当該付加情報を表示する案内地点用付加レイヤL31を、到着予定時刻推定部30により推定された時間に応じて変更する構成にした。このため、運転者15は、奥行き方向における案内地点情報の表示位置に基づいて、直感的に案内地点に到着するまでの時間を把握できる。 As described above, according to the third embodiment, the display control device 1 is configured to include the estimated arrival time estimation unit 30 that estimates the time until arrival at the guidance point. When the additional information is information related to the guide point, the display position determination unit 10 is configured to change the guide point additional layer L31 for displaying the additional information according to the time estimated by the estimated arrival time estimation unit 30. . For this reason, the driver 15 can intuitively grasp the time until arrival at the guidance point based on the display position of the guidance point information in the depth direction.
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, free combinations of the respective embodiments, modification of arbitrary components of the respective embodiments, or omission of arbitrary components of the respective embodiments are possible.
 この発明に係る表示制御装置は、情報の種類に応じて表示位置を別にしたので、表示する情報量が多い自動車等に搭載されるヘッドアップディスプレイなどに用いるのに適している。 Since the display control device according to the present invention has different display positions according to the type of information, it is suitable for use in a head-up display mounted on an automobile or the like having a large amount of information to be displayed.
 1 表示制御装置、2 車速センサ、3 GPSセンサ、4 運転モード取得部、5 対象物検出センサ、6 ナビゲーション装置、7 情報取得部、8 運転状況推定部、9 表示対象情報生成部、10 表示位置判定部、11 3D液晶ディスプレイ、12 フレネルレンズ、13 ハーフミラー、14 HUD、15 運転者、20 車速、21 案内矢印、22 警告、31 アイコン、L1 基準レイヤ、L2 近距離付加レイヤ、L3 遠距離付加レイヤ、L21 付加レイヤ、L31 案内地点用付加レイヤ、IR 右眼用画像、IL 左眼用画像、V 虚像。 1 display control device, 2 vehicle speed sensor, 3 GPS sensor, 4 driving mode acquisition unit, 5 object detection sensor, 6 navigation device, 7 information acquisition unit, 8 driving status estimation unit, 9 display target information generation unit, 10 display position Judgment part, 11 3D liquid crystal display, 12 Fresnel lens, 13 half mirror, 14 HUD, 15 driver, 20 vehicle speed, 21 guide arrow, 22 warning, 31 icon, L1 reference layer, L2 short distance addition layer, L3 long distance addition Layer, L21 additional layer, L31 additional point guide layer, IR right eye image, IL left eye image, V virtual image.

Claims (9)

  1.  表示対象情報の虚像を運転者の前方に表示するヘッドアップディスプレイを制御する表示制御装置であって、
     車両の運転状況に基づいて前記運転者の焦点位置を推定する運転状況推定部と、
     前記表示対象情報のうちの前記車両に関する車両情報を前記運転者から前方へ向かう奥行き方向が予め定められた基準位置に表示させるとともに、前記表示対象情報のうちの前記車両情報以外の付加情報を前記奥行き方向の位置が前記基準位置よりも前記奥行き方向の奥側であってかつその位置を変更可能な付加位置に表示させ、当該付加位置を前記運転状況推定部により推定された前記運転者の焦点位置に応じて変更する表示位置判定部とを備えることを特徴とする表示制御装置。
    A display control device that controls a head-up display that displays a virtual image of display target information in front of the driver,
    A driving situation estimation unit that estimates a focal position of the driver based on a driving situation of the vehicle;
    The vehicle information related to the vehicle in the display target information is displayed at a reference position in which a depth direction from the driver to the front is determined in advance, and additional information other than the vehicle information in the display target information is The focus of the driver whose position in the depth direction is farther in the depth direction than the reference position and is displayed at an additional position where the position can be changed, and the additional position is estimated by the driving situation estimation unit A display control apparatus comprising: a display position determination unit that changes according to a position.
  2.  前記運転状況推定部は、車速を推定可能な情報に基づいて、前記運転者の焦点位置を推定することを特徴とする請求項1記載の表示制御装置。 The display control apparatus according to claim 1, wherein the driving state estimation unit estimates a focus position of the driver based on information capable of estimating a vehicle speed.
  3.  前記車速を推定可能な情報は運転モードであることを特徴とする請求項2記載の表示制御装置。 3. The display control apparatus according to claim 2, wherein the information capable of estimating the vehicle speed is a driving mode.
  4.  前記運転状況推定部は、前記車速が大きいときは前記車速が小さいときに比して、前記付加位置を前記奥行き方向の奥側に変更することを特徴とする請求項2記載の表示制御装置。 3. The display control apparatus according to claim 2, wherein the driving state estimation unit changes the additional position to the far side in the depth direction when the vehicle speed is high compared to when the vehicle speed is low.
  5.  前記車両の前方に視認対象物が存在する場合、前記運転状況推定部は、現在の運転状況に基づいて推定した焦点位置を、当該推定した焦点位置より前記運転者に近い位置に変更することを特徴とする請求項4記載の表示制御装置。 When there is a visual recognition object in front of the vehicle, the driving situation estimation unit changes the focal position estimated based on the current driving situation to a position closer to the driver than the estimated focal position. The display control device according to claim 4, characterized in that:
  6.  前記車両が走行する道路の前方にカーブが存在する場合、前記運転状況推定部は、現在の運転状況に基づいて推定した焦点位置を、当該推定した焦点位置より前記運転者に近い位置に変更することを特徴とする請求項4記載の表示制御装置。 When there is a curve ahead of the road on which the vehicle travels, the driving situation estimation unit changes the focal position estimated based on the current driving situation to a position closer to the driver than the estimated focal position. The display control apparatus according to claim 4.
  7.  前記表示位置判定部は、前記付加情報が警告の場合、前記付加情報を前記基準位置に表示させることを特徴とする請求項1記載の表示制御装置。 The display control apparatus according to claim 1, wherein the display position determination unit displays the additional information at the reference position when the additional information is a warning.
  8.  前記表示位置判定部は、前記付加情報の表示に必要とされる解像度が予め定められた閾値以上の場合、前記付加情報を前記基準位置に表示させることを特徴とする請求項1記載の表示制御装置。 The display control according to claim 1, wherein the display position determination unit displays the additional information at the reference position when a resolution required for displaying the additional information is equal to or higher than a predetermined threshold. apparatus.
  9.  案内地点に到着するまでの時間を推定する到着予定時刻推定部を備え、
     前記表示位置判定部は、前記付加情報が前記案内地点に関する情報の場合、前記付加情報を表示する前記付加位置を、前記到着予定時刻推定部により推定された時間に応じて変更することを特徴とする請求項1記載の表示制御装置。
    It has an estimated arrival time estimation unit that estimates the time until it arrives at the guide point,
    When the additional information is information on the guide point, the display position determination unit changes the additional position for displaying the additional information according to the time estimated by the estimated arrival time estimation unit. The display control apparatus according to claim 1.
PCT/JP2014/076541 2014-10-03 2014-10-03 Display control device WO2016051586A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016551447A JP6184607B2 (en) 2014-10-03 2014-10-03 Display control device
PCT/JP2014/076541 WO2016051586A1 (en) 2014-10-03 2014-10-03 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076541 WO2016051586A1 (en) 2014-10-03 2014-10-03 Display control device

Publications (1)

Publication Number Publication Date
WO2016051586A1 true WO2016051586A1 (en) 2016-04-07

Family

ID=55629672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/076541 WO2016051586A1 (en) 2014-10-03 2014-10-03 Display control device

Country Status (2)

Country Link
JP (1) JP6184607B2 (en)
WO (1) WO2016051586A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226292A (en) * 2016-06-21 2017-12-28 株式会社デンソー On-vehicle display device
JP2018001906A (en) * 2016-06-30 2018-01-11 国立大学法人東京工業大学 Vehicle information display device
WO2018216553A1 (en) * 2017-05-22 2018-11-29 日本精機株式会社 Head-up display device
CN110312633A (en) * 2017-02-23 2019-10-08 松下知识产权经营株式会社 Image display system, image display method and program
WO2019225400A1 (en) * 2018-05-23 2019-11-28 京セラ株式会社 Image display device, image display system, head-up display, and mobile object
JP2019214273A (en) * 2018-06-12 2019-12-19 株式会社デンソー Display control device for movable body, display control method for movable body, and control program
WO2020003750A1 (en) * 2018-06-29 2020-01-02 株式会社デンソー Vehicle display control device, vehicle display control method, and control program
JP2021523595A (en) * 2018-05-04 2021-09-02 ハーマン インターナショナル インダストリーズ インコーポレイテッド Enhanced Augmented Reality Experience on Heads-Up Display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1068906A (en) * 1996-05-30 1998-03-10 Asahi Glass Co Ltd Holographic display device
JP2001021836A (en) * 1999-07-13 2001-01-26 Nissan Motor Co Ltd Display device for car
JP2005149175A (en) * 2003-11-17 2005-06-09 Casio Comput Co Ltd Display controller and program
JP2012081819A (en) * 2010-10-08 2012-04-26 Nissan Motor Co Ltd Hybrid vehicle control device
WO2012053030A1 (en) * 2010-10-19 2012-04-26 三菱電機株式会社 Three-dimensional display device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075886U (en) * 1993-06-25 1995-01-27 日本精機株式会社 Vehicle display
JPH11119147A (en) * 1997-10-14 1999-04-30 Asahi Optical Co Ltd Head up display
DE19816647C2 (en) * 1998-04-15 2000-12-14 Daimler Chrysler Ag Device for improving the contrast in a head-up display in a motor vehicle
JP2003237412A (en) * 2002-02-14 2003-08-27 Denso Corp Vehicular head-up display device
JP2004168230A (en) * 2002-11-21 2004-06-17 Nissan Motor Co Ltd Display device for vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1068906A (en) * 1996-05-30 1998-03-10 Asahi Glass Co Ltd Holographic display device
JP2001021836A (en) * 1999-07-13 2001-01-26 Nissan Motor Co Ltd Display device for car
JP2005149175A (en) * 2003-11-17 2005-06-09 Casio Comput Co Ltd Display controller and program
JP2012081819A (en) * 2010-10-08 2012-04-26 Nissan Motor Co Ltd Hybrid vehicle control device
WO2012053030A1 (en) * 2010-10-19 2012-04-26 三菱電機株式会社 Three-dimensional display device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226292A (en) * 2016-06-21 2017-12-28 株式会社デンソー On-vehicle display device
JP2018001906A (en) * 2016-06-30 2018-01-11 国立大学法人東京工業大学 Vehicle information display device
CN110312633A (en) * 2017-02-23 2019-10-08 松下知识产权经营株式会社 Image display system, image display method and program
JPWO2018216553A1 (en) * 2017-05-22 2020-03-26 日本精機株式会社 Head-up display device
WO2018216553A1 (en) * 2017-05-22 2018-11-29 日本精機株式会社 Head-up display device
US11187910B2 (en) 2017-05-22 2021-11-30 Nippon Seiki Co., Ltd. Head-up display device for adjusting display distances of virtual images
JP7437934B2 (en) 2017-05-22 2024-02-26 日本精機株式会社 heads up display device
JP2021523595A (en) * 2018-05-04 2021-09-02 ハーマン インターナショナル インダストリーズ インコーポレイテッド Enhanced Augmented Reality Experience on Heads-Up Display
JP7370340B2 (en) 2018-05-04 2023-10-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド Enhanced augmented reality experience on heads-up display
WO2019225400A1 (en) * 2018-05-23 2019-11-28 京セラ株式会社 Image display device, image display system, head-up display, and mobile object
JP2019214273A (en) * 2018-06-12 2019-12-19 株式会社デンソー Display control device for movable body, display control method for movable body, and control program
WO2019239709A1 (en) * 2018-06-12 2019-12-19 株式会社デンソー Moving body display control device, moving body display control method, and control program
JP7024619B2 (en) 2018-06-12 2022-02-24 株式会社デンソー Display control device for mobile body, display control method for mobile body, and control program
WO2020003750A1 (en) * 2018-06-29 2020-01-02 株式会社デンソー Vehicle display control device, vehicle display control method, and control program
JP2020001589A (en) * 2018-06-29 2020-01-09 株式会社デンソー Display control device for vehicle, display control method for vehicle, and control program

Also Published As

Publication number Publication date
JPWO2016051586A1 (en) 2017-04-27
JP6184607B2 (en) 2017-08-23

Similar Documents

Publication Publication Date Title
JP6184607B2 (en) Display control device
US10293748B2 (en) Information presentation system
JP4134785B2 (en) Display device
JP6176478B2 (en) Vehicle information projection system
JP4476719B2 (en) Navigation system
US10250860B2 (en) Electronic apparatus and image display method
JP2010143520A (en) On-board display system and display method
JP2015101311A (en) Vehicle information projection system
US11214279B2 (en) Controlling the operation of a head-up display apparatus
JP5327025B2 (en) Vehicle travel guidance device, vehicle travel guidance method, and computer program
WO2018203371A1 (en) Adjustment device, display system, and adjustment method
WO2019224922A1 (en) Head-up display control device, head-up display system, and head-up display control method
US20160062115A1 (en) Display system
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP2016074410A (en) Head-up display device and head-up display display method
JP6186905B2 (en) In-vehicle display device and program
WO2016056199A1 (en) Head-up display device, and display method for head-up display
US20210300183A1 (en) In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program
JP2007230491A (en) Visual sense information presentation device and visual sense information presentation method
JP2015065614A (en) Information display control apparatus
JP5182499B2 (en) Vehicle information presentation device
GB2584609A (en) Controller for a vehicle
WO2020158601A1 (en) Display control device, method, and computer program
KR102324280B1 (en) Head-up display system based on vehicle driving direction
WO2021039579A1 (en) Head-up display device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14902911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016551447

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14902911

Country of ref document: EP

Kind code of ref document: A1