JP2015077876A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2015077876A
JP2015077876A JP2013215647A JP2013215647A JP2015077876A JP 2015077876 A JP2015077876 A JP 2015077876A JP 2013215647 A JP2013215647 A JP 2013215647A JP 2013215647 A JP2013215647 A JP 2013215647A JP 2015077876 A JP2015077876 A JP 2015077876A
Authority
JP
Japan
Prior art keywords
display
image
driver
vehicle
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013215647A
Other languages
Japanese (ja)
Other versions
JP6107590B2 (en
Inventor
安田 一也
Kazuya Yasuda
一也 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013215647A priority Critical patent/JP6107590B2/en
Publication of JP2015077876A publication Critical patent/JP2015077876A/en
Application granted granted Critical
Publication of JP6107590B2 publication Critical patent/JP6107590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To properly control display range of an AR image that is displayed on a head-up display of a vehicle.SOLUTION: A head-up display device detects a line of site direction of a driver and a speed of an own vehicle, and according to the detected line of site direction and car speed, decides a display target range in front of the vehicle for displaying an AR (augmented reality) image. Among targets (100-107) present in front of the vehicle, the information related to the targets (100-102) contained in the decided display target range is specified. On a display where an image is projected by superposing on a front driving view of a driver of a vehicle, the AR images (200-202) based on the specified information are displayed at a position corresponding to a real scene of the corresponding targets (100-102).

Description

本発明は、車両の運転者の運転視界における実風景に画像を重畳して表示する車両用のヘッドアップディスプレイ装置に関する。   The present invention relates to a head-up display device for a vehicle that superimposes and displays an image on a real scene in the driving field of view of the driver of the vehicle.

従来、車両の運転者に施設等の情報を提供する形態として、運転者の運転視界内に存在する施設に関する情報を、車両のフロントウィンドウ付近に設けられたヘッドアップディスプレイに、施設の実風景と重なるように表示させる技術が知られている(例えば、特許文献1参照)。   Conventionally, as a form of providing information such as facilities to the driver of the vehicle, information on the facility existing in the driver's driving field of view is displayed on the head-up display provided near the front window of the vehicle and the actual scenery of the facility A technique for displaying images so as to overlap each other is known (for example, see Patent Document 1).

特開2005−208158号公報JP 2005-208158 A

この種の拡張現実(AR:Augmented Reality)を適用した技術によって、実風景に拡張現実の画像(以下、AR画像とも称する)を付加することで、運転者にとって有効な情報提供が可能になる。その一方で、AR画像が過剰に表示されると、運転の妨げとなったり、運転者が煩わしさを感じるおそれがある。そのため、AR画像が過剰に表示されないための工夫が求められる。   By adding an augmented reality image (hereinafter also referred to as an AR image) to a real landscape by a technology applying this type of augmented reality (AR), it is possible to provide information effective for the driver. On the other hand, if the AR image is displayed excessively, driving may be hindered or the driver may feel bothered. Therefore, a device for preventing the AR image from being excessively displayed is required.

この点について、例えば、運転者の視線の方向や、車両の速度による運転視界を流れる風景の速さ等の状況によって、運転視界において運転者がAR画像を認識しやすい場所が異なることが考えられる。例えば、運転者が視線を向けている方向にある対象物を認識しやすかったり、車両の速度が高いときには、近くよりも遠くにある対象物を認識しやすかったりする。運転者にとって認識しやすい場所にある対象物に付加されるAR情報は、運転者にとって有用な情報源となり得る。しかしながら、運転者にとって認識しやすい場所から外れた対象物に付加されるAR情報は、煩わしさや判断の遅れを誘発する等、弊害を伴う可能性がある。このような事情により、運転者や車両の状況に応じてAR画像を表示する範囲を適切に制限することで、過剰な表示を抑制することが有効と考えられる。   With regard to this point, for example, the location where the driver can easily recognize the AR image in the driving field of view differs depending on the direction of the driver's line of sight and the speed of the scenery flowing through the driving field of view due to the speed of the vehicle. . For example, it is easy to recognize an object in the direction in which the driver is looking, or when the vehicle speed is high, it is easy to recognize an object farther away. AR information added to an object in a place that is easily recognized by the driver can be a useful information source for the driver. However, AR information added to an object that is out of a place where it is easy for the driver to recognize may cause troubles such as inconvenience and a delay in judgment. Under such circumstances, it is considered effective to suppress excessive display by appropriately limiting the range in which the AR image is displayed according to the situation of the driver and the vehicle.

本発明は、上記課題を解決するためになされたものであり、車両のヘッドアップディスプレイに表示されるAR画像の表示範囲を適切に制御するための技術を提供することを目的とする。   The present invention has been made to solve the above problems, and an object thereof is to provide a technique for appropriately controlling the display range of an AR image displayed on a head-up display of a vehicle.

上記目的を達成するためになされた本発明は、車両の運転者の前方に配置されたウインドシールド又はコンバイナに画像を投影して、運転者の運転視界に画像を重畳して映し出すヘッドアップディスプレイ装置であって、視線検知手段、車速検知手段、決定手段、特定手段、表示手段、及び、制御手段を備える。   In order to achieve the above object, the present invention is directed to a head-up display device that projects an image onto a windshield or combiner disposed in front of a vehicle driver and superimposes the image on the driver's driving field of view. In this case, a line-of-sight detection unit, a vehicle speed detection unit, a determination unit, a specifying unit, a display unit, and a control unit are provided.

視線検知手段は、運転者の視線方向を検知する。車速検知手段は、車両の速度を検知する。決定手段は、視線検知手段により検知された視線方向と、車速検知手段により検知された速度とに応じて、車両の前方における表示対象範囲を決定する。特定手段は、車両の前方に存在する特定対象物のうち、決定手段により決定された表示対象範囲に含まれる特定対象物に関する情報を表す画像情報を特定する。表示手段は、特定手段により特定された画像情報を、運転者の前方の運転視界において視認される当該特定対象物の実風景に対応付けた位置で表示する。制御手段は、表示手段を制御する。   The line-of-sight detection means detects the direction of the driver's line of sight. The vehicle speed detection means detects the speed of the vehicle. The determining unit determines a display target range in front of the vehicle according to the line-of-sight direction detected by the line-of-sight detecting unit and the speed detected by the vehicle speed detecting unit. The specifying unit specifies image information representing information on the specific target included in the display target range determined by the determining unit among the specific target existing in front of the vehicle. The display means displays the image information specified by the specifying means at a position associated with the actual scenery of the specific object visually recognized in the driving field of view ahead of the driver. The control means controls the display means.

本発明によれば、検知された運転者の視線方向及び車速に応じて、特定対象物に関する情報を表すAR画像を表示するための表示対象範囲を決定し、その決定した表示対象範囲に含まれる特定対象物にのみAR画像を付加することができる。このようにすることで、運転者の視線方向及び車速の状況に応じて、運転者にとって認識しやすいAR画像のみが表示されるように表示対象範囲を制御できるので、無条件にAR画像を表示する場合と比較して過剰な表示を抑制できる。   According to the present invention, a display target range for displaying an AR image representing information on a specific object is determined according to the detected driver's line-of-sight direction and vehicle speed, and the display target range is included in the determined display target range. An AR image can be added only to a specific object. In this way, the display target range can be controlled so that only the AR image that is easy for the driver to recognize is displayed according to the driver's line-of-sight direction and vehicle speed, so the AR image is displayed unconditionally. Excessive display can be suppressed as compared with the case of doing so.

ヘッドアップディスプレイシステムの概略構成を示すブロック図。The block diagram which shows schematic structure of a head-up display system. AR画像表示処理の手順を示すフローチャート。The flowchart which shows the procedure of AR image display processing. AR画像の表示例を示す説明図。Explanatory drawing which shows the example of a display of AR image. AR画像の表示例を示す説明図。Explanatory drawing which shows the example of a display of AR image. AR画像の表示対象範囲を制限しない場合の参考例を示す説明図。Explanatory drawing which shows the reference example when not restrict | limiting the display object range of AR image.

以下、本発明の一実施形態を図面に基づいて説明する。なお、本発明は下記の実施形態に限定されるものではなく様々な態様にて実施することが可能である。
[ヘッドアップディスプレイシステムの構成の説明]
実施形態のヘッドアップディスプレイシステムは、車両に搭載され、車両の前方に存在する施設等の対象物に関する情報を、運転席の前方に配置されたウインドシールド(フロントウィンドウ)又はコンバイナ(ハーフミラー)32に投影して、運転者が視認する運転視界における実風景に重ねて表示するものである。図1に示すように、本実施形態のヘッドアップディスプレイシステムは、HUD描画ECU10と、HUD描画ECU10に接続される状態検知部12、AR情報データベース22、ナビゲーション装置24、外部情報取得部26、操作入力部28、HUD30表示部とを備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In addition, this invention is not limited to the following embodiment, It is possible to implement in various aspects.
[Description of head-up display system configuration]
The head-up display system according to the embodiment includes a windshield (front window) or a combiner (half mirror) 32 that is mounted on a vehicle and displays information related to an object such as a facility that exists in front of the vehicle. It is projected on the screen and displayed superimposed on the actual scenery in the driving field of view visually recognized by the driver. As shown in FIG. 1, the head-up display system of the present embodiment includes a HUD drawing ECU 10, a state detection unit 12 connected to the HUD drawing ECU 10, an AR information database 22, a navigation device 24, an external information acquisition unit 26, an operation An input unit 28 and a HUD 30 display unit are provided.

状態検知部12は、車両や運転者の状態に関連する各種情報をHUD描画ECU10に入力するための各種センサ及び制御装置群である。この状態検知部12には、前方検知部14、衝突防止制御部16、車速検知部18、運転者状態検知部20、視点時間判定部21が含まれる。前方検知部14は、自車両前方の走行路上に存在する他車両や歩行者等の障害物を検知するセンサであり、例えば、カメラ、ミリ波レーダ、レーザレーダ、車車間通信用無線機等で具現化される。これらのカメラ、レーダ、無線機等を、単独で用いる構成であってもよいし、複合して用いる構成であってもよい。衝突防止制御部16は、前方検知部14による検知結果に基づき、走行路上の障害物(車両、歩行者)に衝突する可能性があると判断したときに、警報やブレーキアシスト等の車両制御を自動的に行う車両制御装置である。車速検知部18は、自車両の速度を検知するセンサである。運転者状態検知部20は、車内カメラにより撮像された運転者の顔画像から、顔位置、顔向き、視線方向といった運転者の状態を検知する装置である。視点時間判定部21は、運転者の視点方向の検知結果に基づき、運転者が特定の場所を注視している時間を計測する装置である。   The state detection unit 12 is a group of various sensors and control devices for inputting various information related to the state of the vehicle or the driver to the HUD drawing ECU 10. The state detection unit 12 includes a front detection unit 14, a collision prevention control unit 16, a vehicle speed detection unit 18, a driver state detection unit 20, and a viewpoint time determination unit 21. The front detection unit 14 is a sensor that detects obstacles such as other vehicles and pedestrians existing on the traveling road ahead of the host vehicle. For example, a camera, a millimeter wave radar, a laser radar, a radio for inter-vehicle communication, etc. Embodied. These cameras, radars, radios, etc. may be used alone or in combination. When the collision prevention control unit 16 determines that there is a possibility of colliding with an obstacle (vehicle, pedestrian) on the traveling road based on the detection result by the front detection unit 14, vehicle control such as warning and brake assist is performed. It is a vehicle control device that performs automatically. The vehicle speed detector 18 is a sensor that detects the speed of the host vehicle. The driver state detection unit 20 is a device that detects a driver's state such as a face position, a face direction, and a line-of-sight direction from a driver's face image captured by an in-vehicle camera. The viewpoint time determination unit 21 is a device that measures the time during which the driver is gazing at a specific place based on the detection result of the driver's viewpoint direction.

AR情報データベース22は、運転者に提示するAR画像を表示させるための情報を記憶する記憶装置である。このAR情報データベース22には、AR画像の表示対象である特定の対象物(例えば、施設)の名称や、属性、位置、提供する情報内容等を表すデータが多数記憶されている。AR画像の表示対象である特定の対象物としては、例えば、店舗、集客施設、食事施設、休憩施設、名所、催事場、登録施設(例えば、経路案内の目的地)等が例示される。   The AR information database 22 is a storage device that stores information for displaying an AR image to be presented to the driver. The AR information database 22 stores a large amount of data representing the name, attribute, position, information content to be provided, and the like of a specific object (for example, a facility) that is an AR image display target. Examples of the specific object that is the display target of the AR image include a store, a customer collection facility, a dining facility, a resting facility, a sight, an event venue, a registered facility (for example, a destination for route guidance), and the like.

ナビゲーション装置24は、自車両の現在地と地図データとに基づいて経路案内を行う周知のナビゲーションシステムを構成する装置である。ナビゲーション装置24は、GPS(Global Positioning System)受信機や自律航法用のセンサによる測位結果と、地図データを利用したマップマッチングにより、道路上における自車両の現在地や進行方位を特定する。ナビゲーション装置24が経路案内に用いる地図データには、交差点及び道路の接続状況や位置、形状等を示す道路データや、地図上に存在する施設の位置、形状、名称、属性等を示す施設データ等が含まれている。ナビゲーション装置24は、自車両の道路上における現在地及び進行方位、道路データ、AR画像の表示対象である施設に関する施設データをHUD描画ECU10に提供する。なお、ナビゲーション装置24のその他の機能や構成については公知技術に従っているので、ここでの詳細な説明は省略する。   The navigation device 24 is a device that constitutes a known navigation system that performs route guidance based on the current location of the host vehicle and map data. The navigation device 24 identifies the current location and traveling direction of the host vehicle on the road based on a positioning result obtained by a GPS (Global Positioning System) receiver or an autonomous navigation sensor and map matching using map data. The map data used by the navigation device 24 for route guidance includes road data indicating the connection status, position, shape, etc. of intersections and roads, facility data indicating the position, shape, name, attributes, etc. of facilities existing on the map, etc. It is included. The navigation device 24 provides the HUD drawing ECU 10 with the present location and traveling direction on the road of the host vehicle, road data, and facility data regarding the facility that is the display target of the AR image. Since other functions and configurations of the navigation device 24 are in accordance with known techniques, a detailed description thereof is omitted here.

外部情報取得部26は、AR画像の表示対象である施設に関する情報を外部の装置から取得するためのものである。外部情報取得部26は、例えば、インターネットに通信接続するための通信装置や、運転者が所有する高機能携帯電話(スマートフォン)等の携帯通信端末と通信するための通信装置、あるいは車車間通信を行うための通信装置等で具現化される。外部情報取得部26は、インターネット上のウェブサーバや、携帯通信端末、あるいは自車両周辺に存在する他車両等にアクセスしてAR画像の表示対象である様々な施設に関する情報を取得し、HUD描画ECU10に提供する。   The external information acquisition unit 26 is for acquiring information related to a facility that is an AR image display target from an external device. The external information acquisition unit 26 performs, for example, a communication device for communication connection to the Internet, a communication device for communication with a mobile communication terminal such as a high-function mobile phone (smart phone) owned by the driver, or inter-vehicle communication. It is embodied in a communication device or the like for performing. The external information acquisition unit 26 accesses a web server on the Internet, a mobile communication terminal, or other vehicles existing around the host vehicle, acquires information related to various facilities that are the display target of the AR image, and performs HUD drawing. Provided to the ECU 10.

操作入力部28は、運転者からの操作指示を入力するための入力装置である。操作入力部28は、例えば、各種車載機器の操作を運転者の手元で操作可能なポインティングデバイス(いわゆるリモートタッチコントローラ)や、運転者から入力される音声から認識したコマンドを入力する音声認識装置、ステアリングホイールやコンソールに取付けられた操作スイッチ等で具現化される。本実施形態のヘッドアップディスプレイシステムでは、この操作入力部28を用いることで、AR画像の表示のオン/オフを切替えることができるようになっている。また、この操作入力部28を構成するポインティングデバイスや音声認識装置を用いることで、HUD表示部30が表示しているAR画像の中から、任意のAR画像を指定できるようになっている。   The operation input unit 28 is an input device for inputting an operation instruction from the driver. The operation input unit 28 is, for example, a pointing device (so-called remote touch controller) capable of operating various on-vehicle devices at the driver's hand, a voice recognition device that inputs a command recognized from a voice input from the driver, It is embodied by an operation switch attached to the steering wheel or console. In the head-up display system of the present embodiment, the operation input unit 28 is used to switch on / off the display of the AR image. In addition, by using a pointing device or a voice recognition device that constitutes the operation input unit 28, an arbitrary AR image can be designated from the AR images displayed on the HUD display unit 30.

HUD表示部30は、運転者前方に設けられたウインドシールド又はコンバイナ32に映像を投射することで、画像を運転者の運転視界における実風景に重ねて見せる表示装置である。HUD表示部30は、例えば、LED光源やハロゲンランプ光源からの光を透過型液晶ディスプレイ又は反射型ディスプレイに投射して画像を描画し、ディスプレイに描画された画像をウインドシールド又はコンバイナ32に投影する構成が例示される。あるいは、画像を形成するレーザ光源からの光をMEMSで構成されたミラーで反射して、ウインドシールド又はコンバイナ32に画像を投影する構成であってもよい。これらの手法によってウインドシールド又はコンバイナ32により投影された画像は、運転者からは、遠方に表示されているような虚像として認識される。   The HUD display unit 30 is a display device that projects an image on a windshield or combiner 32 provided in front of the driver so that the image is superimposed on an actual scene in the driver's driving field of view. For example, the HUD display unit 30 projects an image by projecting light from an LED light source or a halogen lamp light source onto a transmissive liquid crystal display or a reflective display, and projects the image rendered on the display onto a windshield or combiner 32. The configuration is illustrated. Or the structure which reflects the light from the laser light source which forms an image with the mirror comprised by MEMS, and projects an image on the windshield or the combiner 32 may be sufficient. An image projected by the windshield or combiner 32 by these methods is recognized as a virtual image displayed far away from the driver.

HUD描画ECU10は、CPU、ROM、RAM、GDC、外部装置との入出力ポート等を備える電子制御装置(ECU:Electronic Control Unit)である。このHUD描画ECU10は、格納されているプログラムに従ってシステム全体を統括制御する。HUD描画ECU10がAR画像をHUD表示部30に表示させる処理の概要は次のとおりである。   The HUD drawing ECU 10 is an electronic control unit (ECU) including a CPU, a ROM, a RAM, a GDC, an input / output port with an external device, and the like. The HUD drawing ECU 10 performs overall control of the entire system according to a stored program. The outline of the process in which the HUD drawing ECU 10 displays the AR image on the HUD display unit 30 is as follows.

HUD描画ECU10は、ナビゲーション装置24から自車両の現在地や進行方位、地図データを取得する。また、AR情報データベース22、ナビゲーション装置24及び外部情報取得部26からAR画像の表示対象となる施設に関する情報を取得する。なお、AR画像の表示対象となる施設に関する情報には、第1段階で表示するための見出し情報と、第2段階や第3段階で表示するための詳細情報とが含まれるものとする。HUD描画ECU10は、取得した各種情報に基づいて、車両の前方に存在するAR画像の表示対象となる視認可能な施設を特定する。そして、HUD描画ECU10は、自車両と施設との距離や相対方位、運転者の顔位置や顔向き等に基づいて、特定された施設が実際に運転者に視認される位置の近傍に当該施設に対応するAR画像が映し出されるように、AR画像の表示位置を演算する。HUD描画ECU10は、演算の結果得られた表示位置に基づいてAR画像を描画し、描画したAR画像をHUD表示部30に表示させる。   The HUD drawing ECU 10 acquires the current location, traveling direction, and map data of the host vehicle from the navigation device 24. In addition, information about the facility that is the display target of the AR image is acquired from the AR information database 22, the navigation device 24, and the external information acquisition unit 26. Note that the information regarding the facility that is the display target of the AR image includes heading information to be displayed at the first stage and detailed information to be displayed at the second and third stages. The HUD drawing ECU 10 specifies a visually recognizable facility that is a display target of the AR image existing in front of the vehicle based on the acquired various information. Then, the HUD drawing ECU 10 detects the facility in the vicinity of the position where the identified facility is actually visually recognized by the driver based on the distance and relative orientation between the host vehicle and the facility, the face position and the face direction of the driver, and the like. The display position of the AR image is calculated so that the AR image corresponding to is projected. The HUD drawing ECU 10 draws an AR image based on the display position obtained as a result of the calculation, and causes the HUD display unit 30 to display the drawn AR image.

このようにして、運転者の運転視界内に存在する施設に関するAR画像を、運転者が視認する施設の実風景の位置と対応付けて表示させることができる。なお、HUD描画ECU10は、自車両前方の実風景全体の中から、AR画像を表示する対象となる一部の表示対象範囲を運転者の視線方向及び車速に応じて決定し、決定した表示対象範囲に含まれる施設のAR画像のみを表示するようになっている。この一連の処理の詳細な手順については後述する。   In this way, the AR image related to the facility existing in the driver's driving field of view can be displayed in association with the position of the actual scenery of the facility visually recognized by the driver. The HUD drawing ECU 10 determines a part of the display target range for displaying the AR image in accordance with the driver's line-of-sight direction and the vehicle speed from the entire actual scenery in front of the host vehicle, and determines the display target thus determined. Only AR images of facilities included in the range are displayed. Detailed procedures of this series of processing will be described later.

[AR画像表示処理の説明]
HUD描画ECU10が実行するAR画像表示処理の手順について、図2のフローチャートを参照しながら説明する。この処理は、操作入力部28によってAR画像の表示がオンに指定されていることを条件に実行される処理である。
[Description of AR image display processing]
The procedure of the AR image display process executed by the HUD drawing ECU 10 will be described with reference to the flowchart of FIG. This process is a process that is executed on condition that the display of the AR image is designated ON by the operation input unit 28.

S100では、HUD描画ECU10は、衝突防止制御部16による衝突危険性の判断状況に基づいて、自車両が障害物と衝突する可能性がないかを判定する。衝突の可能性がないと判断された場合(S100:YES)、HUD描画ECU10はS102に進む。S102では、HUD描画ECU10は、運転者状態検知部20による運転者の現在の視線方向の検知結果を取得する。S104では、HUD描画ECU10は、車速検知部18による車両の現在の速度の検知結果を取得する。   In S <b> 100, the HUD drawing ECU 10 determines whether or not there is a possibility that the host vehicle collides with an obstacle based on the determination status of the collision risk by the collision prevention control unit 16. When it is determined that there is no possibility of a collision (S100: YES), the HUD drawing ECU 10 proceeds to S102. In S <b> 102, the HUD drawing ECU 10 acquires the detection result of the driver's current line-of-sight direction by the driver state detection unit 20. In S <b> 104, the HUD drawing ECU 10 acquires the detection result of the current speed of the vehicle by the vehicle speed detection unit 18.

そして、S106では、HUD描画ECU10は、S102で取得した運転者の視線方向と、S104で取得した車速とに基づいて、車両前方におけるAR画像の表示対象となる領域である表示対象範囲を決定する。具体的には、HUD描画ECU10は、車両の進行方向正面に向かって左右方向の視線の向きに応じて、表示対象範囲の横方向の範囲を決定する。例えば、運転者の視線が進行方向正面に向かって右側に向いている場合、進行方向正面より右側の領域を表示対象範囲の横方向の範囲とする。反対に、運転者の視線が進行方向正面に向かって左側に向いている場合、進行方向正面より左側の領域を表示対象範囲の横方向の範囲とする。   In S106, the HUD drawing ECU 10 determines a display target range, which is an AR image display target in front of the vehicle, based on the driver's line-of-sight direction acquired in S102 and the vehicle speed acquired in S104. . Specifically, the HUD drawing ECU 10 determines the horizontal range of the display target range according to the direction of the line of sight in the left-right direction toward the front in the traveling direction of the vehicle. For example, when the driver's line of sight is directed to the right in the direction of travel, the region on the right side of the front in the direction of travel is set as the lateral range of the display target range. On the other hand, when the driver's line of sight is directed to the left in the front direction of travel, the region on the left side of the front in the direction of travel is defined as the lateral range of the display target range.

また、HUD描画ECU10は、車速の高低度合に応じて、表示対象範囲の進行方向正面に向けた距離範囲を決定する。ここでいう距離範囲とは、自車両の位置から表示対象範囲の近端側及び縁端までの距離で表される範囲である。例えば、車速が比較的高いときには、車速が比較的低いときよりも自車両から遠方の範囲を表示対象範囲に決定する。車速が高い場合、運転視界の風景が早く流れるためAR画像を表示できる期間が短くなる。そこで、車速が高いときは早い段階でAR画像を表示することで、運転者が表示されたAR画像を把握する時間的余裕を与えることができる。   Further, the HUD drawing ECU 10 determines a distance range facing the front in the traveling direction of the display target range according to the level of the vehicle speed. The distance range here is a range represented by the distance from the position of the host vehicle to the near end and the edge of the display target range. For example, when the vehicle speed is relatively high, a range farther from the host vehicle is determined as the display target range than when the vehicle speed is relatively low. When the vehicle speed is high, the scenery in which the driving field of view flows quickly, the period during which the AR image can be displayed is shortened. Therefore, when the vehicle speed is high, the AR image is displayed at an early stage, so that a time margin for the driver to grasp the displayed AR image can be provided.

反対に、車速が比較的低いときには、車速が比較的高いときよりも自車両からより近方の範囲を表示対象範囲に決定する。車速が低い場合、運転視界の風景がゆっくりと流れるため、運転者がAR画像を把握する時間的余裕がある。そこで、より近くでAR画像を表示することで、遠方から長々とAR画像が表示され続けることによる煩わしさを低減できる。なお、表示対象範囲の距離範囲と車速との対応関係は、設計値としてメモリ等に予め登録してくことが考えらえる。あるいは、表示対象範囲の距離範囲と車速との対応関係を定義する設定値を、運転者が選択できるように構成することが考えられる。   Conversely, when the vehicle speed is relatively low, a range closer to the host vehicle is determined as the display target range than when the vehicle speed is relatively high. When the vehicle speed is low, the scenery of the driving field of view flows slowly, so that the driver has time to grasp the AR image. Therefore, by displaying the AR image closer, it is possible to reduce the troublesomeness caused by continuing to display the AR image from a long distance. Note that the correspondence relationship between the distance range of the display target range and the vehicle speed may be registered in advance in a memory or the like as a design value. Alternatively, it is conceivable that the driver can select a setting value that defines the correspondence between the distance range of the display target range and the vehicle speed.

次のS108では、HUD描画ECU10は、自車両の前方に存在する施設等の対象物のうち、S106で決定した表示対象範囲内に位置する対象物に対応するAR画像に関する情報を特定する。具体的には、AR情報データベース22、ナビゲーション装置24及び外部情報取得部26から取得された施設に関する情報の中から、運転者の運転視界で視認可能であって、表示対象範囲内に位置する施設に関する情報を特定する。   In next S108, the HUD drawing ECU 10 specifies information related to the AR image corresponding to the object located within the display target range determined in S106 among the objects such as the facilities existing in front of the host vehicle. Specifically, facilities that are visible in the driver's driving field of view from the information about the facilities acquired from the AR information database 22, the navigation device 24, and the external information acquisition unit 26, and are located within the display target range Identify information about.

このとき、AR画像の表示対象となる施設を、施設の属性に応じて選別するような構成であってもよい。例えば、AR画像の表示対象となる施設の種類(店舗、集客施設、食事施設、休憩施設、名所、催事場、登録施設等)を運転者が指定できるように構成することが考えられる。この場合、HUD描画ECU10は、表示対象範囲内に位置する施設の中から、指定された施設の種類に該当する施設をAR画像の表示対象にする。あるいは、時間帯に応じてAR画像の表示対象となる施設の種類を決定するように構成することも考えられる。例えば、現在時刻がランチタイムやディナータイムに該当する場合、HUD描画ECU10が、表示対象範囲内に位置する施設の中から食事施設をAR画像の表示対象にする。あるいは、大売出しやタイムサービス、催事といった適用期間が限定される情報を運転車側に伝達する場合、期間限定の情報を割込画像としてAR画像の表示対象にすることも考えられる。   At this time, the structure which sorts | selects the facility used as the display object of AR image according to the attribute of a facility may be sufficient. For example, it is conceivable that the driver can specify the type of facility (store, customer collection facility, dining facility, rest facility, famous place, event hall, registered facility, etc.) that is the display target of the AR image. In this case, the HUD drawing ECU 10 sets a facility corresponding to the designated facility type among the facilities located within the display target range as a display target of the AR image. Alternatively, it may be configured to determine the type of facility that is the display target of the AR image according to the time zone. For example, when the current time corresponds to lunch time or dinner time, the HUD drawing ECU 10 sets a dining facility as a display target of an AR image from facilities located within the display target range. Alternatively, when information that is limited in application period, such as big sale, time service, or special event, is transmitted to the driver's car, it is possible to use the limited information as an interrupt image to be displayed as an AR image.

あるいは、AR画像の表示対象となる施設として、運転者の行動の履歴と関連性を有する施設を選択するような構成であってもよい。具体的には、HUD描画ECU10が、運転者が所持する高機能携帯電話を利用したWebページの閲覧履歴や検索履歴、電子メールの送受信履歴等の履歴情報を取得し、表示対象範囲内に位置する施設の中から、取得した履歴情報と関連性を有する施設をAR画像の表示対象にする。例えば、高機能携帯電話にラーメン店に関するWebページの閲覧履歴や検索履歴が保存されていた場合、ラーメン店をAR画像の表示対象とする。   Alternatively, it may be configured to select a facility having a relationship with a driver's behavior history as a facility to be displayed as an AR image. Specifically, the HUD drawing ECU 10 acquires history information such as a browsing history and search history of a web page using a high-performance mobile phone possessed by the driver, an e-mail transmission / reception history, and the like, and is located within the display target range. Among the facilities to be used, the facility having the relationship with the acquired history information is set as the display target of the AR image. For example, when a browsing history and a search history of a web page related to a ramen store are stored in a high-function mobile phone, the ramen store is set as an AR image display target.

次のS110では、HUD描画ECU10は、HUD表示部30が第1段階のAR画像を表示しているときに、そのAR画像の表示対象である施設を運転者が注視したか否かを判定する。ここでは、例えば、視点時間判定部21による検知結果を用いて、AR画像の表示対象である施設が存在する方向に運転者の視線方向が向いた状態のまま所定時間(例えば、0.3秒)以上継続したことを条件に、運転者が施設を注視したと判定する。運転者がAR画像の表示対象である施設を注視していない場合(S110:NO)、HUD描画ECU10はS112に進む。   In next S110, the HUD drawing ECU 10 determines whether or not the driver has watched the facility that is the display target of the AR image when the HUD display unit 30 displays the first-stage AR image. . Here, for example, using the detection result by the viewpoint time determination unit 21, a predetermined time (for example, 0.3 seconds) remains in a state where the driver's line-of-sight direction is in the direction in which the facility that is the display target of the AR image exists. ) It is determined that the driver has watched the facility on the condition that the operation has been continued. When the driver is not paying attention to the facility that is the display target of the AR image (S110: NO), the HUD drawing ECU 10 proceeds to S112.

S112では、HUD描画ECU10は、HUD表示部30が第1段階のAR画像を表示しているときに、表示されているAR画像の何れかを指定する操作指示が入力されたか否かを判定する。AR画像を指定する操作指示が入力されていない場合(S112:NO)、HUD描画ECU10はS114に進む。S114では、HUD描画ECU10は、S108で特定した表示対象範囲内の全ての施設に関するAR画像を描画する。ここでは、HUD描画ECU10は、表示対象の施設が運転者の運転視界において視認される位置の近傍に、当該施設に対応するAR画像が映し出されるように、AR画像の表示位置を演算する。そして、HUD描画ECU10は、演算により得られた表示位置に基づいてAR画像を描画する。なお、S112で描画されるAR画像には、第1段階で提供される情報として、施設に関する見出し情報が記述される。   In S112, the HUD drawing ECU 10 determines whether or not an operation instruction for designating any of the displayed AR images is input when the HUD display unit 30 displays the first-stage AR image. . When the operation instruction for specifying the AR image is not input (S112: NO), the HUD drawing ECU 10 proceeds to S114. In S114, the HUD drawing ECU 10 draws an AR image relating to all facilities within the display target range specified in S108. Here, the HUD drawing ECU 10 calculates the display position of the AR image so that the AR image corresponding to the facility is displayed in the vicinity of the position where the facility to be displayed is visually recognized in the driving field of view of the driver. Then, the HUD drawing ECU 10 draws the AR image based on the display position obtained by the calculation. In the AR image drawn in S112, headline information regarding the facility is described as information provided in the first stage.

次のS120では、HUD描画ECU10は、S114で描画した第1段階のAR画像の画像情報をHUD表示部30に出力し、HUD表示部30にAR画像を表示させる。このときのAR画像の表示例について、図3を参照しながら説明する。図3は、運転者の運転視界内において施設の実風景に重畳して表示されたAR画像の様子を模式的に表したものである。なお、図3の事例では、車両前方の運転視界内において、自車両が走行する道路の両脇に複数の施設100〜107が存在している状況を想定している。   In next S120, the HUD drawing ECU 10 outputs the image information of the first-stage AR image drawn in S114 to the HUD display unit 30, and causes the HUD display unit 30 to display the AR image. A display example of the AR image at this time will be described with reference to FIG. FIG. 3 schematically shows the state of the AR image displayed in a superimposed manner on the actual scenery of the facility in the driver's driving field of view. In the example of FIG. 3, it is assumed that a plurality of facilities 100 to 107 exist on both sides of the road on which the host vehicle travels in the driving field of view ahead of the vehicle.

図3に示す事例では、運転者の視線方向が自車両の進行方向に向かって右側に向いていることにより、AR画像の表示対象範囲が、自車両の進行方向に向かって右側に限定される。また、自車両の車速に基づいて、AR画像の表示対象範囲の前方の距離範囲が、自車両から正面に向かってAm〜Bmの範囲に限定されている。この表示対象範囲に含まれる施設は、施設100,101,102である。その結果、複数の施設100〜107のうち、表示対象範囲内に該当する施設100,101,102に対応する各AR画像200,201,202が、それぞれの施設の実風景の近傍に表示される。この第1段階で表示されるAR画像には、施設に関する見出し情報等を示す文字や図柄が記述されている。   In the example shown in FIG. 3, since the driver's line-of-sight direction is directed to the right side in the traveling direction of the host vehicle, the display target range of the AR image is limited to the right side in the traveling direction of the host vehicle. . Further, based on the vehicle speed of the host vehicle, the distance range ahead of the display target range of the AR image is limited to a range of Am to Bm from the host vehicle toward the front. The facilities included in this display target range are facilities 100, 101, and 102. As a result, among the plurality of facilities 100 to 107, the AR images 200, 201, and 202 corresponding to the facilities 100, 101, and 102 that fall within the display target range are displayed in the vicinity of the actual scenery of each facility. . In the AR image displayed in the first stage, characters and symbols indicating headline information regarding facilities are described.

図3の表示例に対する比較対象として、図3の事例と同じ運転視界において表示対象範囲を限定しないでAR画像を表示した状態を想定した参考例を、図5に例示する。図5に示す参考例では、運転者の視線方向や車速に関わらず、運転視界内に存在する施設100〜107について全てAR画像が付加されている。なお、本実施形態では、運転者の視線方向や車速に応じて表示対象範囲が制限されるため、図5に例示される態様の表示は行われない。   As a comparison target for the display example of FIG. 3, a reference example assuming a state in which an AR image is displayed without limiting the display target range in the same driving field of view as the example of FIG. 3 is illustrated in FIG. In the reference example shown in FIG. 5, AR images are added to all the facilities 100 to 107 existing in the driving field of view regardless of the driver's line-of-sight direction and vehicle speed. In the present embodiment, the display target range is limited according to the driver's line-of-sight direction and the vehicle speed, and therefore, the display of the aspect illustrated in FIG. 5 is not performed.

図2のフローチャートの説明に戻る。一方、S110において、第1段階のAR画像が表示されているときに、運転者がAR画像の表示対象である施設を注視したと判定した場合(S110:YES)、HUD描画ECU10はS116に進む。S116では、HUD描画ECU10は、注視された施設に関する第2段階のAR画像を描画する。あるいは、S112において、第1段階のAR画像が表示されているときに、その何れのAR画像を指定する操作指示が入力されたと判定した場合(S112:YES)、HUD描画ECU10はS118に進む。S118では、HUD描画ECU10は、操作入力部28を介して指定されたAR画像に対応する施設に関する第3段階のAR画像を描画する。S116及びS118では、HUD描画ECU10は、該当の施設が運転者の運転視界において視認される位置の近傍にAR画像が映し出されるように、第2段階又は第3段階のAR画像を描画する。なお、S116及びS118で描画されるAR画像には、第1段階で提供される情報よりも詳細な情報が記述される。   Returning to the flowchart of FIG. On the other hand, if it is determined in S110 that the driver has watched the facility that is the display target of the AR image when the first-stage AR image is displayed (S110: YES), the HUD drawing ECU 10 proceeds to S116. . In S116, the HUD drawing ECU 10 draws the second-stage AR image related to the facility that is watched. Alternatively, in S112, when it is determined that an operation instruction for designating any AR image is input when the first-stage AR image is displayed (S112: YES), the HUD drawing ECU 10 proceeds to S118. In S <b> 118, the HUD drawing ECU 10 draws the third-stage AR image related to the facility corresponding to the AR image designated via the operation input unit 28. In S116 and S118, the HUD drawing ECU 10 draws the second-stage or third-stage AR image so that the AR image is displayed in the vicinity of the position where the corresponding facility is visually recognized in the driver's driving field of view. In the AR image drawn in S116 and S118, more detailed information than the information provided in the first stage is described.

次のS120では、HUD描画ECU10は、S116又はS118で描画した第2段階又は第3段階のAR画像の画像情報をHUD表示部30に出力し、HUD表示部30にAR画像を表示させる。このときの表示例について、図4を参照しながら説明する。なお、図4の事例は、図3に例示された表示状況において、AR画像201が重畳して表示された施設101を運転者が注視したり、AR画像200〜202のうち、施設101に対応するAR画像201を指定する操作指示が入力された後の状況を想定している。施設101が注視されたり、施設101に対応するAR画像201が指定されることによって、図4に例示されるとおり、この施設101に対応する詳細な情報を提示するためのAR画像203が、第2段階又は第3段階のAR画像として新たに表示される。このとき、AR画像201の他に表示されていた第1段階のAR画像200,202は非表示となる。第1段階のAR画像201については、表示したままにしてもよいし、新たに表示されたAR画像203と入替えて非表示にしてもよい。あるいは、点滅切替表示にしてもよい。新たに表示されたAR画像203には、施設101に関する詳細情報(例えば、特売情報)を示す文字や図柄が記述される。   In the next S120, the HUD drawing ECU 10 outputs the image information of the second or third stage AR image drawn in S116 or S118 to the HUD display unit 30, and causes the HUD display unit 30 to display the AR image. A display example at this time will be described with reference to FIG. In the case of FIG. 4, in the display state illustrated in FIG. 3, the driver gazes at the facility 101 on which the AR image 201 is superimposed and corresponds to the facility 101 among the AR images 200 to 202. Assume a situation after an operation instruction for specifying an AR image 201 to be input is input. When the facility 101 is watched or the AR image 201 corresponding to the facility 101 is designated, an AR image 203 for presenting detailed information corresponding to the facility 101 is displayed as shown in FIG. It is newly displayed as an AR image of the second stage or the third stage. At this time, the first-stage AR images 200 and 202 other than the AR image 201 are not displayed. The first stage AR image 201 may be left displayed or may be hidden by replacing the newly displayed AR image 203. Alternatively, a blinking switching display may be used. In the newly displayed AR image 203, characters and symbols indicating detailed information (for example, sale information) regarding the facility 101 are described.

図2のフローチャートの説明に戻る。一方、S100において、衝突の可能性があると判断された場合(S100:NO)、HUD描画ECU10はS122に進む。S122では、HUD描画ECU10は、全てのAR画像の表示を停止(非表示)にする。そして、HUD描画ECU10はS100に戻る。   Returning to the flowchart of FIG. On the other hand, if it is determined in S100 that there is a possibility of a collision (S100: NO), the HUD drawing ECU 10 proceeds to S122. In S122, the HUD drawing ECU 10 stops (hides) display of all AR images. Then, the HUD drawing ECU 10 returns to S100.

[効果]
実施形態のヘッドアップディスプレイシステムによれば、以下の効果を奏する。検知された運転者の視線方向及び車速に応じて、運転視界中の施設等に関するAR画像を表示するための表示対象範囲を決定し、その決定した表示対象範囲に含まれる施設の実風景にのみAR画像を付加することができる。例えば、運転者の視線が向いている方向に限定してAR画像を表示させることで、AR画像を容易に視認できるようにすると共に、視線が向いていない視認しにくい領域における余分なAR画像を表示させないようにできる。また、車速が大きいときには遠方からAR画像を表示させ、車速が小さいときには近方でAR画像を表示させるといった具合に、車速の大小によるAR画像の認識性の違いを考慮した態様で表示対象範囲を決定できる。このように、運転者の視線方向及び車速の状況に応じて、運転者にとって認識しやすい態様でAR画像が表示されるように表示対象範囲を制御できるので(図3参照)、無条件にAR画像を表示する場合(図5参照)と比較して、認識性が向上すると共に過剰な表示を抑制できる。
[effect]
The head-up display system according to the embodiment has the following effects. In accordance with the detected driver's line-of-sight direction and vehicle speed, a display target range for displaying an AR image related to a facility or the like in the driving field of view is determined, and only the actual scenery of the facility included in the determined display target range An AR image can be added. For example, by displaying the AR image only in the direction in which the driver's line of sight is directed, the AR image can be easily visually recognized, and an extra AR image in an area where the line of sight is not easily viewed is difficult. You can prevent it from being displayed. In addition, the AR image is displayed from a distance when the vehicle speed is high, and the AR image is displayed near when the vehicle speed is low. Can be determined. In this way, the display target range can be controlled so that the AR image is displayed in a manner that is easy for the driver to recognize, depending on the driver's line-of-sight direction and vehicle speed (see FIG. 3). Compared with the case of displaying an image (see FIG. 5), the recognizability is improved and excessive display can be suppressed.

また、表示されているAR画像に対応する施設が注視されたり、表示されているAR画像を指定する操作指示を受付けることで、指定されたAR画像に該当する施設に関する詳細なAR情報(図4参照)を表示させることができる。これにより、運転者の意図をAR情報の表示の変化に反映させることができる。   Further, when a facility corresponding to the displayed AR image is watched or an operation instruction for designating the displayed AR image is received, detailed AR information regarding the facility corresponding to the designated AR image (FIG. 4). Reference) can be displayed. Thereby, the driver's intention can be reflected in the change in the display of the AR information.

[変形例]
上述の実施形態では、運転者の視線方向や車速に応じてAR画像の表示対象範囲を決定する事例について説明した。これに限らず、速度に応じて表示するAR画像のサイズを変更するような構成を更に備えてもよい。例えば、HUD描画ECU10は、検知した車速が高いほど、HUD表示部30に表示するためのAR画像を大きく描画することが考えられる。このようにすることで、運転視界の風景が速く流れる状況において、AR画像の認識性を向上できる。また、AR画像の表示対象である施設と運転者の距離に応じて、AR画像の大きさを可変させたり、運転者から見やすい位置に配置を変えることで、AR画像の視認性を向上できる。
[Modification]
In the above-described embodiment, the example in which the display target range of the AR image is determined according to the driver's line-of-sight direction and the vehicle speed has been described. Not only this but the structure which changes the size of AR image displayed according to speed may be further provided. For example, the HUD drawing ECU 10 may draw a larger AR image for display on the HUD display unit 30 as the detected vehicle speed is higher. In this way, it is possible to improve the recognizability of the AR image in a situation where the scenery of the driving field of view flows fast. Further, the visibility of the AR image can be improved by changing the size of the AR image or changing the arrangement so that the driver can easily see the AR image according to the distance between the facility that is the display target of the AR image and the driver.

10…HUD描画ECU、12…状態検知部、14…前方検知部、16…衝突防止制御部、18…車速検知部、20…運転者状態検知部、22…AR情報データベース、24…ナビゲーション装置、26…外部情報取得部、28…操作入力部、30…HUD表示部、32…ウインドシールド又はコンバイナ。   DESCRIPTION OF SYMBOLS 10 ... HUD drawing ECU, 12 ... State detection part, 14 ... Front detection part, 16 ... Collision prevention control part, 18 ... Vehicle speed detection part, 20 ... Driver state detection part, 22 ... AR information database, 24 ... Navigation apparatus, 26 ... External information acquisition unit, 28 ... Operation input unit, 30 ... HUD display unit, 32 ... Windshield or combiner.

Claims (4)

車両の運転者の前方に配置されたウインドシールド又はコンバイナに画像を投影して、前記運転者の運転視界に前記画像を重畳して映し出すヘッドアップディスプレイ装置であって、
前記運転者の視線方向を検知する視線検知手段(20,S102)と、
前記車両の速度を検知する車速検知手段(18,S104)と、
前記視線検知手段により検知された視線方向と、前記車速検知手段により検知された速度とに応じて、前記車両の前方における表示対象範囲を決定する決定手段(10,S106)と、
前記車両の前方に存在する特定対象物のうち、前記決定手段により決定された表示対象範囲に含まれる特定対象物に関する情報を表す画像情報を特定する特定手段(10,S108)と、
前記特定手段により特定された画像情報を、運転者の前方の運転視界において視認される当該特定対象物の実風景に対応付けた位置で表示する表示手段(30)と、
前記表示手段を制御する制御手段(10,S112)と、
を備えることを特徴とするヘッドアップディスプレイ装置。
A head-up display device that projects an image on a windshield or combiner arranged in front of a driver of a vehicle, and displays the image superimposed on the driving field of view of the driver,
Gaze detection means (20, S102) for detecting the gaze direction of the driver;
Vehicle speed detection means (18, S104) for detecting the speed of the vehicle;
A determining means (10, S106) for determining a display target range in front of the vehicle according to the line-of-sight direction detected by the line-of-sight detecting means and the speed detected by the vehicle speed detecting means;
A specifying means (10, S108) for specifying image information representing information related to the specific object included in the display target range determined by the determining means among the specific objects existing in front of the vehicle;
Display means (30) for displaying the image information specified by the specifying means at a position associated with the actual scenery of the specific object visually recognized in the driving field of view ahead of the driver;
Control means (10, S112) for controlling the display means;
A head-up display device comprising:
請求項1に記載のヘッドアップディスプレイ装置において、
前記表示手段によって表示されている特定の画像情報を指定する指示を運転者から受付ける受付手段(28)を備え、
前記制御手段(10,S114)は、前記受付手段により特定の画像情報を指定する操作指示を受付けた場合、その指定された画像情報に該当する特定対象物に関する第2の画像情報を前記表示手段に表示させること、
を特徴とするヘッドアップディスプレイ装置。
The head-up display device according to claim 1,
Receiving means (28) for receiving an instruction for designating specific image information displayed by the display means from the driver;
When the control means (10, S114) receives an operation instruction for designating specific image information by the accepting means, the display means displays second image information related to the specific object corresponding to the designated image information. To display
A head-up display device.
請求項1又は請求項2に記載のヘッドアップディスプレイ装置において、
前記決定手段は、前記表示対象範囲として、視線方向に基づいて運転視界に対する横方向の範囲を決定し、車速に基づいて車両から前方に向けた距離範囲を決定すること、
を特徴とするヘッドアップディスプレイ装置。
The head-up display device according to claim 1 or 2,
The determining means determines the range in the lateral direction with respect to the driving field of view based on the line-of-sight direction as the display target range, and determines the distance range directed forward from the vehicle based on the vehicle speed;
A head-up display device.
請求項1乃至請求項3の何れか1項に記載のヘッドアップディスプレイ装置において、
前記制御手段は、前記車速検知手段により検知れた車速に応じて、大きさの異なる前記画像情報を前記表示手段に表示させること、
を特徴とするヘッドアップディスプレイ装置。
The head-up display device according to any one of claims 1 to 3,
The control means causes the display means to display the image information having different sizes according to the vehicle speed detected by the vehicle speed detection means;
A head-up display device.
JP2013215647A 2013-10-16 2013-10-16 Head-up display device Active JP6107590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013215647A JP6107590B2 (en) 2013-10-16 2013-10-16 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013215647A JP6107590B2 (en) 2013-10-16 2013-10-16 Head-up display device

Publications (2)

Publication Number Publication Date
JP2015077876A true JP2015077876A (en) 2015-04-23
JP6107590B2 JP6107590B2 (en) 2017-04-05

Family

ID=53009727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013215647A Active JP6107590B2 (en) 2013-10-16 2013-10-16 Head-up display device

Country Status (1)

Country Link
JP (1) JP6107590B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101641834B1 (en) * 2015-06-12 2016-07-22 한양대학교 산학협력단 Method and System for Providing Real Time Information using Interactive Window in Vehicle
JP2016184294A (en) * 2015-03-26 2016-10-20 富士通株式会社 Display control method, display control program, and information processing apparatus
KR20190080749A (en) * 2017-12-28 2019-07-08 도요타지도샤가부시키가이샤 Vehicle on-board communication device and vehicle
US10423844B2 (en) 2017-09-27 2019-09-24 Toyota Jidosha Kabushiki Kaisha Personalized augmented reality vehicular assistance for color blindness condition
JP2020071415A (en) * 2018-11-01 2020-05-07 マクセル株式会社 Head-up display system
CN111201473A (en) * 2017-10-09 2020-05-26 奥迪股份公司 Method for operating a display device in a motor vehicle
DE112018004847T5 (en) 2017-08-31 2020-06-18 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOBILE OBJECT
US10696159B2 (en) 2016-02-18 2020-06-30 Ricoh Company, Ltd. Information providing apparatus
WO2021053843A1 (en) * 2019-09-18 2021-03-25 国立大学法人東海国立大学機構 Image display system, image display method, and computer program
US20210362597A1 (en) * 2018-04-12 2021-11-25 Lg Electronics Inc. Vehicle control device and vehicle including the same
CN114035884A (en) * 2021-12-07 2022-02-11 深圳市锐思华创技术有限公司 UI interaction design method of AR HUD train control system
CN114664101A (en) * 2015-09-25 2022-06-24 苹果公司 Augmented reality display system
WO2023063084A1 (en) * 2021-10-11 2023-04-20 株式会社小糸製作所 Image irradiation device, control method for image irradiation device, image generation device, head-up display, and cover

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JPH11119147A (en) * 1997-10-14 1999-04-30 Asahi Optical Co Ltd Head up display
JP2005208158A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display device for vehicle, image display method for the vehicle and image display program for the vehicle
JP2011123807A (en) * 2009-12-14 2011-06-23 Dainippon Printing Co Ltd Annotation display system, method and server device
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
JP2012068481A (en) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd Augmented reality expression system and method
JP2012162109A (en) * 2011-02-03 2012-08-30 Toyota Motor Corp Display apparatus for vehicle
JP2012242202A (en) * 2011-05-18 2012-12-10 Alpine Electronics Inc In-vehicle system
JP2013190255A (en) * 2012-03-13 2013-09-26 Alpine Electronics Inc Augmented reality system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165431A (en) * 1997-08-25 1999-03-05 Nippon Telegr & Teleph Corp <Ntt> Device and system for car navigation with scenery label
JPH11119147A (en) * 1997-10-14 1999-04-30 Asahi Optical Co Ltd Head up display
JP2005208158A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display device for vehicle, image display method for the vehicle and image display program for the vehicle
JP2011123807A (en) * 2009-12-14 2011-06-23 Dainippon Printing Co Ltd Annotation display system, method and server device
JP2012008290A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp Spectacle type display device and server
JP2012068481A (en) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd Augmented reality expression system and method
JP2012162109A (en) * 2011-02-03 2012-08-30 Toyota Motor Corp Display apparatus for vehicle
JP2012242202A (en) * 2011-05-18 2012-12-10 Alpine Electronics Inc In-vehicle system
JP2013190255A (en) * 2012-03-13 2013-09-26 Alpine Electronics Inc Augmented reality system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184294A (en) * 2015-03-26 2016-10-20 富士通株式会社 Display control method, display control program, and information processing apparatus
US10192332B2 (en) 2015-03-26 2019-01-29 Fujitsu Limited Display control method and information processing apparatus
KR101641834B1 (en) * 2015-06-12 2016-07-22 한양대학교 산학협력단 Method and System for Providing Real Time Information using Interactive Window in Vehicle
CN114664101A (en) * 2015-09-25 2022-06-24 苹果公司 Augmented reality display system
US10696159B2 (en) 2016-02-18 2020-06-30 Ricoh Company, Ltd. Information providing apparatus
DE112018004847T5 (en) 2017-08-31 2020-06-18 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOBILE OBJECT
US10423844B2 (en) 2017-09-27 2019-09-24 Toyota Jidosha Kabushiki Kaisha Personalized augmented reality vehicular assistance for color blindness condition
CN111201473A (en) * 2017-10-09 2020-05-26 奥迪股份公司 Method for operating a display device in a motor vehicle
KR102227103B1 (en) 2017-12-28 2021-03-12 도요타지도샤가부시키가이샤 Vehicle on-board communication device and vehicle
KR20190080749A (en) * 2017-12-28 2019-07-08 도요타지도샤가부시키가이샤 Vehicle on-board communication device and vehicle
US20210362597A1 (en) * 2018-04-12 2021-11-25 Lg Electronics Inc. Vehicle control device and vehicle including the same
JP2020071415A (en) * 2018-11-01 2020-05-07 マクセル株式会社 Head-up display system
JP7111582B2 (en) 2018-11-01 2022-08-02 マクセル株式会社 head up display system
WO2021053843A1 (en) * 2019-09-18 2021-03-25 国立大学法人東海国立大学機構 Image display system, image display method, and computer program
WO2023063084A1 (en) * 2021-10-11 2023-04-20 株式会社小糸製作所 Image irradiation device, control method for image irradiation device, image generation device, head-up display, and cover
CN114035884A (en) * 2021-12-07 2022-02-11 深圳市锐思华创技术有限公司 UI interaction design method of AR HUD train control system

Also Published As

Publication number Publication date
JP6107590B2 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP6107590B2 (en) Head-up display device
US10789490B2 (en) Method for calculating a display of additional information for an advertisement, a display unit, apparatus for carrying out the method, and transportation vehicle and computer program
CA3069114C (en) Parking assistance method and parking assistance device
US9827907B2 (en) Drive assist device
CN108351958B (en) Method and device for detecting frame line of parking space
JP6486474B2 (en) Display control device, display device, and display control method
JP4967015B2 (en) Safe driving support device
JP6459205B2 (en) Vehicle display system
US10232772B2 (en) Driver assistance system
JP6460019B2 (en) Vehicle control device
US20190244515A1 (en) Augmented reality dsrc data visualization
JP2016500352A (en) Systems for vehicles
JPWO2018078732A1 (en) Display control device, display device, and display control method
JP6969509B2 (en) Vehicle display control device, vehicle display control method, and control program
JP2010026708A (en) Driver assistance device, driver assistance method and driver assistance processing program
JP6396672B2 (en) Information display device and information display method
JP2023174676A (en) Vehicle display control device, method and program
JP2023165757A (en) Information display control device, information display control method, and information display control program
WO2020105685A1 (en) Display control device, method, and computer program
WO2016056199A1 (en) Head-up display device, and display method for head-up display
WO2017061183A1 (en) Human interface
JP2016197312A (en) Drive support display device
US11623654B2 (en) Systems and methods of assisting vehicle navigation
US20210197722A1 (en) Driving assistance device, driving situation information acquisition system, driving assistance method, and program
JP2016215770A (en) Image display apparatus for vehicle driver

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170220

R151 Written notification of patent or utility model registration

Ref document number: 6107590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250