JP2005313772A - Vehicular head-up display device - Google Patents

Vehicular head-up display device Download PDF

Info

Publication number
JP2005313772A
JP2005313772A JP2004134126A JP2004134126A JP2005313772A JP 2005313772 A JP2005313772 A JP 2005313772A JP 2004134126 A JP2004134126 A JP 2004134126A JP 2004134126 A JP2004134126 A JP 2004134126A JP 2005313772 A JP2005313772 A JP 2005313772A
Authority
JP
Japan
Prior art keywords
driver
display
image
vehicle
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004134126A
Other languages
Japanese (ja)
Inventor
Kiyomi Eimiya
清美 永宮
Masaaki Yamaoka
正明 山岡
Akihiro Ueda
晃宏 上田
Masafumi Uchihara
誠文 内原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004134126A priority Critical patent/JP2005313772A/en
Publication of JP2005313772A publication Critical patent/JP2005313772A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicular head-up display device for displaying information images in a dynamically superimposing manner on ever-changing objects carefully watched by a driver. <P>SOLUTION: The vehicular head-up display device comprises a display source for projecting a display image indicating predetermined information and a combiner for displaying the display image projected from the display source in the front visual field of a driver's seat. The display device is equipped with a specifying means for specifying a front object of the vehicle carefully watched by the driver, a distance measuring means for measuring a distance to the object watched by the driver specified by the specifying means, and an adjusting means for adjusting the display source and/or the combiner so as to superimpose/image-focus the display image on the object watched by the driver according to the distance measured by the distance measuring means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、概して、車両用ヘッドアップ・ディスプレイ装置に係り、特に、車両前方景色中の運転者が注視している物体に焦点距離を合わせて、副操作系インターフェースなどの情報画像を該注視物に重畳させて表示する車両用ヘッドアップ・ディスプレイ装置に関する。   The present invention generally relates to a head-up display device for a vehicle, and in particular, adjusts a focal distance to an object being watched by a driver in front of the vehicle and displays an information image such as a sub-operation system interface. The present invention relates to a vehicle head-up display device that superimposes and displays on a vehicle.

車両において車速などの車両情報やナビ情報などを示す画像を表示する装置として、ヘッドアップ・ディスプレイ(HUD)装置が周知である。   A head-up display (HUD) device is well known as a device for displaying an image indicating vehicle information such as vehicle speed or navigation information in a vehicle.

HUD装置による画像表示においては、ホログラム虚像と呼ばれる表示像をフロントガラスに設けられたコンバイナに投影する。コンバイナは、半反射ガラス(ハーフミラー)であって、運転者にとっては透過なガラスに見えるが、ホログラム虚像表示源からの光は反射するものである。   In the image display by the HUD device, a display image called a holographic virtual image is projected on a combiner provided on the windshield. The combiner is a semi-reflective glass (half mirror), which appears to be transparent to the driver, but reflects light from the hologram virtual image display source.

HUD装置により表示される画像は、フロントガラスに対して投影され、コンバイナによって反射された像であるため、運転者からはミラーによって長くされた光の経路分だけ奥まったように、すなわち車両前方に存在するかのように、見える。   Since the image displayed by the HUD device is an image projected onto the windshield and reflected by the combiner, it seems that the driver is deepened by the light path lengthened by the mirror, that is, in front of the vehicle. It looks as if it exists.

したがって、運転者は、HUD装置を利用すれば、走行中、インストゥルメント・パネルに視線を向けて目の焦点距離を合わせなくても、車両前方視界を見たまま、表示された情報を確認することができる。   Therefore, if the driver uses the HUD device, he / she can confirm the displayed information while looking at the vehicle front view without turning the line of sight to the instrument panel and adjusting the focal length of the eyes while driving. can do.

このようなHUD装置においては、表示されるホログラム虚像が運転者から見てどの程度車両前方に見えるように設定するかが問題となる。すなわち、HUD装置によって表示された情報画像が、運転者視点において、運転者が注視している車両前方物体(先行車両や建物など)や背景(無限遠)と遠近感が大幅に異なって見えれば、結局運転者は従前通り目の焦点距離を遠近で頻繁に切り替えなければならなくなる。   In such a HUD device, it becomes a problem how much the hologram virtual image to be displayed is set to be seen from the front of the vehicle when viewed from the driver. That is, if the information image displayed by the HUD device is viewed from the driver's viewpoint, the vehicle front object (preceding vehicle, building, etc.) or the background (infinite) that the driver is gazing at is significantly different from the perspective. Eventually, the driver will have to frequently change the focal length of the eye as usual.

そこで、従来、HUD装置により表示される情報画像の結像位置を、検出した運転者の視線方向や先行車両との車間距離に基づいて前後及び/又は左右に移動させ、運転者がHUD装置により表示された情報を見る際の目の焦点合わせや視線の移動などの負担を低減することを図った装置・方法が種々提案されている(例えば、特許文献1〜7参照)。
実開昭61−134437号公報 特開平6−247184号公報 特開平7−55941号公報 特開平7−257228号公報 特開平8−76050号公報 特開平10−100739号公報 特開2000−344028号公報
Therefore, conventionally, the imaging position of the information image displayed by the HUD device is moved back and forth and / or left and right based on the detected driver's line-of-sight direction and the distance between the preceding vehicle and the driver using the HUD device. Various apparatuses and methods that aim to reduce the burden of focusing the eyes and moving the line of sight when viewing displayed information have been proposed (see, for example, Patent Documents 1 to 7).
Japanese Utility Model Publication No. 61-134437 JP-A-6-247184 JP 7-55941 A Japanese Patent Laid-Open No. 7-257228 JP-A-8-76050 Japanese Patent Application Laid-Open No. 10-1000073 JP 2000-344028 A

しかしながら、上記いずれの従来の装置・方法でも運転者がその時点で注視している自車両前方物体(無限遠背景も含む)を動的に特定しているわけではなく、表示されたホログラム虚像を見るのに運転者が視線を動かしたり焦点を合わせ直したりすることが必要となる場面が依然として生じ得る。   However, in any of the above-described conventional apparatuses and methods, the vehicle front object (including the background at infinity) that the driver is gazing at is not dynamically specified. There may still be situations where the driver needs to move his gaze or refocus to see.

本発明はこのような課題を解決するためのものであり、刻々と変わり得る運転者注視物体に動的に重畳させて情報画像を表示する車両用ヘッドアップ・ディスプレイ装置を提供することを主たる目的とする。   SUMMARY OF THE INVENTION The present invention has been made in order to solve such problems, and it is a primary object of the present invention to provide a vehicle head-up display device that dynamically displays a driver's gaze object that can be changed and displays an information image. And

上記目的を達成するための本発明の一態様は、所定の情報を表す表示像を投影する表示源と、該表示源から投影された表示像を運転席前方の視界内に映し出すコンバイナとを有する車両用ヘッドアップ・ディスプレイ装置であって、
運転者が注視している自車両前方物体を特定する特定手段と、
上記特定手段によって特定された運転者注視物体との距離を測定する距離測定手段と、
上記距離測定手段によって測定された距離に基づいて上記表示像が上記運転者注視物体上に重畳して結像するように上記表示源及び/又は上記コンバイナを調整する調整手段と、を有する車両用ヘッドアップ・ディスプレイ装置である。
One aspect of the present invention for achieving the above object includes a display source for projecting a display image representing predetermined information, and a combiner for projecting the display image projected from the display source into the field of view in front of the driver's seat. A head-up display device for a vehicle,
A specifying means for specifying an object ahead of the host vehicle being watched by the driver;
Distance measuring means for measuring the distance to the driver's gaze object specified by the specifying means;
Adjusting means for adjusting the display source and / or the combiner so that the display image is superimposed on the driver gaze object based on the distance measured by the distance measuring means. It is a head-up display device.

この一態様において、上記所定の情報とは、例えば、副操作系インターフェースや、車速などの車両情報などである。   In this aspect, the predetermined information is, for example, a sub-operation system interface, vehicle information such as a vehicle speed, and the like.

また、この一態様において、上記自車両前方物体及び上記運転者注視物体とは、例えば、先行車両や、建物などであると共に、無限遠に位置する山や雲などの背景も含む。   Moreover, in this one aspect | mode, the said vehicle front object and the said driver | operator gaze object are backgrounds, such as a preceding vehicle, a building, etc., and a mountain and a cloud located at infinity, for example.

この一態様において、上記特定手段は、例えば、運転者の視線方向を検出する検出手段と、フロントガラスに映る自車両前方の景色画像を撮像する撮像手段と、上記撮像手段によって得られた自車両前方景色画像を運転者視点の画像に座標変換する変換手段と、上記変換手段によって得られた運転者視点画像と上記検出手段によって得られた運転者視線方向との交点と求め、上記運転者視点画像上において該交点に存在する物体を識別する識別手段とを有する。   In this one aspect, the specifying unit includes, for example, a detecting unit that detects a driver's line-of-sight direction, an imaging unit that captures a scenery image in front of the host vehicle reflected on the windshield, and the own vehicle obtained by the imaging unit. Conversion means for converting a front view image into a driver viewpoint image; and an intersection between the driver viewpoint image obtained by the conversion means and the driver's line-of-sight direction obtained by the detection means; and the driver viewpoint Identification means for identifying an object present at the intersection on the image.

この一態様によれば、運転者が注視している自車両前方物体を動的に特定できるため、該注視物体が刻々と変わっても、常に運転者が注視している物体上に重畳させて所定の情報を表す表示像を結像させることができる。これにより、運転者は、視線を移動させず、且つ、目の焦点距離を合わせ直すことなく、表示された情報を認識することができる。   According to this aspect, since the object ahead of the host vehicle that the driver is gazing at can be dynamically specified, even if the gazing object changes every moment, it is always superimposed on the object that the driver is gazing at. A display image representing predetermined information can be formed. Thereby, the driver can recognize the displayed information without moving his / her line of sight and without adjusting the focal distance of the eyes.

なお、この一態様において、上記調整手段は、情報表示像の表示位置及び/又は距離が過度に頻繁に移動することによりかえって運転者にとって認識しづらくなるのを防ぐために、結像位置及び/又は距離の急激な変動を抑制する速度調整手段を有してもよい。   In this aspect, the adjusting means may prevent the image display position and / or the display position and / or distance of the information display image from recognizing to the driver due to excessive frequent movement. You may have a speed adjustment means which suppresses the rapid fluctuation | variation of distance.

本発明によれば、刻々と変わり得る運転者注視物体に動的に重畳させて情報画像を表示する車両用ヘッドアップ・ディスプレイ装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the head-up display apparatus for vehicles which displays an information image dynamically superimposed on the driver | operator's gaze object which can change every moment can be provided.

以下、本発明を実施するための最良の形態について、添付図面を参照しながら実施例を挙げて説明する。なお、HUD装置の基本概念、主要なハードウェア構成、作動原理、及び基本的な制御手法等については当業者には既知であるため、詳しい説明を省略する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings. Note that the basic concept of the HUD device, the main hardware configuration, the operating principle, the basic control method, and the like are known to those skilled in the art, and thus detailed description thereof is omitted.

図1〜7を用いて、本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ(HUD)装置及びその作用・機能について説明する。なお、本実施例では、HUD装置によって表示される情報が、一例として、例えばオーディオ、エアコン、ナビゲーション・システムなどの副操作系のインターフェースであるものとする。   A vehicle head-up display (HUD) device according to an embodiment of the present invention, and its operation and function will be described with reference to FIGS. In this embodiment, the information displayed by the HUD device is, for example, a sub-operation system interface such as an audio, an air conditioner, or a navigation system.

図1は、本実施例に係るHUD装置100の概略構成を示す。図示するように、HUD装置100は、主として、本装置のコントローラであるECU101と、運転者の視線方向及びフロントガラスに映る自車両前方画像を検出・取得する画像処理部102と、運転者が注視している物体との距離を測定する距離検出部103と、表示された副操作系インターフェースに対するユーザの選択・確定などの操作が入力されるユーザ入力部104と、副操作系インターフェースであるメニューを表す表示像をホログラム虚像として表示するメニュー表示部105とを有する。   FIG. 1 shows a schematic configuration of a HUD device 100 according to the present embodiment. As shown in the figure, the HUD device 100 mainly includes an ECU 101 that is a controller of the device, an image processing unit 102 that detects and acquires a driver's line-of-sight direction and a front image of the host vehicle reflected on the windshield, and a driver's gaze. A distance detection unit 103 for measuring the distance from the object being operated, a user input unit 104 for inputting an operation such as user selection / determination for the displayed sub-operation system interface, and a menu that is a sub-operation system interface. And a menu display unit 105 for displaying a displayed display image as a holographic virtual image.

画像処理部102は、例えば、運転者の視線を検出するための第一のカメラ(例えば、CCDカメラなど)と、フロントガラスに映る自車両前方の景色画像を撮像する第二のカメラと、画像演算処理を行う演算部とから成る。第一のカメラと第二のカメラは同一のカメラによって兼用されてもよい。   The image processing unit 102 includes, for example, a first camera (for example, a CCD camera) for detecting the driver's line of sight, a second camera for capturing a landscape image in front of the host vehicle reflected on the windshield, And an arithmetic unit for performing arithmetic processing. The first camera and the second camera may be shared by the same camera.

距離検出部103は、例えば、自車両前方に存在する物体との距離を測定するためのレーダ装置(例えば、ミリ波レーダなど)と、ステレオ法により運転者注視物体との距離を測定するための第三のカメラ(例えば、CCDカメラなど)と、自車両現在位置を検出するための装置(例えば、GPSやジャイロなど)と、地図データベースなどの地図情報と、演算処理を行う演算部とから成る。   The distance detection unit 103 is, for example, for measuring the distance between a radar device (for example, a millimeter wave radar) for measuring the distance from an object existing in front of the host vehicle and the driver's gaze object by a stereo method. It consists of a third camera (for example, a CCD camera), a device for detecting the current position of the host vehicle (for example, GPS, gyroscope, etc.), map information such as a map database, and a calculation unit for performing calculation processing. .

ユーザ入力部104は、例えば、操作性を考慮してステアリングハンドルに取り付けられたスイッチやダイヤル(ハプティク利用等)などである。音声認識技術を用いて実現されてもよい。   The user input unit 104 is, for example, a switch or dial (such as haptic use) attached to the steering handle in consideration of operability. You may implement | achieve using a speech recognition technique.

メニュー表示部105は、従来のHUD装置と同様の構成であり、例えば、光源、光学系、表示素子、表示制御を行うコントローラ、フロントガラスに設けられたコンバイナ(ハーフミラー)などから成る。   The menu display unit 105 has the same configuration as that of a conventional HUD device, and includes, for example, a light source, an optical system, a display element, a controller that performs display control, and a combiner (half mirror) provided on a windshield.

次いで、図2〜7を用いて、HUD装置100の動作の流れについて説明する。図2は、HUD装置100の主動作の流れを示すフローチャートである。   Next, the operation flow of the HUD device 100 will be described with reference to FIGS. FIG. 2 is a flowchart showing the flow of the main operation of the HUD device 100.

まず、車両が不安定な状態や危険な状態下にあるときには安全確保のために優先度の低い副操作系インターフェースは表示させない方が好ましいことから、副操作系スイッチフラグがオンであることが確認される(図2のS201)。ここで、S201の処理に係るサブルーチンの流れを図3のフローチャートに示す。   First, when the vehicle is in an unstable or dangerous state, it is preferable not to display the low priority sub-operation system interface to ensure safety, so confirm that the sub-operation system switch flag is on. (S201 in FIG. 2). Here, the flow of a subroutine relating to the processing of S201 is shown in the flowchart of FIG.

まず、既に副操作系スイッチフラグがオン状態となっているか否か、すなわち副操作系を操作中であるか否か、が判定される(図3のS301)。既に副操作系スイッチフラグがオン状態となっている場合(S301の「YES」)、次に、自車両周辺に障害物が存在するか否かが判定される(S302)。   First, it is determined whether or not the secondary operation system switch flag has already been turned on, that is, whether or not the secondary operation system is being operated (S301 in FIG. 3). If the sub-operation system switch flag has already been turned on (“YES” in S301), it is next determined whether or not an obstacle exists around the host vehicle (S302).

障害物が存在しない場合(S302の「NO」)、次に、車両が安定した状態であるか否かが判定される(S303)。安定した状態であると判断された場合(S303の「YES」)、次に、運転者の視線が急激に又は急速に移動したか否かが判定される(S304)。このS304の判定は、例えば、運転者の視線ベクトルとフロントガラス面との交点G(後に詳述する)のフロントガラス面上での移動速度ΔGを算出し、|ΔG|>閾値であれば急移動があったものと判定する。   If there is no obstacle (“NO” in S302), it is next determined whether or not the vehicle is in a stable state (S303). If it is determined that the vehicle is in a stable state (“YES” in S303), it is then determined whether or not the driver's line of sight has moved suddenly or rapidly (S304). In the determination in S304, for example, a moving speed ΔG on the windshield surface of an intersection G (detailed later) between the driver's line-of-sight vector and the windshield surface is calculated. If | ΔG | It is determined that there has been movement.

視線の急移動がない場合(S304の「NO」)、次に、起動中の副操作系について一定時間入力が無い状態であるか否かが判定される(S305)。起動中の副操作系について一定時間入力が無い状態でない場合(S305の「NO」)、副操作系スイッチフラグはONのまま維持される(S306)。   If there is no sudden movement of the line of sight (“NO” in S304), it is next determined whether or not there is no input for a certain period of time for the activated sub-operation system (S305). If there is no input for a certain period of time for the activated sub-operation system (“NO” in S305), the sub-operation system switch flag is kept ON (S306).

他方、自車両周辺に障害物が存在する場合(S302の「YES」)、或いは、ABSが作動中であるなど車両が安定した状態でないと判断された場合(S303の「NO」)、或いは、運転者の視線が急移動したと判断された場合(S304の「YES」)、或いは、起動中の副操作系について一定時間入力が無い状態である場合(S305の「YES」)、安全のため副操作系の操作を許可するべきでないと判断し、副操作系スイッチフラグをOFFにする(S307)。   On the other hand, when there is an obstacle around the host vehicle (“YES” in S302), or when it is determined that the vehicle is not in a stable state, such as when the ABS is operating (“NO” in S303), or If it is determined that the driver's line of sight has moved suddenly ("YES" in S304), or if there is no input for a certain period of time for the activated sub-operation system ("YES" in S305), for safety It is determined that the operation of the secondary operation system should not be permitted, and the secondary operation system switch flag is turned OFF (S307).

S307の処理においては、投影中の副操作系インターフェースが、表示オフ(投影停止)とされてもよく、或いは、フロントガラスの四隅のいずれかに寄せて待機モードとしてもよい。前者の場合であっても、操作中の内容は次回操作のために保存されることが好ましい。また、いずれの場合であっても、副操作系が操作できない状態となった旨の音声ガイダンスが運転者に対して提供されることが好ましい。   In the process of S307, the sub-operation system interface being projected may be turned off (projection stopped), or may be put in any one of the four corners of the windshield to enter the standby mode. Even in the former case, it is preferable that the content being operated is saved for the next operation. In any case, it is preferable that the driver is provided with voice guidance to the effect that the sub-operation system cannot be operated.

S301に戻り、副操作系スイッチフラグがオフ状態の場合、すなわち副操作系を操作中でない場合(S301の「NO」)、次に、自車両周辺に障害物が存在するか否かが判定される(S308)。   Returning to S301, if the sub-operation system switch flag is in the OFF state, that is, if the sub-operation system is not being operated ("NO" in S301), it is next determined whether there is an obstacle around the host vehicle. (S308).

障害物が存在しない場合(S308の「NO」)、次に、車両が安定した状態であるか否かが判定される(S309)。安定した状態であると判断された場合(S309の「YES」)、副操作系の操作が行われても問題はないと判断し、副操作系スイッチフラグをONにする(S306)。   If there is no obstacle (“NO” in S308), it is next determined whether or not the vehicle is in a stable state (S309). If it is determined that the state is stable (“YES” in S309), it is determined that there is no problem even if the operation of the sub-operation system is performed, and the sub-operation system switch flag is turned ON (S306).

他方、自車両周辺に障害物が存在する場合(S308の「YES」)、或いは、ABSが作動中であるなど車両が安定した状態でないと判断された場合(S309の「NO」)、安全のため副操作系の操作を許可するべきでないと判断し、副操作系の操作を許可しない(S310)。   On the other hand, if there is an obstacle around the vehicle (“YES” in S308), or if the vehicle is determined to be in an unstable state such as the ABS is operating (“NO” in S309), the safety Therefore, it is determined that the operation of the secondary operation system should not be permitted, and the operation of the secondary operation system is not permitted (S310).

S310の処理においては、副操作系の操作は許可されない旨の音声ガイダンスが運転者に対して提供されることが好ましい。   In the process of S310, it is preferable that voice guidance indicating that the operation of the sub-operation system is not permitted is provided to the driver.

図2の説明に戻る。図3を用いて説明したサブルーチンの実行により副操作系スイッチフラグがオン状態であることが確認されると、次いで、画像処理部102の第一のカメラによって車両運転者の視線方向が抽出される(S202)。第一のカメラは、例えば車室内に運転者に向けて設置されたCCDカメラなどである。   Returning to the description of FIG. If it is confirmed by the execution of the subroutine described with reference to FIG. 3 that the sub-operation system switch flag is on, then the line-of-sight direction of the vehicle driver is extracted by the first camera of the image processing unit 102. (S202). The first camera is, for example, a CCD camera installed in the passenger compartment toward the driver.

より具体的には、このドライバ視線方向の抽出処理は、例えば、車両座標系においてカメラによる画像処理によって運転者の顔上の3点を抽出し、この3点の中心までのベクトルと、3点中心から眼球中心(モデル予測による)までのベクトルと、検出された瞳孔の位置までのベクトルとの3つのベクトルから視線方向ベクトルを求めることによって行われる。   More specifically, the driver eye-gaze direction extraction processing is performed by, for example, extracting three points on the driver's face by image processing using a camera in a vehicle coordinate system, and a vector up to the center of the three points and three points. This is performed by obtaining a line-of-sight direction vector from three vectors: a vector from the center to the eyeball center (by model prediction) and a vector to the detected pupil position.

この場合、運転者の顔上の3点の抽出方法としては、例えば、まずエッジ部分が多いことを利用して眼や口の位置をエッジ変換によって検出してこれを追跡する、などの方法により抽出される。   In this case, as a method of extracting three points on the driver's face, for example, by using the fact that there are many edge portions, the position of the eyes and mouth is detected by edge conversion and this is followed. Extracted.

また、このドライバ視線方向は、両眼の部分を2値化によって白黒化し、瞳孔を検出することによって両瞳孔位置の中間位置までのベクトルを視線方向ベクトルとして抽出してもよい。   Further, the driver line-of-sight direction may be converted into black and white by binarizing a part of both eyes, and a vector up to an intermediate position between both pupil positions may be extracted as a line-of-sight direction vector by detecting the pupil.

このようにしてドライバ視線方向が抽出されると、次いで、画像処理部102によりフロントガラスに映る景色が推定・作成される(S203)。この処理においては、まず画像処理部102の第二のカメラを用いて、フロントガラスに映る自車両前方の景色画像が撮像される。第二のカメラは、例えば車室内にフロントガラスに向けて設置された広角のCCDカメラなどである。第二のカメラは、運転者の頭部の移動に合わせて水平方向に回動可能な構造を採用することが好ましい。   When the driver's line-of-sight direction is extracted in this way, the image reflected on the windshield is then estimated and created by the image processing unit 102 (S203). In this process, first, a landscape image in front of the host vehicle reflected on the windshield is captured using the second camera of the image processing unit 102. The second camera is, for example, a wide-angle CCD camera installed in the vehicle interior facing the windshield. The second camera preferably employs a structure that can be rotated horizontally in accordance with the movement of the driver's head.

この第二のカメラにより撮像された画像は、当然第二のカメラ視点から見たフロントガラスに映る景色であるため、次に、画像処理部102の演算部がこの撮像された画像をドライバ視点の座標を用いて補正し、ドライバ視点から見た景色に画像変換する。   Since the image captured by the second camera is naturally a scene reflected on the windshield viewed from the second camera viewpoint, the arithmetic unit of the image processing unit 102 next converts the captured image to the driver viewpoint. Correction is made using the coordinates, and the image is converted into a landscape viewed from the driver's viewpoint.

このような画像撮影及び画像変換処理によりドライバ視点から見てフロントガラスの映る景色が推定・作成されると、次いで、S202で抽出したドライバ視線方向とS203で推定・作成したフロントガラスに映る景色との交点Gが算出される(S204)。フロントガラス位置は、フロントガラスの設計諸元が既知であることから、車両座標系におけるフロントガラス取付座標から平面の式に近似することができる。   When the scenery reflected on the windshield as viewed from the driver viewpoint is estimated and created by such image capturing and image conversion processing, the driver sight line direction extracted in S202 and the scenery reflected on the windshield estimated and created in S203 are then displayed. Is calculated (S204). Since the design parameters of the windshield are known, the windshield position can be approximated to a plane equation from the windshield mounting coordinates in the vehicle coordinate system.

このようにして交点Gが求められると、次いで、S203で推定・作成したフロントガラスに映る景色において交点Gに存在する物体、すなわち運転者がその時点で注視している物体、が検出される(S205)。この様子を図4のAに示す。   When the intersection point G is obtained in this way, the object existing at the intersection point G in the scene reflected on the windshield estimated and created in S203, that is, the object that the driver is gazing at that time is detected. S205). This is shown in FIG.

次いで、運転者位置から検出された運転者注視物体までの距離が測定される(S205)。この距離測定は、図5に示すサブルーチンに従って行われる。以下、図5に示す距離測定処理について説明する。   Next, the distance from the driver position to the detected driver gaze object is measured (S205). This distance measurement is performed according to a subroutine shown in FIG. Hereinafter, the distance measurement process shown in FIG. 5 will be described.

まず、画像処理のパターンマッチングなどを用いて、図2のS205で検出された運転者注視物体が先行車両であるか否かが判定される(S501)。先行車両でない場合(S501の「NO」)、ステレオ法を用いて運転者位置から運転者注視物体までの距離dを計測する(S502)。この様子を図4のBに示す。 First, using image processing pattern matching or the like, it is determined whether or not the driver gaze object detected in S205 of FIG. 2 is a preceding vehicle (S501). When the vehicle is not a preceding vehicle (“NO” in S501), the distance d s from the driver position to the driver gaze object is measured using the stereo method (S502). This is shown in FIG.

ステレオ法により距離dを計測する場合、上述の第二のカメラと、第二のカメラの位置と対称な水平面上に設置された距離検出部103の第三のカメラとを用いて、少なくとも図2のS204で算出された交点G付近の高さ位置についてこれら2台のカメラによって撮像された画像の輝度を比較し、その撮像面のずれ量Zを求める。第二及び第三のカメラの焦点距離をf、両カメラ間の水平距離をBとすると、両カメラの焦点距離から目標物(運転者注視物体)までの奥行き(距離)Dは、D=B×f/Zと表すことができるため、カメラを設置した水平面から目標物までの距離D+fが求まる。これを、ドライバ視点座標へ座標変換すれば、運転者から運転者注視物体までの距離dを算出されることになる。 When measuring the distance d s by the stereo method, at least the figure is obtained using the second camera described above and the third camera of the distance detection unit 103 installed on a horizontal plane symmetrical to the position of the second camera. The luminances of the images captured by these two cameras at the height position near the intersection G calculated in S204 of 2 are compared, and the shift amount Z of the imaging surface is obtained. If the focal length of the second and third cameras is f and the horizontal distance between the two cameras is B, the depth (distance) D from the focal length of both cameras to the target (driver's gaze object) is D = B Since it can be expressed as xf / Z, the distance D + f from the horizontal plane where the camera is installed to the target can be obtained. If this is converted into driver viewpoint coordinates, the distance d s from the driver to the driver gaze object is calculated.

このようにステレオ法によって距離dが計測されると、次いで、距離検出部103が予め保持する地図情報に自車両現在位置とドライバ視線ベクトルとを照らして地図情報内のランドマーク(建物や山など)との交点を求め、この交点までの距離dを算出する(S503)。この様子も図4のBに示す。 When the distance d s is measured by the stereo method in this way, next, the map information held in advance by the distance detection unit 103 is illuminated with the current vehicle position and the driver's line-of-sight vector, and the landmarks (buildings and mountains) in the map information are illuminated. find the intersection with the like), and calculates the distance d m to the intersection point (S503). This state is also shown in FIG.

このように、運転者注視物体が先行車両でない場合、ステレオ法により距離dを計測すると共に、地図情報から距離dを算出して、両者を大小比較する(S504)。より具体的には、両者の距離差の絶対値を所定の閾値dthと大小比較する。 Thus, if the driver gaze object is not a preceding vehicle, the measuring the distance d s by a stereo method, by calculating the distance d m from map information, and compares the two (S504). More specifically, the absolute value of the distance difference between the two is compared with a predetermined threshold value d th .

ステレオ法による距離dから地図情報に基づくdを引いた差の絶対値が所定の閾値dth以下であった場合(S504の「YES」)、地図情報に自車両現在位置とドライバ視線ベクトルとを照らして得られた地図情報中のランドマークが運転者注視物体と一致すると考えられるため、より精度が高いと考えられる地図情報に基づく距離dを運転者注視物体までの距離として採用する(S505)。 If the absolute value of the difference obtained by subtracting the d m based on the map information by the stereo method from the distance d s is less than or equal to the predetermined threshold value d th ( "YES" in S504), the vehicle current position on the map information and the driver sight vector it is considered that bets landmarks in the map information obtained in light of the matches the driver gaze object, adopting the distance d m based on the map information is considered more high accuracy as the distance the driver gaze object (S505).

他方、ステレオ法による距離dから地図情報に基づくdを引いた差の絶対値が所定の閾値dthより大きい場合(S504の「NO」)、運転者注視物体が先行車両でも地図情報中に含まれるランドマークでもないと判断し、ステレオ法による距離dを運転者注視物体までの距離として採用する(S506)。 On the other hand, ( "NO" S504 in) from the distance d s absolute value of the difference obtained by subtracting the d m based on the map information when the predetermined larger than the threshold value d th by stereo method, the driver gaze object in the map information in the preceding vehicle It determines that not a landmark included in, employing the distance d s by stereo method as distance to the driver gaze object (S506).

S501に戻る。図2のS205で検出された運転者注視物体が先行車両である場合(S501の「YES」)、距離検出部103のレーダ装置を用いて、先行車両との距離が計測される(S507)。この様子も図4のBに示す。   Return to S501. When the driver gaze object detected in S205 in FIG. 2 is a preceding vehicle (“YES” in S501), the distance to the preceding vehicle is measured using the radar device of the distance detection unit 103 (S507). This state is also shown in FIG.

図2に戻る。このようにして運転者注視物体との距離が測定されると、次いで、メニュー表示部105が副操作系インターフェースを表す表示像をホログラム虚像として表示する(S207)。この様子を図4のCに示す。このとき、表示される副操作系インターフェースは、S202で抽出されたドライバ視線方向に表示されると共に、運転者から見てS206で測定された距離に見えるように結像位置が調整される。   Returning to FIG. When the distance from the driver's gaze object is measured in this way, the menu display unit 105 then displays a display image representing the sub-operation system interface as a hologram virtual image (S207). This is shown in FIG. At this time, the sub-operation system interface to be displayed is displayed in the driver line-of-sight direction extracted in S202, and the imaging position is adjusted so that it can be seen from the distance measured in S206 when viewed from the driver.

換言すれば、副操作系インターフェース表示像は、運転者から見て上下左右の位置関係及び距離感がいずれも運転者注視物体と一致するため、運転者にはあたかも運転者注視物体に貼り付けられたシール又はステッカー或いは運転者注視物体上に設けられたスイッチ類などのように見える。   In other words, the sub-operation system interface display image is pasted on the driver's gaze object as the driver's gaze object has the same vertical and horizontal positional relationship and sense of distance as seen from the driver. It looks like a sticker or sticker or a switch provided on the driver's gaze object.

このS207の虚像投影処理について図6及び7を用いて詳述する。図6に示すように、フロントガラス601には液晶パネルがメッシュ状に挿入されており、所望の位置をスイッチングによりハーフミラー化することができる。   The virtual image projection processing in S207 will be described in detail with reference to FIGS. As shown in FIG. 6, a liquid crystal panel is inserted into the windshield 601 in a mesh shape, and a desired position can be made into a half mirror by switching.

メニュー表示部105は、バックライト603と、液晶などの情報表示素子604と、レンズ605とから成る。情報表示素子604は、運転者注視物体Aの大きさに応じて表示の大きさを変えられる構造を有するものとする。   The menu display unit 105 includes a backlight 603, an information display element 604 such as a liquid crystal, and a lens 605. The information display element 604 has a structure in which the display size can be changed according to the size of the driver gaze object A.

また、バックライト603及び情報表示素子604は一体となってレンズ605との距離を可変とする構造が採用される。これにより、レンズの焦点距離との関係から、ホログラム虚像を任意の距離に結像させることができるため、運転者注視物体Aと同じ距離に表示させることが可能となる。例えば、レンズの焦点距離位置に実像を提示することによって、ホログラム虚像Mを無限遠に結像させることができる。   In addition, the backlight 603 and the information display element 604 are integrated so that the distance from the lens 605 is variable. As a result, the hologram virtual image can be formed at an arbitrary distance from the relationship with the focal length of the lens, so that it can be displayed at the same distance as the driver's gaze object A. For example, the virtual hologram image M can be formed at infinity by presenting a real image at the focal length position of the lens.

さらに、メニュー表示部105自体も3次元的に移動(回転、並行移動)可能な構造が採用される。これにより、フロントガラス601のいずれの箇所がハーフミラー化されても虚像を投影できるように構成される。   Further, the menu display unit 105 itself has a structure that can be moved (rotated and translated) three-dimensionally. Thereby, it is comprised so that a virtual image can be projected even if any location of the windshield 601 is made into a half mirror.

実際の虚像投影処理の流れを図7を用いて説明する。まず、フロントガラス601上における図2のS204で算出された交点G及びその周辺をハーフミラー化し、コンバイナ602とする(S701)。   The actual flow of virtual image projection processing will be described with reference to FIG. First, the intersection point G calculated in S204 of FIG. 2 on the windshield 601 and its periphery are formed into a half mirror to form a combiner 602 (S701).

次いで、交点G付近に投影できるようにメニュー表示部105の位置が調整される(S702)。   Next, the position of the menu display unit 105 is adjusted so that it can be projected near the intersection G (S702).

そして、図2のS205で検出された運転者注視物体A上に重ねて副操作系インターフェース表示像Mが結像されるように、情報表示素子604による表示の大きさ及びバックライト603及び情報表示素子604のレンズ605との距離が調整された上で、確定された表示内容(副操作系インターフェース)がコンバイナ602に投影される(S703)。   Then, the display size, backlight 603, and information display by the information display element 604 are formed so that the sub-operation system interface display image M is formed on the driver gaze object A detected in S205 of FIG. After the distance between the element 604 and the lens 605 is adjusted, the determined display content (sub-operation system interface) is projected onto the combiner 602 (S703).

なお、S703の投影処理においては、図2のS203における処理で既にフロントガラス601に映る景色が把握されているため、その映像の色データを解析し、運転者に対して最も視覚的効果が高い色で表示像(副操作系インターフェース)Mを投影することが好ましい。   In the projection process of S703, since the scene reflected on the windshield 601 has already been grasped in the process of S203 of FIG. 2, the color data of the image is analyzed, and the visual effect is highest for the driver. It is preferable to project the display image (sub-operation system interface) M in color.

このようにして副操作系インターフェースを表す表示像Mが投影されると、次いで、運転者がユーザ入力部104を利用して副操作系スイッチを操作し、ON/OFFや諸設定を選択・決定する(S208)。この様子を図4のDに示す。ここで、ユーザ入力部104は、例えば、図6に例示するように、ステアリングハンドルに備えられたスイッチ606やダイヤル607(ハプティク利用可)などである。   When the display image M representing the sub-operation system interface is projected in this way, the driver then operates the sub-operation system switch using the user input unit 104 to select / determine ON / OFF and various settings. (S208). This state is shown in FIG. Here, for example, as illustrated in FIG. 6, the user input unit 104 is a switch 606 provided on the steering handle, a dial 607 (haptic available), or the like.

運転者による選択が終了すると、次いで、副操作系の操作を終了し、副操作系インターフェースの表示を停止する選択が運転者により選択されたか否かが判定される(S209)。副操作系の操作が続けられる場合(S209の「NO」)、処理はS201へ戻り、その時点で運転者が注視している物体に副操作系インターフェースが再び表示される。すなわち、図2のフローを繰り返し実行することにより、刻々と変わり得る運転者注視物体に転々と副操作系インターフェースを表示することができる。   When the selection by the driver is completed, it is then determined whether or not the selection for ending the operation of the secondary operation system and stopping the display of the secondary operation system interface has been selected by the driver (S209). When the operation of the sub operation system is continued (“NO” in S209), the process returns to S201, and the sub operation system interface is displayed again on the object being watched by the driver at that time. That is, by repeatedly executing the flow of FIG. 2, the sub-operation system interface can be displayed on the driver's gaze object that can change from moment to moment.

他方、副操作系の操作を終了する場合(S209の「YES」)、副操作系スイッチフラグをOFFにする(S210)。   On the other hand, when the operation of the sub operation system is ended (“YES” in S209), the sub operation system switch flag is turned OFF (S210).

このように、本実施例によれば、その瞬間瞬間に運転者が注視している物体に動的に重畳させて副操作系インターフェースを表す情報画像を表示させることができるため、運転者は視線を逸らすことなく、且つ、焦点の遠近を合わせ直すことなく、副操作系インターフェースの情報画像を負担無く容易に視認することができる。   Thus, according to the present embodiment, since the information image representing the sub-operation system interface can be displayed dynamically superimposed on the object that the driver is gazing at the moment, the driver can It is possible to easily view the information image of the sub-operation system interface without burdening without changing the focus and refocusing the focus.

なお、上記一実施例の変形例として、ディジタルホログラム技術を用いて、3次元の表示像を運転者注視物体上に重ねて表示することも可能である。この変形例を図8に示す。   As a modification of the above embodiment, it is also possible to display a three-dimensional display image superimposed on the driver's gaze object using digital hologram technology. This modification is shown in FIG.

図8に示すディジタルホログラム用メニュー表示部105’は、再生光を発するレーザ801と、音響光学素子802と、運転者注視物体A上に3次元の表示像M’が重ねて表示されている間、光を照射したときの物体光とレーダ光(参照光)との干渉パターンをリアルタイムで計算し、音響光学素子802に提示するECU803と、ガルバノミラー804と、ポリゴンミラー805と、出射レンズ806とから成る。   The digital hologram menu display unit 105 ′ shown in FIG. 8 has a three-dimensional display image M ′ superimposed on the laser 801 that emits reproduction light, the acoustooptic device 802, and the driver's gaze object A. The ECU 803, the galvanometer mirror 804, the polygon mirror 805, the exit lens 806, which calculates the interference pattern between the object light and the radar light (reference light) when irradiated with light in real time and presents the interference pattern to the acoustooptic device 802 Consists of.

このような構成を採ることにより、本発明は3次元の表示像を実現するディジタルホログラムへも拡張することができる。   By adopting such a configuration, the present invention can be extended to a digital hologram that realizes a three-dimensional display image.

なお、上記いずれの実施例においても、運転者が注視物体を比較的短い周期で頻繁に変えている時、表示像の表示位置もそれに伴って頻繁に変更されるとかえって視認性が低下するおそれがある。そこで、ドライバ視線(又は上記交点G)の変更(移動)速度に対して例えば低域通過フィルタなどを用いて不感帯を設け、過度に頻繁な表示位置の変更が行われないように表示位置変更速度を抑制するための設定が行われることが好ましい。   In any of the above-described embodiments, when the driver frequently changes the gaze object with a relatively short period, the visibility may be deteriorated if the display position of the display image is frequently changed accordingly. There is. Therefore, a dead zone is provided for the change (movement) speed of the driver's line of sight (or the intersection point G) using, for example, a low-pass filter, and the display position change speed so that the display position is not changed too frequently. It is preferable that a setting for suppressing the above is performed.

また、上記いずれの実施例においても、運転者注視物体の大きさに合わせて表示像の大きさを変えるものとしたが、運転者注視物体が小さい場合又は運転者視点では小さく見える場合、それに合わせて表示像も小さくすると視認性が低下するおそれがある。そこで、運転者注視物体に合わせて変更された表示像の大きさが所定のサイズより小さくなる場合には、無理に運転者注視物体上に重なるように表示させず、ドライバ視線から若干ずれたところに(すなわち、運転者注視物体の周辺に)十分に視認できる大きさの表示像を表示させるようにしてもよい。   In any of the above embodiments, the size of the display image is changed according to the size of the driver's gaze object. However, if the driver's gaze object is small or looks small from the driver's viewpoint, it is adjusted accordingly. If the display image is too small, the visibility may be reduced. Therefore, when the size of the display image changed in accordance with the driver's gaze object is smaller than the predetermined size, it is not forcibly displayed on the driver's gaze object and is slightly deviated from the driver's gaze. Further, a display image having a size that can be sufficiently visually recognized (that is, around the driver's gaze object) may be displayed.

さらに、上記いずれの実施例においても、表示させる情報画面の一例として副操作系インターフェースを挙げたが、当業者には明らかなようにこれは一例に過ぎず、他の情報を含む画面を表示像として表示させることも当然可能である。   Further, in any of the above-described embodiments, the sub-operation system interface has been described as an example of the information screen to be displayed. Of course, it is also possible to display as.

本発明は、車両用ヘッドアップ・ディスプレイ(HUD)装置に利用できる。また、同様の原理を利用した車両用ヘッドマウント・ディスプレイ(HMD)装置にも適用可能である。搭載される車両の外観、重量、サイズ、走行性能等は問わない。   The present invention can be used for a vehicle head-up display (HUD) device. The present invention can also be applied to a vehicle head mounted display (HMD) device using the same principle. The appearance, weight, size, running performance, etc. of the vehicle to be mounted are not limited.

本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置の概略構成図である。1 is a schematic configuration diagram of a vehicle head-up display device according to an embodiment of the present invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置の主動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the main operation | movement of the head-up display apparatus for vehicles which concerns on one Example of this invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置による副操作系スイッチフラグON判定サブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the sub operation system switch flag ON determination subroutine by the vehicle head-up display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置による副操作系インターフェースの表示及び操作の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the display and operation of a suboperation system interface by the vehicle head-up display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置による運転者注視物体までの距離測定サブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the distance measurement subroutine to a driver | operator gaze object by the vehicle head-up display apparatus which concerns on one Example of this invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置のメニュー表示部の構成及び機能を示す概略図である。It is the schematic which shows the structure and function of the menu display part of the head-up display apparatus for vehicles which concern on one Example of this invention. 本発明の一実施例に係る車両用ヘッドアップ・ディスプレイ装置による表示像投影サブルーチンの流れを示すフローチャートである。It is a flowchart which shows the flow of the display image projection subroutine by the head-up display apparatus for vehicles which concerns on one Example of this invention. 本発明の別の一実施例に係る車両用ヘッドアップ・ディスプレイ装置のメニュー表示部の構成及び機能を示す概略図である。It is the schematic which shows the structure and function of the menu display part of the head-up display apparatus for vehicles which concerns on another one Example of this invention.

符号の説明Explanation of symbols

100 ヘッドアップ・ディスプレイ(HUD)装置
101 ECU
102 画像処理部
103 距離検出部
104 ユーザ入力部
105、105’ メニュー表示部
601 フロントガラス
602 コンバイナ
603 バックライト
604 情報表示素子
605 レンズ
606 スイッチ
607 ダイヤル
801 レーザ
802 音響光学素子
803 ECU
804 ガルバノミラー
805 ポリゴンミラー
806 出射レンズ
A、A’ 運転者注視物体
M、M’ 表示像
100 head-up display (HUD) device 101 ECU
DESCRIPTION OF SYMBOLS 102 Image processing part 103 Distance detection part 104 User input part 105,105 'Menu display part 601 Windshield 602 Combiner 603 Backlight 604 Information display element 605 Lens 606 Switch 607 Dial 801 Laser 802 Acoustooptic element 803 ECU
804 Galvano mirror 805 Polygon mirror 806 Outgoing lens A, A 'Driver gaze object M, M' Display image

Claims (3)

所定の情報を表す表示像を投影する表示源と、該表示源から投影された表示像を運転席前方の視界内に映し出すコンバイナとを有する車両用ヘッドアップ・ディスプレイ装置であって、
運転者が注視している自車両前方物体を特定する特定手段と、
前記特定手段によって特定された運転者注視物体との距離を測定する距離測定手段と、
前記距離測定手段によって測定された距離に基づいて前記表示像が前記運転者注視物体上に重畳して結像するように前記表示源及び/又は前記コンバイナを調整する調整手段と、を有することを特徴とする車両用ヘッドアップ・ディスプレイ装置。
A vehicle head-up display device comprising: a display source that projects a display image representing predetermined information; and a combiner that projects the display image projected from the display source into a field of view in front of the driver seat;
A specifying means for specifying an object ahead of the host vehicle being watched by the driver;
Distance measuring means for measuring a distance from the driver's gaze object specified by the specifying means;
Adjusting means for adjusting the display source and / or the combiner so that the display image is superimposed on the driver gaze object based on the distance measured by the distance measuring means. A vehicle head-up display device.
請求項1記載の車両用ヘッドアップ・ディスプレイ装置であって、
前記特定手段は、
運転者の視線方向を検出する検出手段と、
フロントガラスに映る自車両前方の景色画像を撮像する撮像手段と、
前記撮像手段によって得られた自車両前方景色画像を運転者視点の画像に座標変換する変換手段と、
前記変換手段によって得られた運転者視点画像と前記検出手段によって得られた運転者視線方向との交点と求め、前記運転者視点画像上において該交点に存在する物体を識別する識別手段とを有する、ことを特徴とする車両用ヘッドアップ・ディスプレイ装置。
The vehicle head-up display device according to claim 1,
The specifying means is:
Detection means for detecting the driver's line-of-sight direction;
Imaging means for capturing a landscape image in front of the vehicle reflected on the windshield;
Conversion means for coordinate-converting the vehicle front view image obtained by the imaging means into an image of the driver's viewpoint;
And an identification means for determining an intersection between the driver viewpoint image obtained by the conversion means and the driver's line-of-sight direction obtained by the detection means, and identifying an object existing at the intersection on the driver viewpoint image. A head-up display device for a vehicle.
請求項1又は2記載の車両用ヘッドアップ・ディスプレイ装置であって、
前記調整手段は、結像位置及び/又は距離の急激な変動を抑制する速度調整手段を有する、ことを特徴とする車両用ヘッドアップ・ディスプレイ装置。
The vehicle head-up display device according to claim 1 or 2,
The vehicle head-up display device, characterized in that the adjusting means includes speed adjusting means for suppressing rapid fluctuations in the imaging position and / or distance.
JP2004134126A 2004-04-28 2004-04-28 Vehicular head-up display device Pending JP2005313772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004134126A JP2005313772A (en) 2004-04-28 2004-04-28 Vehicular head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004134126A JP2005313772A (en) 2004-04-28 2004-04-28 Vehicular head-up display device

Publications (1)

Publication Number Publication Date
JP2005313772A true JP2005313772A (en) 2005-11-10

Family

ID=35441638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004134126A Pending JP2005313772A (en) 2004-04-28 2004-04-28 Vehicular head-up display device

Country Status (1)

Country Link
JP (1) JP2005313772A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2009120070A (en) * 2007-11-15 2009-06-04 Hyundai Motor Co Ltd Movable display device
JPWO2008007781A1 (en) * 2006-07-14 2009-12-10 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JP2010006267A (en) * 2008-06-27 2010-01-14 Calsonic Kansei Corp Display device for vehicle
WO2015146068A1 (en) * 2014-03-28 2015-10-01 パナソニックIpマネジメント株式会社 Information display device, information display method, and program
JP2016008002A (en) * 2014-06-26 2016-01-18 三菱電機株式会社 Display device
JP2016080984A (en) * 2014-10-21 2016-05-16 株式会社デンソー Display control method, display controller and display unit
CN107472140A (en) * 2017-08-08 2017-12-15 上海青研科技有限公司 A kind of eye control vehicle-mounted HUD systems
WO2019006985A1 (en) * 2017-07-06 2019-01-10 Boe Technology Group Co., Ltd. Virtual image display apparatus, vehicle comprising head-up display apparatus comprising virtual image display apparatus, and method for virtual image display
US10209857B2 (en) 2014-10-10 2019-02-19 Denso Corporation Display control apparatus and display system
JP2019113595A (en) * 2017-12-21 2019-07-11 アルパイン株式会社 Head-up display system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008007781A1 (en) * 2006-07-14 2009-12-10 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JP5137833B2 (en) * 2006-07-14 2013-02-06 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2009120070A (en) * 2007-11-15 2009-06-04 Hyundai Motor Co Ltd Movable display device
JP2010006267A (en) * 2008-06-27 2010-01-14 Calsonic Kansei Corp Display device for vehicle
US20160203629A1 (en) * 2014-03-28 2016-07-14 Panasonic Intellectual Property Management Co., Ltd. Information display apparatus, and method for displaying information
WO2015146068A1 (en) * 2014-03-28 2015-10-01 パナソニックIpマネジメント株式会社 Information display device, information display method, and program
JP2015194473A (en) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 Information display device, information display method, and program
JP2016008002A (en) * 2014-06-26 2016-01-18 三菱電機株式会社 Display device
US10209857B2 (en) 2014-10-10 2019-02-19 Denso Corporation Display control apparatus and display system
JP2016080984A (en) * 2014-10-21 2016-05-16 株式会社デンソー Display control method, display controller and display unit
WO2019006985A1 (en) * 2017-07-06 2019-01-10 Boe Technology Group Co., Ltd. Virtual image display apparatus, vehicle comprising head-up display apparatus comprising virtual image display apparatus, and method for virtual image display
US11209658B2 (en) 2017-07-06 2021-12-28 Boe Technology Group Co., Ltd. Virtual image display apparatus, vehicle comprising head-up display apparatus comprising virtual image display apparatus, and method for virtual image display
CN107472140A (en) * 2017-08-08 2017-12-15 上海青研科技有限公司 A kind of eye control vehicle-mounted HUD systems
CN107472140B (en) * 2017-08-08 2023-04-07 上海青研科技有限公司 Eye-control vehicle-mounted HUD system
JP2019113595A (en) * 2017-12-21 2019-07-11 アルパイン株式会社 Head-up display system

Similar Documents

Publication Publication Date Title
US7952808B2 (en) Display system for vehicle and display method
EP3118047B1 (en) Display control device, display device, display control program, display control method, and recording medium
JP6413207B2 (en) Vehicle display device
JP5155915B2 (en) In-vehicle display system, display method, and vehicle
US20150161762A1 (en) Information processing apparatus, information processing method, and program
US11525694B2 (en) Superimposed-image display device and computer program
JP6521081B2 (en) Vehicle display device
US20230249618A1 (en) Display system and display method
JP2005138755A (en) Device and program for displaying virtual images
JPWO2016067574A1 (en) Display control apparatus and display control program
JP6339887B2 (en) Image display device
KR20150051671A (en) A display control device using vehicles and user motion recognition and its method of operation
JP2005313772A (en) Vehicular head-up display device
JP2017081456A (en) Display device and display method
JP4929768B2 (en) Visual information presentation device and visual information presentation method
JP2014234139A (en) On-vehicle display device and program
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP2022084266A (en) Display control device, display device, and image display control method
CN111292555A (en) Support device, support method, and storage medium
US10650601B2 (en) Information processing device and information processing method
JP7094349B2 (en) Information recording device
JP2019133116A (en) Display system, movable body, and design method
JP2007218655A (en) Navigation device
JP2019064422A (en) Head-up display device
JP2019066562A (en) Display, display control method, and program