JP2021160439A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2021160439A
JP2021160439A JP2020062169A JP2020062169A JP2021160439A JP 2021160439 A JP2021160439 A JP 2021160439A JP 2020062169 A JP2020062169 A JP 2020062169A JP 2020062169 A JP2020062169 A JP 2020062169A JP 2021160439 A JP2021160439 A JP 2021160439A
Authority
JP
Japan
Prior art keywords
pupil
user
eye
driver
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020062169A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020062169A priority Critical patent/JP2021160439A/en
Publication of JP2021160439A publication Critical patent/JP2021160439A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Image Analysis (AREA)

Abstract

To provide a vehicular display device capable of stably detecting a position of a pupil of a user even when external light is made incident.SOLUTION: A head-up display device 1 projects display light L1 onto a front windshield 2 of a vehicle, generates and displays a virtual image V by the display light L1 reflected by the front windshield 2, projects infrared light L2 onto a driver D of the vehicle, takes an image of the driver D, and detects a position of a pupil of the driver D on the basis of the taken image. When it is difficult to detect the position of the pupil on one eye E of the right and left eyes of the driver D, a control part 10 estimates the position of the pupil on the one eye E on the basis of the information on positional relationships between the pupil of the driver D and a feature point. When it is determined that the position of the pupil has moved in a predetermined range while the position of the feature point on the other eye E of the right and left eyes of the driver D is maintained, the control unit estimates the position of the pupil on the one eye E on the basis of the information on the positional relationships and the information on the movement.SELECTED DRAWING: Figure 1

Description

本発明は、車両のフロントウインドシールドやコンバイナ等に虚像を表示するとともに、利用者の瞳孔の位置を検出可能なヘッドアップディスプレイ装置に関する。 The present invention relates to a head-up display device capable of displaying a virtual image on a front windshield, a combiner, or the like of a vehicle and detecting the position of a user's pupil.

車両のフロントウインドシールドやコンバイナ等の反射透光部材を透過する実景(車両前方の風景)に重ねて、その反射透光部材に反射された表示光により虚像を生成して表示するヘッドアップディスプレイ装置は、車両の運転者等の利用者の視線移動を極力抑えつつ、利用者が所望する情報を虚像により提供することによって、安全で快適な車両運行に寄与する。 A head-up display device that creates and displays a virtual image by the display light reflected by the reflected light-transmitting member by superimposing it on the actual scene (scenery in front of the vehicle) that passes through the reflected light-transmitting member such as the front windshield or combiner of the vehicle. Contributes to safe and comfortable vehicle operation by providing information desired by the user as a virtual image while suppressing the movement of the line of sight of the user such as the driver of the vehicle as much as possible.

また、ヘッドアップディスプレイ装置には、利用者に赤外光を照射して利用者を撮像し、その撮像画像に基づいて利用者の瞳孔等の目の位置を検出することにより、脇見や居眠り等の利用者の状態把握に供するものがある。 In addition, the head-up display device irradiates the user with infrared light to image the user, and detects the position of the eyes such as the user's pupil based on the captured image to look aside or take a nap. There is something to help grasp the state of the user.

例えば特許文献1に記載のヘッドアップディスプレイ装置は、表示手段から発せられる可視光をコンバイナ部材にて利用者に向けて反射して表示像を結像してなるもので、利用者に向けて赤外線を照射する赤外線照射手段と、表示手段から発せられる可視光をコンバイナ部材に向けて反射し、利用者及びコンバイナ部材にて反射される赤外線を透過するミラー部材と、ミラー部材を透過する赤外線を感受して利用者をそれぞれ異なる方向から撮像する複数の撮像手段と、撮像手段によって撮像された画像に基づいて利用者の目の位置を算出する画像処理手段とを備え、利用者の目の位置を精度良く算出することが可能となっている。 For example, the head-up display device described in Patent Document 1 is formed by reflecting visible light emitted from a display means toward a user by a combiner member to form a display image, and infrared rays are directed toward the user. The infrared irradiation means for irradiating the light, the mirror member that reflects the visible light emitted from the display means toward the combiner member and transmits the infrared rays reflected by the user and the combiner member, and the infrared rays transmitted through the mirror member are sensed. It is provided with a plurality of imaging means for imaging the user from different directions and an image processing means for calculating the position of the user's eyes based on the image captured by the imaging means, and the position of the user's eyes can be determined. It is possible to calculate with high accuracy.

特開2008−126984号公報Japanese Unexamined Patent Publication No. 2008-126984

ところで、ヘッドアップディスプレイ装置に太陽光や街灯の光等の強い外光が入射すると、撮像画像に外光のノイズが加わり、利用者の目の位置の検出に失敗するという問題があった。特許文献1に記載のヘッドアップディスプレイ装置では、外光の赤外成分がミラー部材を透過して撮像手段に入射すると、撮像画像にサチュレーション等による白飛びしたノイズ領域が形成され、このノイズ領域は、撮像画像において必ずしも利用者の目の位置(目の像の位置)と重なり合っていなくても、目の位置の検出に支障を来すことがある。 By the way, when strong external light such as sunlight or street light is incident on the head-up display device, the noise of the external light is added to the captured image, and there is a problem that the detection of the position of the user's eyes fails. In the head-up display device described in Patent Document 1, when an infrared component of external light passes through a mirror member and is incident on an imaging means, an overexposed noise region due to saturation or the like is formed in the captured image, and this noise region is formed. Even if the captured image does not necessarily overlap with the position of the user's eyes (the position of the image of the eyes), the detection of the position of the eyes may be hindered.

本発明は、上記の事情に鑑みてなされたもので、外光が入射しても利用者の瞳孔の位置を安定的に検出することができる車両用表示装置を提供することを課題としている。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a vehicle display device capable of stably detecting the position of a user's pupil even when external light is incident.

上記課題を解決するために、本発明は、車両に設けられた反射透光部材に表示光を投影し、前記反射透光部材を透過する実景に重ねて前記反射透光部材に反射された表示光により虚像を生成して表示するとともに、前記車両の利用者に赤外光を投影して前記利用者を撮像し、その撮像画像に基づいて前記利用者の左右の目の瞳孔の位置を検出可能なヘッドアップディスプレイ装置であって、前記撮像画像における前記瞳孔の位置を検出する瞳孔検出手段と、前記撮像画像における前記利用者の目の輪郭上の特徴点の位置を検出する特徴点検出手段と、前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合に、前記利用者の瞳孔及び特徴点の位置関係に関する情報に基づいて、前記一方の目について瞳孔の位置を推定する瞳孔推定手段とを備え、前記瞳孔検出手段及び前記特徴点検出手段により、前記利用者の左右の他方の目について特徴点の位置は維持されつつ瞳孔の位置は所定の範囲内で移動したと判断される場合、前記瞳孔推定手段は、前記位置関係に関する情報及びその移動に関する情報に基づいて、前記一方の目について瞳孔の位置を推定することを特徴とする。 In order to solve the above problems, the present invention projects display light onto a reflective transmissive member provided in a vehicle, superimposes the display light on the actual scene transmitted through the reflective transmissive member, and reflects the display light on the reflective transmissive member. A virtual image is generated and displayed by light, infrared light is projected onto the user of the vehicle to image the user, and the positions of the pupils of the left and right eyes of the user are detected based on the captured image. A possible head-up display device, a pupil detecting means for detecting the position of the pupil in the captured image and a feature point detecting means for detecting the position of the feature point on the contour of the user's eye in the captured image. When it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user, the one eye is based on the information regarding the positional relationship between the pupil and the feature point of the user. It is provided with a pupil estimation means for estimating the position of the pupil, and the position of the pupil is within a predetermined range while the position of the feature point is maintained for the other left and right eyes of the user by the pupil detecting means and the feature point detecting means. When it is determined that the pupil has moved within, the pupil estimating means estimates the position of the pupil with respect to the one eye based on the information regarding the positional relationship and the information regarding the movement.

ここで、「前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合」とは、瞳孔検出手段が瞳孔の位置の検出に失敗した場合のみを指すのではなく、外光の入射等により瞳孔の位置の検出が困難と思われる所定の条件を満たした場合も含む。 Here, "when it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user" does not mean only when the pupil detecting means fails to detect the position of the pupil. This also includes the case where a predetermined condition is satisfied, which makes it difficult to detect the position of the pupil due to the incident of external light or the like.

また、前記所定の範囲は、前記虚像が前記他方の目の少なくとも弁別視野を含む視野に入る範囲であってもよく、前記位置関係は、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置と前記特徴点検出手段により検出された前記他方の目についての特徴点の位置との位置関係であってもよく、前記特徴点は、前記利用者の目尻又は目頭であってもよい。 Further, the predetermined range may be a range in which the virtual image enters a field of view including at least a discriminative field of view of the other eye, and the positional relationship is the range of the other eye detected by the pupil detecting means. It may be the positional relationship between the position of the pupil and the position of the feature point for the other eye detected by the feature point detecting means, and the feature point may be the outer corner or the inner corner of the eye of the user. ..

さらに、本発明に係るヘッドアップディスプレイ装置は、前記利用者の顔の向きを検出する顔向き検出手段を備え、前記瞳孔推定手段は、前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像に正対していないと判断され、かつ、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置又は前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像を視認していないと判断される場合、前記利用者がその顔の向きで前記虚像を視認するときの前記利用者の左右の目について瞳孔の位置を推定してもよい。 Further, the head-up display device according to the present invention includes face orientation detecting means for detecting the orientation of the user's face, and the pupil estimation means is for the user's face detected by the face orientation detecting means. It is determined from the orientation that the user is not facing the virtual image, and the position of the pupil with respect to the other eye detected by the pupil detecting means or the position of the user detected by the face orientation detecting means. When it is determined from the orientation of the face that the user is not visually recognizing the virtual image, the position of the pupil is estimated for the left and right eyes of the user when the user is visually recognizing the virtual image in the orientation of the face. You may.

本発明に係るヘッドアップディスプレイ装置によれば、外光が入射しても利用者の瞳孔の位置を安定的に検出することができる。 According to the head-up display device according to the present invention, the position of the user's pupil can be stably detected even when external light is incident.

発明を実施するための形態に係るヘッドアップディスプレイ装置を示す説明図である。It is explanatory drawing which shows the head-up display device which concerns on embodiment for carrying out an invention. 図1のヘッドアップディスプレイ装置による運転者の撮像画像を特徴点とともに示す説明図である。It is explanatory drawing which shows the image taken by the driver by the head-up display device of FIG. 1 together with a feature point. 図1のヘッドアップディスプレイ装置に外光が侵入する様子を示す説明図である。It is explanatory drawing which shows the mode that the outside light invades into the head-up display device of FIG. 外光によるノイズ領域が含まれた撮像画像を示す説明図である。It is explanatory drawing which shows the captured image which included the noise region by an external light. 運転者の瞳孔の位置が移動した撮像画像を示す説明図である。It is explanatory drawing which shows the captured image which the position of the pupil of a driver has moved. 図1のヘッドアップディスプレイ装置の制御部による瞳孔位置の推定処理を示す流れ図である。It is a flow chart which shows the estimation process of the pupil position by the control part of the head-up display device of FIG. 運転者が虚像に正対しておらず、虚像を視認していない様子を平面視で示す説明図である。It is explanatory drawing which shows the state which a driver does not face a virtual image and does not visually recognize a virtual image in a plan view.

本発明を実施するための形態について、図面に基づいて説明する。 A mode for carrying out the present invention will be described with reference to the drawings.

図1に示すように、本実施の形態に係るヘッドアップディスプレイ装置(HUD)1は、車両のフロントウインドシールド2の下方に設けられ、フロントウインドシールド2の一部に可視光である表示光Lを投影する。表示光Lは、フロントウインドシールド2に反射されて虚像Vを生成し、車両の運転者Dにフロントウインドシールド2を透過する実景に重ねて虚像Vを視認させる。 As shown in FIG. 1, the head-up display device (HUD) 1 according to the present embodiment is provided below the front windshield 2 of the vehicle, and a part of the front windshield 2 is a visible light L. Project 1 The display light L 1 is reflected by the front windshield 2 to generate a virtual image V, and causes the driver D of the vehicle to visually recognize the virtual image V by superimposing it on the actual scene transmitted through the front windshield 2.

また、HUD1は、運転者Dの状態をモニターするDMS(ドライバーモニタリングシステム)の機能を持ち、運転者Dに赤外光Lを投影して運転者Dを撮像し、撮像画像に基づいて運転者Dの目Eの瞳孔C(図2参照)の位置を検出可能である。 Further, the HUD 1 has a DMS (driver monitoring system) function of monitoring the state of the driver D, projects infrared light L 2 onto the driver D to image the driver D, and operates based on the captured image. The position of the pupil C (see FIG. 2) of the eye E of the person D can be detected.

詳細には、HUD1は、黒色のABS樹脂等により成形されて外光の侵入が防止された筐体3に覆われて外部と区画され、筐体3には図示を略すポリカーボネート等の透明な樹脂で覆われた透光部4が形成されている。筐体3の内部には、表示ユニット5と、折返鏡6と、凹面鏡7と、赤外光照射ユニット8と、カメラ9と、制御部10とが保持・収容されている。 Specifically, the HUD 1 is covered with a housing 3 formed of a black ABS resin or the like to prevent the intrusion of external light and is partitioned from the outside, and the housing 3 is a transparent resin such as polycarbonate (not shown). A translucent portion 4 covered with is formed. A display unit 5, a folding mirror 6, a concave mirror 7, an infrared light irradiation unit 8, a camera 9, and a control unit 10 are held and housed inside the housing 3.

表示ユニット5は、ここでは、チップ型の発光ダイオードからなる光源及び液晶パネルが設けられ、液晶パネルが光源の出射光を2次元的に変調することにより、可視光である映像光(表示光L)を投影表示するが、表示ユニット5にはDMD(デジタル・マイクロミラー・ディスプレイ)等の反射型デバイスを使用してもよい。折返鏡6は、平面部分を有するように成形されたポリカーボネート等の樹脂にアルミニウム等の金属を蒸着してなり、光を単純に反射する。凹面鏡7は、凹面部分を有するように成形されたポリカーボネート等の樹脂にアルミニウム等の金属を蒸着してなり、可視光を拡大して反射するとともに、赤外光を透過させる特性を有する。 Here, the display unit 5 is provided with a light source and a liquid crystal panel made of a chip-type light emitting diode, and the liquid crystal panel two-dimensionally modulates the emitted light of the light source to obtain visible light (display light L). Although 1 ) is projected and displayed, a reflective device such as a DMD (Digital Micromirror Display) may be used for the display unit 5. The folding mirror 6 is formed by depositing a metal such as aluminum on a resin such as polycarbonate molded so as to have a flat portion, and simply reflects light. The concave mirror 7 is formed by depositing a metal such as aluminum on a resin such as polycarbonate molded so as to have a concave portion, and has a property of magnifying and reflecting visible light and transmitting infrared light.

赤外光照射ユニット8は、凹面鏡7の裏側(凹面鏡7に対して透光部4及び折返鏡6の反対側)に設けられ、発光ダイオードからなる光源が発する赤外光(近赤外線)を凹面鏡7に向けて照射する。カメラ9は、赤外照射ユニット8から照射される波長帯の赤外光に感度を有する撮像素子、及び、赤外光を透過してその撮像素子に結像させ得るレンズを備え、近赤外線画像を撮影する。 The infrared light irradiation unit 8 is provided on the back side of the concave mirror 7 (opposite the light transmitting portion 4 and the folding mirror 6 with respect to the concave mirror 7), and emits infrared light (near infrared rays) emitted by a light source composed of a light emitting diode. Irradiate toward 7. The camera 9 includes an image pickup element having sensitivity to infrared light in a wavelength band emitted from the infrared irradiation unit 8 and a lens capable of transmitting infrared light and forming an image on the image pickup device, and provides a near-infrared image. To shoot.

制御部10は、マイクロプロセッサ、メモリ及びそれらを動作させるための各種電子部品、基板、ケースからなり、車両情報や運転者Dの入力情報に基づいてHUD1の映像を適切に表示するように表示ユニット5を制御する。 The control unit 10 is composed of a microprocessor, a memory, and various electronic components for operating them, a board, and a case, and is a display unit so as to appropriately display the image of the HUD1 based on the vehicle information and the input information of the driver D. 5 is controlled.

また、制御部10は、図2に示すように、カメラ9による撮像画像Pのコントラストに基づいて、運転者Dの左右の目Eの瞳孔Cの位置(例えば、虹彩Iの中心位置)を検出し、この左右の瞳孔Cの中間点Cの位置を視点位置として検出する。検出された視点位置は、運転者Dの状態検出(脇見や居眠り等)やHUD1の表示制御に利用可能である。 Further, as shown in FIG. 2, the control unit 10 detects the positions of the pupils C of the left and right eyes E of the driver D (for example, the center position of the iris I) based on the contrast of the image P captured by the camera 9. and detects the position of the midpoint C 1 of the pupil C of the left and right as the viewpoint position. The detected viewpoint position can be used for detecting the state of the driver D (looking aside, taking a nap, etc.) and controlling the display of the HUD1.

さらに、制御部10は、カメラ9による撮像画像Pのコントラストに基づいて、運転者Dの顔Fの輪郭F(顎の先端Fを含む。)、左右の耳Y、左右の耳Yの中心Y、左右の眉毛B、左右の眉毛Bの中心B、眉間Q、左右の目Eの輪郭E(目尻E及び目頭Eを含む。)、鼻Nの輪郭N(左右の鼻の淵Nを含む。)、左右の鼻の淵Nの中心N、左右の鼻の穴N、左右の鼻の穴Nの中心N、鼻筋N、鼻尖N、人中R、口Mの輪郭M(左右の口角Mを含む。)、左右の口角Mの中心M等の特徴点Tの位置を検出するとともに、検出された瞳孔Cの位置と検出された特徴点Tの位置との位置関係を内部メモリに記憶する(以下、制御部10に記憶される位置関係を「基準位置関係」ともいう。)。 Further, the control unit 10 has the contour F 1 (including the tip F 2 of the jaw) of the face F of the driver D, the left and right ears Y, and the left and right ears Y based on the contrast of the image P captured by the camera 9. Center Y 1 , left and right eyebrows B, left and right eyebrows B center B 1 , between eyebrows Q, left and right eye E contours E 1 (including outer corners E 2 and inner corners E 3 ), nose N contour N 1 (left and right) of including edge N 2 nose.), right and left nose edge N 2 of the center N 3, holes N 4 of the right and left nose, the center N 5 holes N 4 of the right and left nose, nose N 6, nose tip N 7 , human in R, contour M 1 of the mouth M (including left and right corners of the mouth M 2.), and detects the position of the feature point T such centers M 3 of the right and left corners of the mouth M 2, the position of the detected pupil C The positional relationship with the position of the detected feature point T is stored in the internal memory (hereinafter, the positional relationship stored in the control unit 10 is also referred to as a "reference positional relationship").

HUD1において、表示ユニット5からの表示光Lは、折返鏡6で反射され、次いで、凹面鏡7で拡大して反射され、透光部4を通過してフロントウインドシールド2に投影される。フロントウインドシールド2に投影された表示光Lは、運転者Dの側に拡大して反射され、虚像Vを生成してフロントウインドシールド2を透過する実景に重ねて運転者Dに表示する。 In the HUD 1 , the display light L 1 from the display unit 5 is reflected by the folding mirror 6, then enlarged and reflected by the concave mirror 7, passes through the light transmitting portion 4, and is projected onto the front windshield 2. The display light L 1 projected on the front windshield 2 is enlarged and reflected toward the driver D, generates a virtual image V, and is displayed on the driver D overlaid on the actual scene transmitted through the front windshield 2.

一方、赤外光照射ユニット8からの赤外光Lは、凹面鏡7を透過し、透光部4を通過してフロントウインドシールド2に投影され、フロントウインドシールド2で運転者Dの側に反射されて運転者Dを照射する。そして、運転者Dに反射されると赤外光Lの一部は逆の経路を辿り、凹面鏡7を透過してカメラ9に入射した赤外光Lにより運転者Dが撮像され、その撮像画像Pが制御部10に入力される。この撮像は、虚像Vの表示中、定期的又は不定期的に行われ、ここでは、虚像Vが表示されている間、定期的なフレームレートの動画撮像が行われる。 On the other hand, the infrared light L 2 from the infrared light irradiation unit 8 passes through the concave mirror 7, passes through the translucent portion 4, and is projected onto the front windshield 2, and is projected onto the front windshield 2 by the front windshield 2 toward the driver D. It is reflected and irradiates the driver D. Then, when reflected by the driver D, a part of the infrared light L 2 follows the opposite path, and the driver D is imaged by the infrared light L 2 transmitted through the concave mirror 7 and incident on the camera 9. The captured image P is input to the control unit 10. This imaging is performed periodically or irregularly during the display of the virtual image V, and here, a moving image at a regular frame rate is performed while the virtual image V is displayed.

制御部10は、運転者Dの撮像画像Pが入力されると、運転者Dの左右の目Eの瞳孔Cの位置を検出し、この左右の瞳孔Cの中間点Cの位置を視点位置として検出する。ただ、本来は、図2に示すような運転者Dの撮像画像Pが得られるはずであるが、図3に示すように、太陽光等の強い外光Lの赤外成分がフロントウインドシールド2、透光部4、凹面鏡7を透過してカメラ9に入射すると、撮像画像Pには図4に示すような白飛びしたノイズ領域Sが生じ、運転者Dの目Eの瞳孔C(図4では右目Eの瞳孔C)の位置の検出に支障を来すことがある。 Control unit 10, the captured image P of the driver D is input, detects the position of the pupil C of the left and right eyes E of the driver D, the position of the midpoint C 1 of the left and right pupils C viewpoint position Detect as. However, originally, although it should captured image P of the driver D as shown in FIG. 2 is obtained, as shown in FIG. 3, the infrared component windshield of intense external light L 3 of sunlight 2. When the light-transmitting portion 4 and the concave mirror 7 are transmitted and incident on the camera 9, an overexposed noise region S as shown in FIG. 4 is generated in the captured image P, and the pupil C of the eye E of the driver D (FIG. In 4, it may interfere with the detection of the position of the pupil C) of the right eye E.

そこで、制御部10は、撮像した撮像画像Pにおいてノイズ領域Sの存在により運転者Dの左右の一方の目Eについて瞳孔Cの位置の検出が困難な場合に、運転者Dの瞳孔C及び目Eの輪郭E上の特徴点Tの位置関係に関する情報に基づいて、その一方の目Eについて瞳孔Cの位置を推定する。 Therefore, when it is difficult for the control unit 10 to detect the position of the pupil C for one of the left and right eyes E of the driver D due to the presence of the noise region S in the captured image P, the control unit 10 has the pupil C and the eyes of the driver D. Based on the information regarding the positional relationship of the feature points T on the contour E 1 of E, the position of the pupil C is estimated for one eye E.

そして、運転者Dの左右の他方の目Eについて、特徴点Tの位置は維持されつつ、瞳孔Cの位置は虚像V(以下「HUD像」ともいう。)が他方の目Eの少なくとも弁別視野を含む視野(ここでは、有効視野)に入る範囲内で移動したと判断される場合、制御部10は、上記の位置関係に関する情報及びその移動に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定する。 Then, with respect to the other eye E on the left and right of the driver D, the position of the feature point T is maintained, and the position of the pupil C is a virtual image V (hereinafter, also referred to as “HUD image”), which is at least a discriminative visual field of the other eye E. When it is determined that the eye has moved within the range including the visual field (here, the effective visual field), the control unit 10 has the pupil C for one eye E based on the above information on the positional relationship and the information on the movement. Estimate the position of.

例えば、制御部10は、運転者Dを正面から撮像したある時点(車両のイグニッションオンの時点やHUD像の表示開始の時点)の撮像画像P(以下「第1の撮像画像P」ともいう。)における左目Eについて、瞳孔C、目尻E及び目頭Eの各位置の関係を基準位置関係として記憶し、その後に撮像した撮像画像P(以下「第2の撮像画像P」ともいう。)において運転者Dの左目Eは瞳孔Cの位置が検出可能で、右目Eは外光Lによるノイズ領域Sによって瞳孔Cの位置が検出不可能になったとすると、基準位置関係、並びに、右目Eについて検出された目尻Eの位置及び目頭Eの位置に基づいて、右目Eについて瞳孔Cの位置を推定する。 For example, the control unit 10 may refer to the captured image P (hereinafter, also referred to as “first captured image P”) at a certain point in time when the driver D is imaged from the front (when the ignition of the vehicle is turned on or when the display of the HUD image is started). ), The relationship between the positions of the pupil C, the outer corner of the eye E 2 and the inner corner of the eye E 3 is stored as a reference positional relationship, and then the captured image P (hereinafter, also referred to as “second captured image P”) is captured. eye E of the driver D is detectable position of the pupil C in, the right eye E is the position of the pupil C by noise area S by the external light L 3 becomes undetectable, the reference positional relationship, as well, the right eye E Based on the position of the outer corner E 2 and the position of the inner corner E 3 detected in the above, the position of the pupil C is estimated for the right eye E.

ところが、運転者Dの有効視野にHUD像が入っているものの運転者Dが正面を見ていない場合は、図5に示すように、第2の撮像画像Pにおける左目Eの目尻E及び目頭Eの各位置は、第1の撮像画像Pにおける左目Eの目尻E及び目頭Eの各位置と略同じで維持されつつ、第2の撮像画像Pにおける左目Eの瞳孔Cの位置は、HUD像が左目Eの有効視野に入る範囲内で第1の撮像画像Pから移動していて、第1の撮像画像Pにおける左目Eの瞳孔Cの位置からオフセットしている。 However, when the driver D of those that contain the HUD image effective visual field of the driver D is not looking at the front, as shown in FIG. 5, the outer corner of the eye E 2 and inner corner of the left eye E in the second captured image P each position of E 3 while being maintained substantially the same as the position of the outer corner of the eye E 2 and inner corner of the eye E 3 of the left eye E in the first captured image P, the position of the pupil C of the left eye E in the second captured image P is , The HUD image is moving from the first captured image P within the range within the effective field of view of the left eye E, and is offset from the position of the pupil C of the left eye E in the first captured image P.

このような場合に、制御部10が記憶している基準位置関係(第1の撮像画像Pにおける左目Eについての瞳孔C、目尻E及び目頭Eの各位置の関係)を右目Eに適用するだけでは、本来は左目Eと同様な方向に同様な量(距離)だけ変位しているはずの右目Eの瞳孔Cを、図5に瞳孔Cと示すように推定してしまうため、制御部10は、基準位置関係に関する情報のみならず、左目Eの瞳孔Cの位置の移動に関する情報に基づいて、右目Eについて瞳孔Cの位置を推定する。この推定は、左目Eの瞳孔Cの位置のオフセット(例えば、第1の撮像画像Pから第2の撮像画像Pにかけての瞳孔Cの変位方向及び変位量)に基づいて基準位置関係を補正し、補正した基準位置関係を右目Eに適用して行ってもよいし、基準位置関係をそのまま右目Eに適用した上で、適用結果を左目Eの瞳孔Cの位置のオフセットに合わせて補正して行ってもよい。 In such a case, the reference positional relationship (relationship between the positions of the pupil C, the outer corner E 2 and the inner corner E 3 of the left eye E in the first captured image P) stored by the control unit 10 is applied to the right eye E. alone will, because originally would estimate the pupil C of the right eye E that should be displaced by an amount similar to the same direction and the left eye E (distance), as shown with the pupil C 0 in FIG. 5, control The unit 10 estimates the position of the pupil C with respect to the right eye E based on not only the information regarding the reference positional relationship but also the information regarding the movement of the position of the pupil C of the left eye E. This estimation corrects the reference positional relationship based on the displacement of the position of the pupil C of the left eye E (for example, the displacement direction and the amount of displacement of the pupil C from the first captured image P to the second captured image P). The corrected reference positional relationship may be applied to the right eye E, or the reference positional relationship may be applied to the right eye E as it is, and then the application result is corrected according to the displacement of the position of the pupil C of the left eye E. You may.

また、制御部10は、運転者Dの顔Fの向きを検出し、検出された運転者Dの顔向きから運転者DがHUD像に正対していないと判断され、かつ、検出された他方の目Eについての瞳孔Cの位置又は検出された運転者Dの顔向きから運転者DがHUD像を視認していないと判断される場合、運転者Dがその顔向きでHUD像を視認するときの左右の瞳孔Cの位置を推定する。 Further, the control unit 10 detects the direction of the face F of the driver D, determines from the detected face direction of the driver D that the driver D does not face the HUD image, and detects the other side. If it is determined from the position of the pupil C with respect to the eye E or the detected face orientation of the driver D that the driver D is not viewing the HUD image, the driver D visually recognizes the HUD image in that face orientation. Estimate the positions of the left and right pupils C at the time.

この制御部10による瞳孔Cの位置の推定処理を図6に示すと、制御部10は、運転者Dの顔Fの特徴点T及び瞳孔Cの位置情報を取得し(ステップ1(図6において「S.1」と記載。以下同様。))、左右両目の瞳孔Cの位置を取得できているかどうかを確認する(ステップ2)。ステップ2でYESの場合、制御部10は、瞳孔Cの位置は検出済みで推定する必要はないので、処理を終了する。 When the process of estimating the position of the pupil C by the control unit 10 is shown in FIG. 6, the control unit 10 acquires the position information of the feature point T of the face F of the driver D and the pupil C (step 1 (in FIG. 6). Described as "S.1". The same applies hereinafter.)), And confirm whether or not the positions of the pupils C of both the left and right eyes can be obtained (step 2). If YES in step 2, the control unit 10 ends the process because the position of the pupil C has already been detected and does not need to be estimated.

ステップ2でNOの場合、制御部10は、左右両目のうちいずれかの瞳孔Cの位置を取得できているかどうかを確認し(ステップ3)、ステップ3でNOの場合、制御部10は、左右両目について瞳孔Cの位置を取得できず、推定処理の続行が困難であるから、処理を終了する。 If NO in step 2, the control unit 10 confirms whether or not the position of the pupil C of either the left or right eye can be acquired (step 3), and if NO in step 3, the control unit 10 is left or right. Since the position of the pupil C cannot be obtained for both eyes and it is difficult to continue the estimation process, the process is terminated.

ステップ3でYESの場合、制御部10は、特徴点Tの位置から運転者Dの顔Fの向きを特定し(ステップ4:制御部10自体は顔Fの向きを特定せず、図示を略す他のECUから特定結果を受領してもよい。)、運転者Dの顔FがHUD像に正対しているかどうかを判断する(ステップ5)。 If YES in step 3, the control unit 10 specifies the orientation of the driver D's face F from the position of the feature point T (step 4: the control unit 10 itself does not specify the orientation of the face F, and the illustration is omitted. A specific result may be received from another ECU), and it is determined whether or not the face F of the driver D faces the HUD image (step 5).

ステップ5でYESの場合、撮像画像Pにおいて運転者Dの左右の一方の目(ノイズ領域Sで瞳孔Cが隠れている目)Eについて瞳孔Cの位置が検出困難である一方、運転者Dは、左右両方の目EでHUD像を見ていると考えられるから、制御部10は、撮像画像Pから検出される運転者Dの左右の他方の目(ノイズ領域Sで瞳孔Cが隠れていない目)Eについて、瞳孔C、目尻E及び目頭Eの各位置の関係を基準位置関係として記憶するとともに(ステップ6)、基準位置関係と、一方の目Eについて検出される目尻Eの位置及び目頭Eの位置とに基づいて、一方の目Eについての瞳孔Cの位置を推定する(ステップ7)。 If YES in step 5, it is difficult to detect the position of the pupil C for one of the left and right eyes (the eye in which the pupil C is hidden in the noise region S) E of the driver D in the captured image P, while the driver D Since it is considered that both the left and right eyes E are viewing the HUD image, the control unit 10 has the other left and right eyes of the driver D detected from the captured image P (the pupil C is not hidden in the noise region S). For eye) E, the relationship between the positions of pupil C, outer corner E 2 and inner corner E 3 is stored as a reference positional relationship (step 6), and the reference positional relationship and the outer corner E 2 detected for one eye E are stored. based on the positions of and inner corner of the eye E 3, to estimate the position of the pupil C for one eye E (step 7).

ステップ5でNOの場合、制御部10は、ステップ1で検出した他方の目Eについての瞳孔Cの位置及び/又はステップ4で特定した運転者Dの顔Fの向きから運転者Dの視線を特定し(ステップ8)、運転者DがHUD像を視認しているかどうかを判断する(ステップ9)。具体的には、例えば、制御部10は、検出済みの瞳孔Cの位置から顔向きと同方向に延びる仮想的な直線を運転者Dの視線と特定し、その視線から想定される運転者Dの弁別視野にHUD像が入っていれば、運転者DがHUD像を視認していると判断する。 If NO in step 5, the control unit 10 looks at the driver D's line of sight from the position of the pupil C with respect to the other eye E detected in step 1 and / or the direction of the driver D's face F specified in step 4. It is specified (step 8), and it is determined whether or not the driver D is visually recognizing the HUD image (step 9). Specifically, for example, the control unit 10 identifies a virtual straight line extending in the same direction as the face direction from the detected position of the pupil C as the line of sight of the driver D, and the driver D assumed from that line of sight. If the HUD image is included in the discriminant field of view, it is determined that the driver D is visually recognizing the HUD image.

ステップ9でYESの場合、運転者Dは、顔FがHUD像に正対していないものの視線がHUD像を見ているので、ステップ1で検出された瞳孔Cの目尻E及び目頭Eに対する相対的な位置は、制御部10が顔FがHUD像と正対しているときの基準位置関係を記憶しているならば(例えば、制御部10が、図6に示す推定処理を繰り返す中で、前回の推定処理のステップ6で基準位置関係を記憶しているならば)、その基準位置関係からずれている。そこで、制御部10は、瞳孔Cが検出済みの運転者Dの他方の目Eについて、上記のとおり瞳孔Cの位置のオフセットを検出し、基準位置関係に関する情報のみならず、そのオフセットに関する情報に基づいて、瞳孔Cが未検出の運転者Dの一方の目Eについて、瞳孔Cの位置を推定する(ステップ10)。 If YES in step 9, the driver D refers to the outer corner E 2 and the inner corner E 3 of the pupil C detected in step 1 because the face F does not face the HUD image but the line of sight is looking at the HUD image. The relative position is determined if the control unit 10 remembers the reference positional relationship when the face F faces the HUD image (for example, while the control unit 10 repeats the estimation process shown in FIG. 6). , If the reference positional relationship is memorized in step 6 of the previous estimation process), the reference positional relationship is deviated. Therefore, the control unit 10 detects the offset of the position of the pupil C with respect to the other eye E of the driver D in which the pupil C has been detected, and obtains not only the information regarding the reference positional relationship but also the information regarding the offset. Based on this, the position of the pupil C is estimated for one eye E of the driver D in which the pupil C has not been detected (step 10).

ステップ9でNOの場合、運転者Dは、図7に示すように、顔FがHUD像に正対しておらず、HUD像を視認してもいない。これは、車両の右左折の際の側方や後方の確認時等の一時的な状況で、運転者Dは、すぐに顔Fを正面に向けてHUD像を視認すると考えられるが、その際、まず、視線が正面を向くように動き出してから、顔Fの向きを変える動作が追従する。制御部10は、この次回のHUD像の視認時に備え、あらかじめ左右の目Eについて瞳孔Cの動く位置(予測視点位置)を推定し(ステップ11)、HUD像の表示の位置補正(AR重畳させるための表示位置の制御)や視点位置に従ったワーピング制御を実行しておくことによって、視線がHUD像に戻る際の違和感のない表示制御を可能としている。 If NO in step 9, as shown in FIG. 7, the driver D does not face the HUD image and does not visually recognize the HUD image. This is a temporary situation such as when checking the side or the rear when turning left or right of the vehicle, and it is considered that the driver D immediately turns his face F to the front and visually recognizes the HUD image. First, the line of sight starts to move toward the front, and then the action of changing the direction of the face F follows. The control unit 10 estimates in advance the moving position (predicted viewpoint position) of the pupil C for the left and right eyes E in preparation for the next viewing of the HUD image (step 11), and corrects the position of the display of the HUD image (AR superimposition). By executing warping control according to the display position) and the viewpoint position, it is possible to control the display without discomfort when the line of sight returns to the HUD image.

詳しくは、ステップ9で運転者DがHUD像を視認していないと判断される場合、制御部10は、運転者DがHUD像の中心(画角中心)を見ると仮定し、瞳孔Cが検出済みの運転者Dの他方の目(図7では左目)Eについて、顔向きがそのままでHUD像の中心を見るときの瞳孔位置(図7に符号C0Lで示す瞳孔の位置)を推定し、現在の瞳孔Cの位置と瞳孔C0Lの位置とのオフセットを算出した上で、このオフセットを外光Lにより瞳孔Cが未検出の運転者Dの一方の目(図7では右目)Eにも適用することによって、一方の目Eについても、顔向きがそのままでHUD像の中心を見るときの瞳孔位置(図7に符号C0Rで示す瞳孔の位置)を推定する。このような推定は、必ずしもHUD像の中心を基準に行わなくてもよく、運転者Dが図7に示すように左側を向いているときは、運転者Dの視線はHUD像を左端から見ることになるため、HUD像を最初に視認する視点位置をより正確に推定するために、HUD像の左端を基準に行ってもよい。 Specifically, when it is determined in step 9 that the driver D is not visually recognizing the HUD image, the control unit 10 assumes that the driver D sees the center of the HUD image (center of the angle of view), and the pupil C For the other eye (left eye in FIG. 7) E of the detected driver D, the pupil position (the position of the pupil indicated by the symbol C 0L in FIG. 7) when looking at the center of the HUD image while keeping the face orientation is estimated. , after calculating the offset between the position of the position and the pupil C 0L of the current pupil C, one of the eyes of the driver D pupil C is not detected by the external light L 3 of the offset (in Figure 7 right) E Also for one eye E, the pupil position (the position of the pupil indicated by the reference numeral C0R in FIG. 7) when looking at the center of the HUD image while keeping the face orientation is estimated. Such an estimation does not necessarily have to be performed with reference to the center of the HUD image, and when the driver D is facing the left side as shown in FIG. 7, the line of sight of the driver D sees the HUD image from the left end. Therefore, in order to more accurately estimate the viewpoint position at which the HUD image is first visually recognized, the left end of the HUD image may be used as a reference.

本実施の形態に係るHUD1では、制御部10が、運転者Dの左右の一方の目Eについて瞳孔Cの位置の検出が困難な場合に、運転者Dの瞳孔C及び特徴点Tの位置関係(基準位置関係)に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定するので、たとえ左右の目Eの一方又は両方の位置の検出が外光Lの影響により困難であっても、撮像により特徴点Tの位置が得られれば目Eの位置の推定が可能で、目Eの位置の検出に失敗する確率が低減し、外光Lが入射しても目Eの位置を安定的に検出することが可能となる。 In the HUD 1 according to the present embodiment, when it is difficult for the control unit 10 to detect the position of the pupil C with respect to one of the left and right eyes E of the driver D, the positional relationship between the pupil C of the driver D and the feature point T. based on (reference position relationship) information about, so to estimate the position of the pupil C for one eye E, if the detection of one or both of the positions of the left and right eyes E are difficult due to the influence of the external light L 3 also, allows the estimation of the position of the fit E Rarere obtained position of the characteristic point T by imaging, reduces the probability of missed detection of the position of the eye E, the position of the eye E even when external light L 3 incident Can be detected stably.

また、制御部10は、運転者Dの左右の他方の目Eについて特徴点Tの位置は維持されつつ瞳孔Cの位置は所定の範囲内で移動したと判断される場合、基準位置関係に関する情報及びその移動に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定するので、運転者Dが顔Fをあまり動かすことなく瞳孔Cを動かして視線を正面から左右や上下に振っても、一方の目Eについて瞳孔Cの位置を正確に推定することができ、目Eの位置の検出に失敗する確率を低減させることができる。 Further, when it is determined that the position of the feature point T is maintained and the position of the pupil C is moved within a predetermined range with respect to the other left and right eyes E of the driver D, the control unit 10 provides information on the reference positional relationship. Since the position of the pupil C is estimated for one eye E based on the information on the movement and the movement thereof, even if the driver D moves the pupil C without moving the face F too much and swings the line of sight from the front to the left, right, up and down. , The position of the pupil C can be accurately estimated for one eye E, and the probability of failure to detect the position of the eye E can be reduced.

さらに、制御部10は、運転者Dの顔Fの向きから運転者Dが横(水平方向)を向いたり上下(垂直方向)を向いたりしてHUD像に正対していないと判断され、かつ、運転者Dの他方の目Eについての瞳孔Cの位置及び/又は運転者Dの顔Fの向きから運転者DがHUD像を視認していないと判断される場合、運転者Dがその顔向きでHUD像を視認するときの左右の瞳孔Cの位置を推定するので、推定した瞳孔Cの位置で定まる予測視点位置を用いてHUD像の表示を制御することにより、運転者Dが次に視線をHUD像に向けた際にスムーズな表示変化を実現することができる。 Further, the control unit 10 determines that the driver D is facing sideways (horizontally) or vertically (vertically) from the direction of the driver D's face F and is not facing the HUD image. If it is determined from the position of the pupil C with respect to the other eye E of the driver D and / or the direction of the face F of the driver D that the driver D is not visually recognizing the HUD image, the driver D is the face. Since the positions of the left and right pupils C when visually recognizing the HUD image in the orientation are estimated, the driver D can then control the display of the HUD image by using the predicted viewpoint position determined by the estimated position of the pupil C. A smooth display change can be realized when the line of sight is directed toward the HUD image.

以上、本発明を実施するための形態について例示したが、本発明の実施形態は上述したものに限られず、発明の趣旨を逸脱しない範囲で適宜変更等してもよい。 Although the embodiments for carrying out the present invention have been illustrated above, the embodiments of the present invention are not limited to those described above, and may be appropriately modified without departing from the spirit of the invention.

例えば、上記実施の形態では、瞳孔Cの位置を推定するための特徴点Tとして目尻E及び目頭Eを用いた例を説明したが、それ以外の目Eの輪郭E上の望ましくは複数の特徴点Tから瞳孔Cの位置を推定してもよい。 For example, in the above embodiment, an example in which the outer corner E 2 and the inner corner E 3 of the eye are used as the feature points T for estimating the position of the pupil C has been described, but other desirable points E 1 on the contour E 1 of the eye E have been described. The position of the pupil C may be estimated from a plurality of feature points T.

1 ヘッドアップディスプレイ装置
2 フロントウインドシールド(反射透光部材)
9 カメラ
10 制御部(瞳孔検出手段、特徴点検出手段、瞳孔推定手段、顔向き検出手段)
C 瞳孔
D 運転者(利用者)
E 目
輪郭
目尻
目頭
F 顔
表示光
赤外光
P 撮像画像
T 特徴点
V 虚像
1 Head-up display device 2 Front windshield (reflection and translucent member)
9 Camera 10 Control unit (pupil detection means, feature point detection means, pupil estimation means, face orientation detection means)
C Pupil D Driver (user)
E Eye E 1 Contour E 2 Outer corner E 3 Inner eye F Face L 1 Display light L 2 Infrared light P Captured image T Feature point V Virtual image

Claims (5)

車両に設けられた反射透光部材に表示光を投影し、前記反射透光部材を透過する実景に重ねて前記反射透光部材に反射された表示光により虚像を生成して表示するとともに、前記車両の利用者に赤外光を投影して前記利用者を撮像し、その撮像画像に基づいて前記利用者の左右の目の瞳孔の位置を検出可能なヘッドアップディスプレイ装置であって、
前記撮像画像における前記瞳孔の位置を検出する瞳孔検出手段と、
前記撮像画像における前記利用者の目の輪郭上の特徴点の位置を検出する特徴点検出手段と、
前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合に、前記利用者の瞳孔及び特徴点の位置関係に関する情報に基づいて、前記一方の目について瞳孔の位置を推定する瞳孔推定手段とを備え、
前記瞳孔検出手段及び前記特徴点検出手段により、前記利用者の左右の他方の目について特徴点の位置は維持されつつ瞳孔の位置は所定の範囲内で移動したと判断される場合、前記瞳孔推定手段は、前記位置関係に関する情報及びその移動に関する情報に基づいて、前記一方の目について瞳孔の位置を推定することを特徴とするヘッドアップディスプレイ装置。
The display light is projected onto the reflected light-transmitting member provided on the vehicle, and a virtual image is generated and displayed by the display light reflected by the reflected light-transmitting member by superimposing the display light on the actual scene transmitted through the reflected light-transmitting member. A head-up display device capable of projecting infrared light onto a vehicle user to image the user and detecting the positions of the pupils of the left and right eyes of the user based on the captured image.
A pupil detecting means for detecting the position of the pupil in the captured image, and
A feature point detecting means for detecting the position of a feature point on the contour of the user's eye in the captured image, and
When it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user, the pupil of the one eye is based on the information regarding the positional relationship between the pupil and the feature point of the user. Equipped with a pupil estimation means for estimating the position,
When it is determined by the pupil detecting means and the feature point detecting means that the position of the feature point is maintained for the other left and right eyes of the user and the position of the pupil is moved within a predetermined range, the pupil estimation is performed. The means is a head-up display device that estimates the position of the pupil with respect to the one eye based on the information regarding the positional relationship and the information regarding the movement thereof.
前記所定の範囲は、前記虚像が前記他方の目の少なくとも弁別視野を含む視野に入る範囲であることを特徴とする請求項1に記載のヘッドアップディスプレイ装置。 The head-up display device according to claim 1, wherein the predetermined range is a range in which the virtual image enters a field of view including at least a discriminative field of view of the other eye. 前記位置関係は、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置と前記特徴点検出手段により検出された前記他方の目についての特徴点の位置との位置関係であることを特徴とする請求項1又は請求項2に記載のヘッドアップディスプレイ装置。 The positional relationship is the positional relationship between the position of the pupil with respect to the other eye detected by the pupil detecting means and the position of the feature point with respect to the other eye detected by the feature point detecting means. The head-up display device according to claim 1 or 2. 前記特徴点は、前記利用者の目尻又は目頭であることを特徴とする請求項1乃至請求項3のいずれか1項に記載のヘッドアップディスプレイ装置。 The head-up display device according to any one of claims 1 to 3, wherein the feature point is the outer or inner corner of the eyes of the user. 前記利用者の顔の向きを検出する顔向き検出手段を備え、
前記瞳孔推定手段は、前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像に正対していないと判断され、かつ、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置又は前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像を視認していないと判断される場合、前記利用者がその顔の向きで前記虚像を視認するときの前記利用者の左右の目について瞳孔の位置を推定することを特徴とする請求項1乃至請求項4のいずれか1項に記載のヘッドアップディスプレイ装置。
A face orientation detecting means for detecting the orientation of the user's face is provided.
The pupil estimating means determines from the orientation of the user's face detected by the face orientation detecting means that the user does not face the virtual image, and the other one detected by the pupil detecting means. When it is determined from the position of the pupil with respect to the eyes or the orientation of the user's face detected by the face orientation detecting means that the user is not visually recognizing the virtual image, the user is the orientation of the face. The head-up display device according to any one of claims 1 to 4, wherein the position of the pupil is estimated for the left and right eyes of the user when the virtual image is visually recognized.
JP2020062169A 2020-03-31 2020-03-31 Head-up display device Pending JP2021160439A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020062169A JP2021160439A (en) 2020-03-31 2020-03-31 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020062169A JP2021160439A (en) 2020-03-31 2020-03-31 Head-up display device

Publications (1)

Publication Number Publication Date
JP2021160439A true JP2021160439A (en) 2021-10-11

Family

ID=78004156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020062169A Pending JP2021160439A (en) 2020-03-31 2020-03-31 Head-up display device

Country Status (1)

Country Link
JP (1) JP2021160439A (en)

Similar Documents

Publication Publication Date Title
JP6470335B2 (en) Vehicle display system and method for controlling vehicle display system
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
JP6497158B2 (en) Display device, moving body
JP4682470B2 (en) Scan type display device
CN102791509B (en) Image position adjustment device
KR101646390B1 (en) Combination structure of Head up display system and Driven State Monitoring
US11351918B2 (en) Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium
US20120188355A1 (en) Face imaging system and method for controlling the face imaging system
US20020130961A1 (en) Display device of focal angle and focal distance in iris recognition system
JP6453929B2 (en) Vehicle display system and method for controlling vehicle display system
JP5151207B2 (en) Display device
JP5093611B2 (en) Vehicle periphery confirmation device
WO2017090319A1 (en) Device for detecting direction of line of sight, and system for detecting direction of line of sight
CN113022448A (en) Display system
JP6674793B2 (en) Driving support information display device
JP2006248365A (en) Back monitoring mirror of movement body, driver photographing device, driver monitoring device and safety driving support device
JP5259429B2 (en) Display device
JP2007319175A (en) Photographing device and authentication device using the same
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
US10866423B2 (en) Method and device for operating a display system comprising a head-mounted display
JP2018203245A (en) Display system, electronic mirror system, and mobile body
JP4692496B2 (en) Vehicle display device
JP2009240551A (en) Sight line detector
JP2021160439A (en) Head-up display device
WO2021172333A1 (en) Vehicle display device