JP2021160439A - Head-up display device - Google Patents
Head-up display device Download PDFInfo
- Publication number
- JP2021160439A JP2021160439A JP2020062169A JP2020062169A JP2021160439A JP 2021160439 A JP2021160439 A JP 2021160439A JP 2020062169 A JP2020062169 A JP 2020062169A JP 2020062169 A JP2020062169 A JP 2020062169A JP 2021160439 A JP2021160439 A JP 2021160439A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- user
- eye
- driver
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001747 pupil Anatomy 0.000 claims abstract description 125
- 238000001514 detection method Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 3
- 229920000515 polycarbonate Polymers 0.000 description 3
- 239000004417 polycarbonate Substances 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 229910052782 aluminium Inorganic materials 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 229920000122 acrylonitrile butadiene styrene Polymers 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両のフロントウインドシールドやコンバイナ等に虚像を表示するとともに、利用者の瞳孔の位置を検出可能なヘッドアップディスプレイ装置に関する。 The present invention relates to a head-up display device capable of displaying a virtual image on a front windshield, a combiner, or the like of a vehicle and detecting the position of a user's pupil.
車両のフロントウインドシールドやコンバイナ等の反射透光部材を透過する実景(車両前方の風景)に重ねて、その反射透光部材に反射された表示光により虚像を生成して表示するヘッドアップディスプレイ装置は、車両の運転者等の利用者の視線移動を極力抑えつつ、利用者が所望する情報を虚像により提供することによって、安全で快適な車両運行に寄与する。 A head-up display device that creates and displays a virtual image by the display light reflected by the reflected light-transmitting member by superimposing it on the actual scene (scenery in front of the vehicle) that passes through the reflected light-transmitting member such as the front windshield or combiner of the vehicle. Contributes to safe and comfortable vehicle operation by providing information desired by the user as a virtual image while suppressing the movement of the line of sight of the user such as the driver of the vehicle as much as possible.
また、ヘッドアップディスプレイ装置には、利用者に赤外光を照射して利用者を撮像し、その撮像画像に基づいて利用者の瞳孔等の目の位置を検出することにより、脇見や居眠り等の利用者の状態把握に供するものがある。 In addition, the head-up display device irradiates the user with infrared light to image the user, and detects the position of the eyes such as the user's pupil based on the captured image to look aside or take a nap. There is something to help grasp the state of the user.
例えば特許文献1に記載のヘッドアップディスプレイ装置は、表示手段から発せられる可視光をコンバイナ部材にて利用者に向けて反射して表示像を結像してなるもので、利用者に向けて赤外線を照射する赤外線照射手段と、表示手段から発せられる可視光をコンバイナ部材に向けて反射し、利用者及びコンバイナ部材にて反射される赤外線を透過するミラー部材と、ミラー部材を透過する赤外線を感受して利用者をそれぞれ異なる方向から撮像する複数の撮像手段と、撮像手段によって撮像された画像に基づいて利用者の目の位置を算出する画像処理手段とを備え、利用者の目の位置を精度良く算出することが可能となっている。 For example, the head-up display device described in Patent Document 1 is formed by reflecting visible light emitted from a display means toward a user by a combiner member to form a display image, and infrared rays are directed toward the user. The infrared irradiation means for irradiating the light, the mirror member that reflects the visible light emitted from the display means toward the combiner member and transmits the infrared rays reflected by the user and the combiner member, and the infrared rays transmitted through the mirror member are sensed. It is provided with a plurality of imaging means for imaging the user from different directions and an image processing means for calculating the position of the user's eyes based on the image captured by the imaging means, and the position of the user's eyes can be determined. It is possible to calculate with high accuracy.
ところで、ヘッドアップディスプレイ装置に太陽光や街灯の光等の強い外光が入射すると、撮像画像に外光のノイズが加わり、利用者の目の位置の検出に失敗するという問題があった。特許文献1に記載のヘッドアップディスプレイ装置では、外光の赤外成分がミラー部材を透過して撮像手段に入射すると、撮像画像にサチュレーション等による白飛びしたノイズ領域が形成され、このノイズ領域は、撮像画像において必ずしも利用者の目の位置(目の像の位置)と重なり合っていなくても、目の位置の検出に支障を来すことがある。 By the way, when strong external light such as sunlight or street light is incident on the head-up display device, the noise of the external light is added to the captured image, and there is a problem that the detection of the position of the user's eyes fails. In the head-up display device described in Patent Document 1, when an infrared component of external light passes through a mirror member and is incident on an imaging means, an overexposed noise region due to saturation or the like is formed in the captured image, and this noise region is formed. Even if the captured image does not necessarily overlap with the position of the user's eyes (the position of the image of the eyes), the detection of the position of the eyes may be hindered.
本発明は、上記の事情に鑑みてなされたもので、外光が入射しても利用者の瞳孔の位置を安定的に検出することができる車両用表示装置を提供することを課題としている。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a vehicle display device capable of stably detecting the position of a user's pupil even when external light is incident.
上記課題を解決するために、本発明は、車両に設けられた反射透光部材に表示光を投影し、前記反射透光部材を透過する実景に重ねて前記反射透光部材に反射された表示光により虚像を生成して表示するとともに、前記車両の利用者に赤外光を投影して前記利用者を撮像し、その撮像画像に基づいて前記利用者の左右の目の瞳孔の位置を検出可能なヘッドアップディスプレイ装置であって、前記撮像画像における前記瞳孔の位置を検出する瞳孔検出手段と、前記撮像画像における前記利用者の目の輪郭上の特徴点の位置を検出する特徴点検出手段と、前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合に、前記利用者の瞳孔及び特徴点の位置関係に関する情報に基づいて、前記一方の目について瞳孔の位置を推定する瞳孔推定手段とを備え、前記瞳孔検出手段及び前記特徴点検出手段により、前記利用者の左右の他方の目について特徴点の位置は維持されつつ瞳孔の位置は所定の範囲内で移動したと判断される場合、前記瞳孔推定手段は、前記位置関係に関する情報及びその移動に関する情報に基づいて、前記一方の目について瞳孔の位置を推定することを特徴とする。 In order to solve the above problems, the present invention projects display light onto a reflective transmissive member provided in a vehicle, superimposes the display light on the actual scene transmitted through the reflective transmissive member, and reflects the display light on the reflective transmissive member. A virtual image is generated and displayed by light, infrared light is projected onto the user of the vehicle to image the user, and the positions of the pupils of the left and right eyes of the user are detected based on the captured image. A possible head-up display device, a pupil detecting means for detecting the position of the pupil in the captured image and a feature point detecting means for detecting the position of the feature point on the contour of the user's eye in the captured image. When it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user, the one eye is based on the information regarding the positional relationship between the pupil and the feature point of the user. It is provided with a pupil estimation means for estimating the position of the pupil, and the position of the pupil is within a predetermined range while the position of the feature point is maintained for the other left and right eyes of the user by the pupil detecting means and the feature point detecting means. When it is determined that the pupil has moved within, the pupil estimating means estimates the position of the pupil with respect to the one eye based on the information regarding the positional relationship and the information regarding the movement.
ここで、「前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合」とは、瞳孔検出手段が瞳孔の位置の検出に失敗した場合のみを指すのではなく、外光の入射等により瞳孔の位置の検出が困難と思われる所定の条件を満たした場合も含む。 Here, "when it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user" does not mean only when the pupil detecting means fails to detect the position of the pupil. This also includes the case where a predetermined condition is satisfied, which makes it difficult to detect the position of the pupil due to the incident of external light or the like.
また、前記所定の範囲は、前記虚像が前記他方の目の少なくとも弁別視野を含む視野に入る範囲であってもよく、前記位置関係は、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置と前記特徴点検出手段により検出された前記他方の目についての特徴点の位置との位置関係であってもよく、前記特徴点は、前記利用者の目尻又は目頭であってもよい。 Further, the predetermined range may be a range in which the virtual image enters a field of view including at least a discriminative field of view of the other eye, and the positional relationship is the range of the other eye detected by the pupil detecting means. It may be the positional relationship between the position of the pupil and the position of the feature point for the other eye detected by the feature point detecting means, and the feature point may be the outer corner or the inner corner of the eye of the user. ..
さらに、本発明に係るヘッドアップディスプレイ装置は、前記利用者の顔の向きを検出する顔向き検出手段を備え、前記瞳孔推定手段は、前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像に正対していないと判断され、かつ、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置又は前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像を視認していないと判断される場合、前記利用者がその顔の向きで前記虚像を視認するときの前記利用者の左右の目について瞳孔の位置を推定してもよい。 Further, the head-up display device according to the present invention includes face orientation detecting means for detecting the orientation of the user's face, and the pupil estimation means is for the user's face detected by the face orientation detecting means. It is determined from the orientation that the user is not facing the virtual image, and the position of the pupil with respect to the other eye detected by the pupil detecting means or the position of the user detected by the face orientation detecting means. When it is determined from the orientation of the face that the user is not visually recognizing the virtual image, the position of the pupil is estimated for the left and right eyes of the user when the user is visually recognizing the virtual image in the orientation of the face. You may.
本発明に係るヘッドアップディスプレイ装置によれば、外光が入射しても利用者の瞳孔の位置を安定的に検出することができる。 According to the head-up display device according to the present invention, the position of the user's pupil can be stably detected even when external light is incident.
本発明を実施するための形態について、図面に基づいて説明する。 A mode for carrying out the present invention will be described with reference to the drawings.
図1に示すように、本実施の形態に係るヘッドアップディスプレイ装置(HUD)1は、車両のフロントウインドシールド2の下方に設けられ、フロントウインドシールド2の一部に可視光である表示光L1を投影する。表示光L1は、フロントウインドシールド2に反射されて虚像Vを生成し、車両の運転者Dにフロントウインドシールド2を透過する実景に重ねて虚像Vを視認させる。
As shown in FIG. 1, the head-up display device (HUD) 1 according to the present embodiment is provided below the
また、HUD1は、運転者Dの状態をモニターするDMS(ドライバーモニタリングシステム)の機能を持ち、運転者Dに赤外光L2を投影して運転者Dを撮像し、撮像画像に基づいて運転者Dの目Eの瞳孔C(図2参照)の位置を検出可能である。 Further, the HUD 1 has a DMS (driver monitoring system) function of monitoring the state of the driver D, projects infrared light L 2 onto the driver D to image the driver D, and operates based on the captured image. The position of the pupil C (see FIG. 2) of the eye E of the person D can be detected.
詳細には、HUD1は、黒色のABS樹脂等により成形されて外光の侵入が防止された筐体3に覆われて外部と区画され、筐体3には図示を略すポリカーボネート等の透明な樹脂で覆われた透光部4が形成されている。筐体3の内部には、表示ユニット5と、折返鏡6と、凹面鏡7と、赤外光照射ユニット8と、カメラ9と、制御部10とが保持・収容されている。
Specifically, the HUD 1 is covered with a
表示ユニット5は、ここでは、チップ型の発光ダイオードからなる光源及び液晶パネルが設けられ、液晶パネルが光源の出射光を2次元的に変調することにより、可視光である映像光(表示光L1)を投影表示するが、表示ユニット5にはDMD(デジタル・マイクロミラー・ディスプレイ)等の反射型デバイスを使用してもよい。折返鏡6は、平面部分を有するように成形されたポリカーボネート等の樹脂にアルミニウム等の金属を蒸着してなり、光を単純に反射する。凹面鏡7は、凹面部分を有するように成形されたポリカーボネート等の樹脂にアルミニウム等の金属を蒸着してなり、可視光を拡大して反射するとともに、赤外光を透過させる特性を有する。
Here, the
赤外光照射ユニット8は、凹面鏡7の裏側(凹面鏡7に対して透光部4及び折返鏡6の反対側)に設けられ、発光ダイオードからなる光源が発する赤外光(近赤外線)を凹面鏡7に向けて照射する。カメラ9は、赤外照射ユニット8から照射される波長帯の赤外光に感度を有する撮像素子、及び、赤外光を透過してその撮像素子に結像させ得るレンズを備え、近赤外線画像を撮影する。
The infrared light irradiation unit 8 is provided on the back side of the concave mirror 7 (opposite the light transmitting portion 4 and the
制御部10は、マイクロプロセッサ、メモリ及びそれらを動作させるための各種電子部品、基板、ケースからなり、車両情報や運転者Dの入力情報に基づいてHUD1の映像を適切に表示するように表示ユニット5を制御する。
The
また、制御部10は、図2に示すように、カメラ9による撮像画像Pのコントラストに基づいて、運転者Dの左右の目Eの瞳孔Cの位置(例えば、虹彩Iの中心位置)を検出し、この左右の瞳孔Cの中間点C1の位置を視点位置として検出する。検出された視点位置は、運転者Dの状態検出(脇見や居眠り等)やHUD1の表示制御に利用可能である。
Further, as shown in FIG. 2, the
さらに、制御部10は、カメラ9による撮像画像Pのコントラストに基づいて、運転者Dの顔Fの輪郭F1(顎の先端F2を含む。)、左右の耳Y、左右の耳Yの中心Y1、左右の眉毛B、左右の眉毛Bの中心B1、眉間Q、左右の目Eの輪郭E1(目尻E2及び目頭E3を含む。)、鼻Nの輪郭N1(左右の鼻の淵N2を含む。)、左右の鼻の淵N2の中心N3、左右の鼻の穴N4、左右の鼻の穴N4の中心N5、鼻筋N6、鼻尖N7、人中R、口Mの輪郭M1(左右の口角M2を含む。)、左右の口角M2の中心M3等の特徴点Tの位置を検出するとともに、検出された瞳孔Cの位置と検出された特徴点Tの位置との位置関係を内部メモリに記憶する(以下、制御部10に記憶される位置関係を「基準位置関係」ともいう。)。
Further, the control unit 10 has the contour F 1 (including the tip F 2 of the jaw) of the face F of the driver D, the left and right ears Y, and the left and right ears Y based on the contrast of the image P captured by the
HUD1において、表示ユニット5からの表示光L1は、折返鏡6で反射され、次いで、凹面鏡7で拡大して反射され、透光部4を通過してフロントウインドシールド2に投影される。フロントウインドシールド2に投影された表示光L1は、運転者Dの側に拡大して反射され、虚像Vを生成してフロントウインドシールド2を透過する実景に重ねて運転者Dに表示する。
In the HUD 1 , the display light L 1 from the
一方、赤外光照射ユニット8からの赤外光L2は、凹面鏡7を透過し、透光部4を通過してフロントウインドシールド2に投影され、フロントウインドシールド2で運転者Dの側に反射されて運転者Dを照射する。そして、運転者Dに反射されると赤外光L2の一部は逆の経路を辿り、凹面鏡7を透過してカメラ9に入射した赤外光L2により運転者Dが撮像され、その撮像画像Pが制御部10に入力される。この撮像は、虚像Vの表示中、定期的又は不定期的に行われ、ここでは、虚像Vが表示されている間、定期的なフレームレートの動画撮像が行われる。
On the other hand, the infrared light L 2 from the infrared light irradiation unit 8 passes through the concave mirror 7, passes through the translucent portion 4, and is projected onto the
制御部10は、運転者Dの撮像画像Pが入力されると、運転者Dの左右の目Eの瞳孔Cの位置を検出し、この左右の瞳孔Cの中間点C1の位置を視点位置として検出する。ただ、本来は、図2に示すような運転者Dの撮像画像Pが得られるはずであるが、図3に示すように、太陽光等の強い外光L3の赤外成分がフロントウインドシールド2、透光部4、凹面鏡7を透過してカメラ9に入射すると、撮像画像Pには図4に示すような白飛びしたノイズ領域Sが生じ、運転者Dの目Eの瞳孔C(図4では右目Eの瞳孔C)の位置の検出に支障を来すことがある。
そこで、制御部10は、撮像した撮像画像Pにおいてノイズ領域Sの存在により運転者Dの左右の一方の目Eについて瞳孔Cの位置の検出が困難な場合に、運転者Dの瞳孔C及び目Eの輪郭E1上の特徴点Tの位置関係に関する情報に基づいて、その一方の目Eについて瞳孔Cの位置を推定する。
Therefore, when it is difficult for the
そして、運転者Dの左右の他方の目Eについて、特徴点Tの位置は維持されつつ、瞳孔Cの位置は虚像V(以下「HUD像」ともいう。)が他方の目Eの少なくとも弁別視野を含む視野(ここでは、有効視野)に入る範囲内で移動したと判断される場合、制御部10は、上記の位置関係に関する情報及びその移動に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定する。
Then, with respect to the other eye E on the left and right of the driver D, the position of the feature point T is maintained, and the position of the pupil C is a virtual image V (hereinafter, also referred to as “HUD image”), which is at least a discriminative visual field of the other eye E. When it is determined that the eye has moved within the range including the visual field (here, the effective visual field), the
例えば、制御部10は、運転者Dを正面から撮像したある時点(車両のイグニッションオンの時点やHUD像の表示開始の時点)の撮像画像P(以下「第1の撮像画像P」ともいう。)における左目Eについて、瞳孔C、目尻E2及び目頭E3の各位置の関係を基準位置関係として記憶し、その後に撮像した撮像画像P(以下「第2の撮像画像P」ともいう。)において運転者Dの左目Eは瞳孔Cの位置が検出可能で、右目Eは外光L3によるノイズ領域Sによって瞳孔Cの位置が検出不可能になったとすると、基準位置関係、並びに、右目Eについて検出された目尻E2の位置及び目頭E3の位置に基づいて、右目Eについて瞳孔Cの位置を推定する。
For example, the
ところが、運転者Dの有効視野にHUD像が入っているものの運転者Dが正面を見ていない場合は、図5に示すように、第2の撮像画像Pにおける左目Eの目尻E2及び目頭E3の各位置は、第1の撮像画像Pにおける左目Eの目尻E2及び目頭E3の各位置と略同じで維持されつつ、第2の撮像画像Pにおける左目Eの瞳孔Cの位置は、HUD像が左目Eの有効視野に入る範囲内で第1の撮像画像Pから移動していて、第1の撮像画像Pにおける左目Eの瞳孔Cの位置からオフセットしている。 However, when the driver D of those that contain the HUD image effective visual field of the driver D is not looking at the front, as shown in FIG. 5, the outer corner of the eye E 2 and inner corner of the left eye E in the second captured image P each position of E 3 while being maintained substantially the same as the position of the outer corner of the eye E 2 and inner corner of the eye E 3 of the left eye E in the first captured image P, the position of the pupil C of the left eye E in the second captured image P is , The HUD image is moving from the first captured image P within the range within the effective field of view of the left eye E, and is offset from the position of the pupil C of the left eye E in the first captured image P.
このような場合に、制御部10が記憶している基準位置関係(第1の撮像画像Pにおける左目Eについての瞳孔C、目尻E2及び目頭E3の各位置の関係)を右目Eに適用するだけでは、本来は左目Eと同様な方向に同様な量(距離)だけ変位しているはずの右目Eの瞳孔Cを、図5に瞳孔C0と示すように推定してしまうため、制御部10は、基準位置関係に関する情報のみならず、左目Eの瞳孔Cの位置の移動に関する情報に基づいて、右目Eについて瞳孔Cの位置を推定する。この推定は、左目Eの瞳孔Cの位置のオフセット(例えば、第1の撮像画像Pから第2の撮像画像Pにかけての瞳孔Cの変位方向及び変位量)に基づいて基準位置関係を補正し、補正した基準位置関係を右目Eに適用して行ってもよいし、基準位置関係をそのまま右目Eに適用した上で、適用結果を左目Eの瞳孔Cの位置のオフセットに合わせて補正して行ってもよい。
In such a case, the reference positional relationship (relationship between the positions of the pupil C, the outer corner E 2 and the inner corner E 3 of the left eye E in the first captured image P) stored by the
また、制御部10は、運転者Dの顔Fの向きを検出し、検出された運転者Dの顔向きから運転者DがHUD像に正対していないと判断され、かつ、検出された他方の目Eについての瞳孔Cの位置又は検出された運転者Dの顔向きから運転者DがHUD像を視認していないと判断される場合、運転者Dがその顔向きでHUD像を視認するときの左右の瞳孔Cの位置を推定する。
Further, the
この制御部10による瞳孔Cの位置の推定処理を図6に示すと、制御部10は、運転者Dの顔Fの特徴点T及び瞳孔Cの位置情報を取得し(ステップ1(図6において「S.1」と記載。以下同様。))、左右両目の瞳孔Cの位置を取得できているかどうかを確認する(ステップ2)。ステップ2でYESの場合、制御部10は、瞳孔Cの位置は検出済みで推定する必要はないので、処理を終了する。
When the process of estimating the position of the pupil C by the
ステップ2でNOの場合、制御部10は、左右両目のうちいずれかの瞳孔Cの位置を取得できているかどうかを確認し(ステップ3)、ステップ3でNOの場合、制御部10は、左右両目について瞳孔Cの位置を取得できず、推定処理の続行が困難であるから、処理を終了する。
If NO in
ステップ3でYESの場合、制御部10は、特徴点Tの位置から運転者Dの顔Fの向きを特定し(ステップ4:制御部10自体は顔Fの向きを特定せず、図示を略す他のECUから特定結果を受領してもよい。)、運転者Dの顔FがHUD像に正対しているかどうかを判断する(ステップ5)。
If YES in
ステップ5でYESの場合、撮像画像Pにおいて運転者Dの左右の一方の目(ノイズ領域Sで瞳孔Cが隠れている目)Eについて瞳孔Cの位置が検出困難である一方、運転者Dは、左右両方の目EでHUD像を見ていると考えられるから、制御部10は、撮像画像Pから検出される運転者Dの左右の他方の目(ノイズ領域Sで瞳孔Cが隠れていない目)Eについて、瞳孔C、目尻E2及び目頭E3の各位置の関係を基準位置関係として記憶するとともに(ステップ6)、基準位置関係と、一方の目Eについて検出される目尻E2の位置及び目頭E3の位置とに基づいて、一方の目Eについての瞳孔Cの位置を推定する(ステップ7)。
If YES in
ステップ5でNOの場合、制御部10は、ステップ1で検出した他方の目Eについての瞳孔Cの位置及び/又はステップ4で特定した運転者Dの顔Fの向きから運転者Dの視線を特定し(ステップ8)、運転者DがHUD像を視認しているかどうかを判断する(ステップ9)。具体的には、例えば、制御部10は、検出済みの瞳孔Cの位置から顔向きと同方向に延びる仮想的な直線を運転者Dの視線と特定し、その視線から想定される運転者Dの弁別視野にHUD像が入っていれば、運転者DがHUD像を視認していると判断する。
If NO in
ステップ9でYESの場合、運転者Dは、顔FがHUD像に正対していないものの視線がHUD像を見ているので、ステップ1で検出された瞳孔Cの目尻E2及び目頭E3に対する相対的な位置は、制御部10が顔FがHUD像と正対しているときの基準位置関係を記憶しているならば(例えば、制御部10が、図6に示す推定処理を繰り返す中で、前回の推定処理のステップ6で基準位置関係を記憶しているならば)、その基準位置関係からずれている。そこで、制御部10は、瞳孔Cが検出済みの運転者Dの他方の目Eについて、上記のとおり瞳孔Cの位置のオフセットを検出し、基準位置関係に関する情報のみならず、そのオフセットに関する情報に基づいて、瞳孔Cが未検出の運転者Dの一方の目Eについて、瞳孔Cの位置を推定する(ステップ10)。
If YES in step 9, the driver D refers to the outer corner E 2 and the inner corner E 3 of the pupil C detected in step 1 because the face F does not face the HUD image but the line of sight is looking at the HUD image. The relative position is determined if the
ステップ9でNOの場合、運転者Dは、図7に示すように、顔FがHUD像に正対しておらず、HUD像を視認してもいない。これは、車両の右左折の際の側方や後方の確認時等の一時的な状況で、運転者Dは、すぐに顔Fを正面に向けてHUD像を視認すると考えられるが、その際、まず、視線が正面を向くように動き出してから、顔Fの向きを変える動作が追従する。制御部10は、この次回のHUD像の視認時に備え、あらかじめ左右の目Eについて瞳孔Cの動く位置(予測視点位置)を推定し(ステップ11)、HUD像の表示の位置補正(AR重畳させるための表示位置の制御)や視点位置に従ったワーピング制御を実行しておくことによって、視線がHUD像に戻る際の違和感のない表示制御を可能としている。
If NO in
詳しくは、ステップ9で運転者DがHUD像を視認していないと判断される場合、制御部10は、運転者DがHUD像の中心(画角中心)を見ると仮定し、瞳孔Cが検出済みの運転者Dの他方の目(図7では左目)Eについて、顔向きがそのままでHUD像の中心を見るときの瞳孔位置(図7に符号C0Lで示す瞳孔の位置)を推定し、現在の瞳孔Cの位置と瞳孔C0Lの位置とのオフセットを算出した上で、このオフセットを外光L3により瞳孔Cが未検出の運転者Dの一方の目(図7では右目)Eにも適用することによって、一方の目Eについても、顔向きがそのままでHUD像の中心を見るときの瞳孔位置(図7に符号C0Rで示す瞳孔の位置)を推定する。このような推定は、必ずしもHUD像の中心を基準に行わなくてもよく、運転者Dが図7に示すように左側を向いているときは、運転者Dの視線はHUD像を左端から見ることになるため、HUD像を最初に視認する視点位置をより正確に推定するために、HUD像の左端を基準に行ってもよい。
Specifically, when it is determined in
本実施の形態に係るHUD1では、制御部10が、運転者Dの左右の一方の目Eについて瞳孔Cの位置の検出が困難な場合に、運転者Dの瞳孔C及び特徴点Tの位置関係(基準位置関係)に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定するので、たとえ左右の目Eの一方又は両方の位置の検出が外光L3の影響により困難であっても、撮像により特徴点Tの位置が得られれば目Eの位置の推定が可能で、目Eの位置の検出に失敗する確率が低減し、外光L3が入射しても目Eの位置を安定的に検出することが可能となる。
In the HUD 1 according to the present embodiment, when it is difficult for the
また、制御部10は、運転者Dの左右の他方の目Eについて特徴点Tの位置は維持されつつ瞳孔Cの位置は所定の範囲内で移動したと判断される場合、基準位置関係に関する情報及びその移動に関する情報に基づいて、一方の目Eについて瞳孔Cの位置を推定するので、運転者Dが顔Fをあまり動かすことなく瞳孔Cを動かして視線を正面から左右や上下に振っても、一方の目Eについて瞳孔Cの位置を正確に推定することができ、目Eの位置の検出に失敗する確率を低減させることができる。
Further, when it is determined that the position of the feature point T is maintained and the position of the pupil C is moved within a predetermined range with respect to the other left and right eyes E of the driver D, the
さらに、制御部10は、運転者Dの顔Fの向きから運転者Dが横(水平方向)を向いたり上下(垂直方向)を向いたりしてHUD像に正対していないと判断され、かつ、運転者Dの他方の目Eについての瞳孔Cの位置及び/又は運転者Dの顔Fの向きから運転者DがHUD像を視認していないと判断される場合、運転者Dがその顔向きでHUD像を視認するときの左右の瞳孔Cの位置を推定するので、推定した瞳孔Cの位置で定まる予測視点位置を用いてHUD像の表示を制御することにより、運転者Dが次に視線をHUD像に向けた際にスムーズな表示変化を実現することができる。
Further, the
以上、本発明を実施するための形態について例示したが、本発明の実施形態は上述したものに限られず、発明の趣旨を逸脱しない範囲で適宜変更等してもよい。 Although the embodiments for carrying out the present invention have been illustrated above, the embodiments of the present invention are not limited to those described above, and may be appropriately modified without departing from the spirit of the invention.
例えば、上記実施の形態では、瞳孔Cの位置を推定するための特徴点Tとして目尻E2及び目頭E3を用いた例を説明したが、それ以外の目Eの輪郭E1上の望ましくは複数の特徴点Tから瞳孔Cの位置を推定してもよい。 For example, in the above embodiment, an example in which the outer corner E 2 and the inner corner E 3 of the eye are used as the feature points T for estimating the position of the pupil C has been described, but other desirable points E 1 on the contour E 1 of the eye E have been described. The position of the pupil C may be estimated from a plurality of feature points T.
1 ヘッドアップディスプレイ装置
2 フロントウインドシールド(反射透光部材)
9 カメラ
10 制御部(瞳孔検出手段、特徴点検出手段、瞳孔推定手段、顔向き検出手段)
C 瞳孔
D 運転者(利用者)
E 目
E1 輪郭
E2 目尻
E3 目頭
F 顔
L1 表示光
L2 赤外光
P 撮像画像
T 特徴点
V 虚像
1 Head-up
9
C Pupil D Driver (user)
E Eye E 1 Contour E 2 Outer corner E 3 Inner eye F Face L 1 Display light L 2 Infrared light P Captured image T Feature point V Virtual image
Claims (5)
前記撮像画像における前記瞳孔の位置を検出する瞳孔検出手段と、
前記撮像画像における前記利用者の目の輪郭上の特徴点の位置を検出する特徴点検出手段と、
前記利用者の左右の一方の目について前記瞳孔検出手段による瞳孔の位置の検出が困難な場合に、前記利用者の瞳孔及び特徴点の位置関係に関する情報に基づいて、前記一方の目について瞳孔の位置を推定する瞳孔推定手段とを備え、
前記瞳孔検出手段及び前記特徴点検出手段により、前記利用者の左右の他方の目について特徴点の位置は維持されつつ瞳孔の位置は所定の範囲内で移動したと判断される場合、前記瞳孔推定手段は、前記位置関係に関する情報及びその移動に関する情報に基づいて、前記一方の目について瞳孔の位置を推定することを特徴とするヘッドアップディスプレイ装置。 The display light is projected onto the reflected light-transmitting member provided on the vehicle, and a virtual image is generated and displayed by the display light reflected by the reflected light-transmitting member by superimposing the display light on the actual scene transmitted through the reflected light-transmitting member. A head-up display device capable of projecting infrared light onto a vehicle user to image the user and detecting the positions of the pupils of the left and right eyes of the user based on the captured image.
A pupil detecting means for detecting the position of the pupil in the captured image, and
A feature point detecting means for detecting the position of a feature point on the contour of the user's eye in the captured image, and
When it is difficult for the pupil detecting means to detect the position of the pupil for one of the left and right eyes of the user, the pupil of the one eye is based on the information regarding the positional relationship between the pupil and the feature point of the user. Equipped with a pupil estimation means for estimating the position,
When it is determined by the pupil detecting means and the feature point detecting means that the position of the feature point is maintained for the other left and right eyes of the user and the position of the pupil is moved within a predetermined range, the pupil estimation is performed. The means is a head-up display device that estimates the position of the pupil with respect to the one eye based on the information regarding the positional relationship and the information regarding the movement thereof.
前記瞳孔推定手段は、前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像に正対していないと判断され、かつ、前記瞳孔検出手段により検出された前記他方の目についての瞳孔の位置又は前記顔向き検出手段により検出された前記利用者の顔の向きから前記利用者が前記虚像を視認していないと判断される場合、前記利用者がその顔の向きで前記虚像を視認するときの前記利用者の左右の目について瞳孔の位置を推定することを特徴とする請求項1乃至請求項4のいずれか1項に記載のヘッドアップディスプレイ装置。 A face orientation detecting means for detecting the orientation of the user's face is provided.
The pupil estimating means determines from the orientation of the user's face detected by the face orientation detecting means that the user does not face the virtual image, and the other one detected by the pupil detecting means. When it is determined from the position of the pupil with respect to the eyes or the orientation of the user's face detected by the face orientation detecting means that the user is not visually recognizing the virtual image, the user is the orientation of the face. The head-up display device according to any one of claims 1 to 4, wherein the position of the pupil is estimated for the left and right eyes of the user when the virtual image is visually recognized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020062169A JP2021160439A (en) | 2020-03-31 | 2020-03-31 | Head-up display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020062169A JP2021160439A (en) | 2020-03-31 | 2020-03-31 | Head-up display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021160439A true JP2021160439A (en) | 2021-10-11 |
Family
ID=78004156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020062169A Pending JP2021160439A (en) | 2020-03-31 | 2020-03-31 | Head-up display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021160439A (en) |
-
2020
- 2020-03-31 JP JP2020062169A patent/JP2021160439A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6470335B2 (en) | Vehicle display system and method for controlling vehicle display system | |
JP5230748B2 (en) | Gaze direction determination device and gaze direction determination method | |
JP6497158B2 (en) | Display device, moving body | |
JP4682470B2 (en) | Scan type display device | |
CN102791509B (en) | Image position adjustment device | |
KR101646390B1 (en) | Combination structure of Head up display system and Driven State Monitoring | |
US11351918B2 (en) | Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium | |
US20120188355A1 (en) | Face imaging system and method for controlling the face imaging system | |
US20020130961A1 (en) | Display device of focal angle and focal distance in iris recognition system | |
JP6453929B2 (en) | Vehicle display system and method for controlling vehicle display system | |
JP5151207B2 (en) | Display device | |
JP5093611B2 (en) | Vehicle periphery confirmation device | |
WO2017090319A1 (en) | Device for detecting direction of line of sight, and system for detecting direction of line of sight | |
CN113022448A (en) | Display system | |
JP6674793B2 (en) | Driving support information display device | |
JP2006248365A (en) | Back monitoring mirror of movement body, driver photographing device, driver monitoring device and safety driving support device | |
JP5259429B2 (en) | Display device | |
JP2007319175A (en) | Photographing device and authentication device using the same | |
US11827148B2 (en) | Display control device, display control method, moving body, and storage medium | |
US10866423B2 (en) | Method and device for operating a display system comprising a head-mounted display | |
JP2018203245A (en) | Display system, electronic mirror system, and mobile body | |
JP4692496B2 (en) | Vehicle display device | |
JP2009240551A (en) | Sight line detector | |
JP2021160439A (en) | Head-up display device | |
WO2021172333A1 (en) | Vehicle display device |