JP2016170052A - Eye detector and vehicle display system - Google Patents

Eye detector and vehicle display system Download PDF

Info

Publication number
JP2016170052A
JP2016170052A JP2015050121A JP2015050121A JP2016170052A JP 2016170052 A JP2016170052 A JP 2016170052A JP 2015050121 A JP2015050121 A JP 2015050121A JP 2015050121 A JP2015050121 A JP 2015050121A JP 2016170052 A JP2016170052 A JP 2016170052A
Authority
JP
Japan
Prior art keywords
image
subject
display
eye
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050121A
Other languages
Japanese (ja)
Inventor
中村 哲
Satoru Nakamura
哲 中村
武志 谷内田
Takeshi Yanaida
武志 谷内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2015050121A priority Critical patent/JP2016170052A/en
Publication of JP2016170052A publication Critical patent/JP2016170052A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable the stable detection of a human eye regardless of the brightness of a subject.SOLUTION: An eye detector 200 includes: an imaging section 210 where multiple imaging elements 211, 212 different in exposure are arranged and each one of the multiple imaging elements 211, 212 image a subject by receiving imaging light N1, N2 from the subject; an image synthesis section 221 for synthesizing the images F, S of the subject captured by respective imaging elements 211, 212 and generating a high-dynamic range image G having a dynamic range larger than those of the images F, S of the subject captured by the respective imaging elements 211, 212; and an analysis section 222 for detecting a human eye from the high-dynamic range image G.SELECTED DRAWING: Figure 3

Description

本発明は、人の顔を撮像した画像から人の目を検出する目検出装置及びこれを用いた車両用表示システムに関する。   The present invention relates to an eye detection device that detects a human eye from an image obtained by imaging a human face, and a vehicle display system using the eye detection device.

従来、この種の目検出装置としては、CCDやCMOSなどの撮像素子を用いて人の顔を含む被写体を撮像するものが知られている(例えば特許文献1参照)。目検出装置によって検出された人の目に基づいて、さらに人の目の位置及び視線方向を算出することができ、例えば特許文献2に示すように、ヘッドアップディスプレイ装置における表示像(虚像)の位置調整などに用いることができる。   2. Description of the Related Art Conventionally, as this type of eye detection apparatus, an apparatus that images a subject including a human face using an image sensor such as a CCD or a CMOS is known (for example, see Patent Document 1). Based on the eyes of the person detected by the eye detection device, the position and line-of-sight direction of the person's eyes can be further calculated. For example, as shown in Patent Document 2, a display image (virtual image) in a head-up display device can be calculated. It can be used for position adjustment.

特開平4−68500号公報JP-A-4-68500 特開2008−126984号公報JP 2008-126984 A

しかしながら、太陽光が強く被写体に当たっている場合など被写体が明るすぎると、本来明暗のある部分が白一色となるいわゆる白飛び現象が発生し、反対にトンネルなどの暗所内で被写体に光が当たらない場合など被写体が暗すぎる場合は暗い部分が黒一色となるいわゆる黒潰れ現象が発生し、いずれの場合も人の目を検出できなくなるという問題があった。このような問題に対し、被写体が暗い場合の対策としては特許文献2に開示されるように、撮像素子に赤外線カメラを用いて被写体に赤外光を照射して被写体を撮像する方法が考えられるが、赤外線カメラを用いた場合でも被写体が明るすぎると白飛び現象が生じてしまう。   However, if the subject is too bright, such as when the sunlight is strong and the subject is so bright, a so-called white-out phenomenon occurs where the originally bright and dark areas become a single color, and conversely, the subject does not receive light in a dark place such as a tunnel. When the subject is too dark, for example, a so-called black crushing phenomenon occurs in which the dark portion becomes a solid black color. In either case, there is a problem that the human eye cannot be detected. As a countermeasure against such a problem when the subject is dark, as disclosed in Patent Document 2, there can be considered a method of imaging the subject by irradiating the subject with infrared light using an infrared camera as an imaging element. However, even when an infrared camera is used, if the subject is too bright, a whiteout phenomenon occurs.

本発明は上記問題を鑑みてなされたものであり、被写体の明るさに係わらず、安定して人の目を検出することが可能な目検出装置及び車両用表示システムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an eye detection device and a vehicle display system capable of stably detecting human eyes regardless of the brightness of a subject. To do.

上記目的を達成するため、本発明の目検出装置は、人の顔部を含む被写体を撮像し、撮像した被写体の画像に基づいて人の目を検出する目検出装置であって、
露出の異なる複数の撮像素子を備え、前記複数の撮像素子の各々が前記被写体からの撮像光を受けて前記被写体を撮像する撮像部と、
前記複数の撮像素子の各々で撮像された前記被写体の画像を合成し、前記複数の撮像素子の各々で撮像された前記被写体の画像よりも広いダイナミックレンジを持つハイダイナミックレンジ画像を生成する画像合成部と、
前記ハイダイナミックレンジ画像から人の目を検出する解析部と、を備えてなる。
In order to achieve the above object, an eye detection device of the present invention is an eye detection device that images a subject including a human face and detects a human eye based on the image of the captured subject.
An imaging unit that includes a plurality of imaging elements having different exposures, and each of the plurality of imaging elements receives imaging light from the subject, and images the subject;
Image synthesis for synthesizing images of the subject imaged by each of the plurality of image sensors and generating a high dynamic range image having a wider dynamic range than the image of the subject imaged by each of the plurality of image sensors. And
An analysis unit for detecting human eyes from the high dynamic range image.

上記目的を達成するため、本発明の車両用表示システムは、上述の目検出装置によって使用者の目の位置及び/あるいは視線を算出し、前記目検出装置によって算出された前記使用者の目の位置及び/あるいは視線に応じて、ヘッドアップディスプレイ装置から出射される表示画像を示す表示光によって前記使用者が視認する前記表示画像の虚像の位置を調整する。   In order to achieve the above object, a display system for a vehicle according to the present invention calculates the position and / or line of sight of a user's eyes by the above-described eye detection device, and calculates the user's eyes calculated by the eye detection device. According to the position and / or line of sight, the position of the virtual image of the display image viewed by the user is adjusted by display light indicating the display image emitted from the head-up display device.

本発明によれば、被写体の明るさに係わらず、安定して人の目を検出することが可能となる。   According to the present invention, it is possible to stably detect human eyes regardless of the brightness of the subject.

本発明の実施形態における車両用表示システムの構成を説明する図である。It is a figure explaining the composition of the display system for vehicles in the embodiment of the present invention. 上記実施形態における車両の使用者が視認する景色を説明する図である。It is a figure explaining the scenery which the user of the vehicle in the said embodiment visually recognizes. 上記実施形態における目検出装置を示す概観図である。It is a general-view figure which shows the eye detection apparatus in the said embodiment. 上記実施形態における第1、第2の被写体画像及び合成画像を示す図である。It is a figure which shows the 1st, 2nd to-be-photographed image and synthetic | combination image in the said embodiment. 上記実施形態における車両用表示システムの動作を説明するフローチャート図である。It is a flowchart figure explaining operation | movement of the display system for vehicles in the said embodiment.

図1に、本発明の目検出装置を適用した本実施形態に係る車両用表示システム1のシステム構成を示す。
本実施形態に係る車両用表示システム1は、表示画像を表す表示光Lを車両2のフロントガラス(反射透過面の一実施形態)2aに投影し、表示画像の虚像Mを車両2の乗員(主に運転者)である使用者3に視認させるヘッドアップディスプレイ装置(以下、HUD装置)100と、使用者3の顔部を含む被写体を撮像し、使用者3の目を検出して目の位置及び視線を算出する目検出装置200と、経路案内のための情報を生成するナビゲーションシステム300と、目検出装置200とナビゲーションシステム300とから入力される情報に基づき、HUD100の表示を制御する表示コントローラ400と、から構成される。
FIG. 1 shows a system configuration of a vehicle display system 1 according to this embodiment to which the eye detection device of the present invention is applied.
The vehicle display system 1 according to the present embodiment projects display light L representing a display image onto a windshield (one embodiment of a reflection / transmission surface) 2a of the vehicle 2, and a virtual image M of the display image is displayed on the occupant ( A head-up display device (hereinafter referred to as a HUD device) 100 that is visually recognized by the user 3 who is a driver) and a subject including the face of the user 3 are imaged, and the eyes of the user 3 are detected to detect the eyes. An eye detection device 200 that calculates the position and line of sight, a navigation system 300 that generates information for route guidance, and a display that controls display of the HUD 100 based on information input from the eye detection device 200 and the navigation system 300 And a controller 400.

HUD装置100は、虚像Mを表示するための表示画像Jを表示面に表示する表示器10と、表示画像Jを示す画像光Kを反射する平面ミラー20と、この平面ミラー20が反射した画像光Kを拡大及び変形して表示光Lとしてフロントガラス2a側へ反射する自由曲面ミラー30と、を備える。   The HUD device 100 includes a display 10 that displays a display image J for displaying a virtual image M on a display surface, a flat mirror 20 that reflects image light K indicating the display image J, and an image reflected by the flat mirror 20. A free-form surface mirror 30 that expands and deforms the light K and reflects it as the display light L toward the windshield 2a.

表示器10は、後述する表示コントローラ400による制御の下、案内経路を示す経路案内画像や、車両2に関する情報を示す車両情報画像等を表示画像Jとして表示面に表示するものであり、例えば、液晶パネルなどの表示素子(図示しない)と、この表示素子を照明する光源(図示しない)とから構成される透過型液晶ディスプレイからなる。なお、表示器10は、透過型液晶ディスプレイではなく、自発光型の有機ELディスプレイや、反射型のDMD(Digital Micromirror Device)、反射型及び透過型のLCoS(登録商標:Liquid Crystal on Silicon)等で構成されてもよい。後述する表示コントローラ400は、虚像Mを使用者3に視認させるように、目検出装置200によって算出された使用者3の目の位置及び視線方向に応じて表示器10の表示面に表示する表示画像Jの表示位置を調整する。これにより、使用者3は、視線の先に位置合わせされた虚像Mを視認することができる。なお、虚像Mの表示位置を調整する他の方法として、例えば自由曲面ミラー30の角度を調整するモータなどからなる角度調整部を設けてもよい。   The display 10 displays a route guidance image indicating a guidance route, a vehicle information image indicating information on the vehicle 2, and the like on the display surface as a display image J under the control of the display controller 400 described later. It comprises a transmissive liquid crystal display composed of a display element (not shown) such as a liquid crystal panel and a light source (not shown) that illuminates the display element. The display 10 is not a transmissive liquid crystal display, but a self-luminous organic EL display, a reflective DMD (Digital Micromirror Device), a reflective and transmissive LCoS (registered trademark: Liquid Crystal on Silicon), or the like. It may be constituted by. The display controller 400 to be described later displays on the display surface of the display 10 according to the position and line-of-sight direction of the user 3 calculated by the eye detection device 200 so that the user 3 visually recognizes the virtual image M. Adjust the display position of image J. Thereby, the user 3 can visually recognize the virtual image M aligned with the tip of the line of sight. As another method for adjusting the display position of the virtual image M, for example, an angle adjustment unit including a motor for adjusting the angle of the free-form surface mirror 30 may be provided.

平面ミラー20は、表示器10が出射した画像光Kを、自由曲面ミラー30に向けて反射させるものである。   The plane mirror 20 reflects the image light K emitted from the display 10 toward the free-form curved mirror 30.

自由曲面ミラー30は、例えば合成樹脂材料からなる凹状の基材の表面に、蒸着等の手段により反射膜を形成したものであり、平面ミラー20で反射した画像光Kを拡大すると共に、画像光Kを変形して表示光Lとしてフロントガラス2aの方向に出射する。   The free-form surface mirror 30 is formed by forming a reflective film on the surface of a concave base material made of, for example, a synthetic resin material by means such as vapor deposition, and enlarges the image light K reflected by the flat mirror 20 and K is transformed and emitted as display light L in the direction of the windshield 2a.

図2は、使用者3に視認される虚像Mの一例を示す。図2に示す例では、使用者3から見てフロントガラス2aの奥側で視認される虚像Mは、目的地までの経路を案内する経路案内虚像M1を有する。経路案内虚像M1は、例えば、アローヘッドや矢印などの形状の画像であり、特定の方向を指示する。また、経路案内虚像M1には、「200m先左折」などの文字画像が含まれていてもよい。   FIG. 2 shows an example of the virtual image M visually recognized by the user 3. In the example shown in FIG. 2, the virtual image M that is visually recognized on the back side of the windshield 2a when viewed from the user 3 has a route guidance virtual image M1 that guides the route to the destination. The route guidance virtual image M1 is, for example, an image having a shape such as an arrow head or an arrow, and indicates a specific direction. The route guidance virtual image M1 may include a character image such as “turn left 200m”.

以上が、本実施形態におけるHUD装置100の光学的な構成であり、HUD装置100から出射された表示光Lが車両2のフロントガラス2aに投影され、使用者3の目に入射することにより、使用者3にステアリング2bの上側のフロントガラス2aの所定の表示可能領域Eで虚像Mを視認させるものである。このフロントガラス2aの表示可能領域Eは、表示器10の表示領域に対応しており、表示器10の表示可能領域E内で表示画像Jを移動させることで、フロントガラス2aの表示可能領域E内で虚像Mが移動して視認されることになる。   The above is the optical configuration of the HUD device 100 in the present embodiment, and the display light L emitted from the HUD device 100 is projected onto the windshield 2a of the vehicle 2 and enters the eyes of the user 3, The user 3 is made to visually recognize the virtual image M in a predetermined displayable area E of the windshield 2a above the steering wheel 2b. The displayable area E of the windshield 2a corresponds to the display area of the display device 10. By moving the display image J within the displayable area E of the display device 10, the displayable area E of the windshield 2a. The virtual image M moves and is visually recognized.

目検出装置200は、使用者3の顔部を含む被写体を撮像し、被写体の画像から使用者3の目を検出し、使用者3の目の位置及び視線を算出するものであり、本実施形態では、使用者3の前方に配置され被写体を撮像する撮像部210と、この撮像部210で撮像された被写体の画像を解析する画像解析部220と、を備える。   The eye detection device 200 captures an image of a subject including the face portion of the user 3, detects the eye of the user 3 from the image of the subject, and calculates the position and line of sight of the user 3; In the embodiment, an imaging unit 210 that is disposed in front of the user 3 and images a subject, and an image analysis unit 220 that analyzes an image of the subject captured by the imaging unit 210 are provided.

撮像部210は、図3に示すように、第1、第2の撮像素子211、212と、半透過反射部材213と、を備える。第1、第2の撮像素子211、212は例えばCCDやCMOSなどからなり、互いに露出(感受する光の量)が異なるように構成されている。第1、第2の撮像素子211、212は互いに異なる角度で配置され、各々が半透過反射部材213と対向する。半透過反射部213は、被写体からの撮像光Nが入射され、撮像光Nの一部を第1の撮像光N1として第1の撮像素子211に向けて透過し、一部を第2の撮像光N2として第2の撮像素子212に向けて反射する。半透過反射部213の透過率と反射率との比は1:1であるものとする。したがって、第1の撮像光N1と第2の撮像光N2とはそれぞれが共に光量が半分となった撮像光Nとなる。これにより、第1、第2の撮像素子211、212は、半透過反射部213で撮像光Nが分配された第1、第2の撮像光N1、N2を受けて各々が被写体を同じ角度から同時に撮像し、第1の撮像素子211が第1の被写体画像Fを、第2の撮像素子212が第2の被写体画像Sをそれぞれ画像解析部210に同じタイミングで送信することができる。図4(a)には第1の被写体画像Fの一例を示し、図4(b)には第2の被写体画像Sの一例を示す。第1、第2の被写体画像F、Sは互いに露出が異なる画像であり、図4に示す例では第1の被写体画像Fは第2の被写体画像Sよりも露出が多くなっている。   As shown in FIG. 3, the imaging unit 210 includes first and second imaging elements 211 and 212 and a transflective member 213. The first and second imaging elements 211 and 212 are made of, for example, a CCD or a CMOS, and are configured to have different exposures (amounts of sensitive light). The first and second imaging elements 211 and 212 are arranged at different angles, and each face the transflective member 213. The transflective unit 213 receives the imaging light N from the subject, transmits part of the imaging light N as the first imaging light N1 toward the first imaging element 211, and partially transmits the second imaging. The light N2 is reflected toward the second image sensor 212. It is assumed that the ratio between the transmissivity and the reflectivity of the transflective portion 213 is 1: 1. Accordingly, the first imaging light N1 and the second imaging light N2 are both the imaging light N in which the light amount is halved. As a result, the first and second imaging elements 211 and 212 receive the first and second imaging lights N1 and N2 to which the imaging light N is distributed by the transflective portion 213, respectively, and each of the subjects picks up the subject from the same angle. The first image sensor 211 can transmit the first subject image F and the second image sensor 212 can transmit the second subject image S to the image analysis unit 210 at the same timing. FIG. 4A shows an example of the first subject image F, and FIG. 4B shows an example of the second subject image S. The first and second subject images F and S are images with different exposures. In the example shown in FIG. 4, the first subject image F is exposed more than the second subject image S.

画像解析部220は、画像合成部221と、解析部222と、を備える。画像合成部221は、第1の撮像素子211から送信された第1の被写体画像F及び第2の撮像素子212から送信された第2の被写体画像Sを合成して合成画像G(ハイダイナミックレンジ画像)を生成するものである。解析部222は、画像合成部221で生成した合成画像Gから使用者3の目を検出し、使用者3の目の位置及び視線を算出して、目の位置情報I1及び視線情報I2を表示コントローラ400に送信するものである。   The image analysis unit 220 includes an image synthesis unit 221 and an analysis unit 222. The image composition unit 221 synthesizes the first subject image F transmitted from the first image sensor 211 and the second subject image S transmitted from the second image sensor 212 to produce a composite image G (high dynamic range). Image). The analysis unit 222 detects the eyes of the user 3 from the composite image G generated by the image composition unit 221, calculates the eye position and line of sight of the user 3, and displays the eye position information I1 and line-of-sight information I2 This is transmitted to the controller 400.

次に、図5を参照して、車両用表示システム1における、画像解析部220による使用者3の目の位置の検出から表示コントローラ400による虚像Mの位置調整までの処理について説明する。   Next, with reference to FIG. 5, processing from the detection of the position of the eyes of the user 3 by the image analysis unit 220 to the position adjustment of the virtual image M by the display controller 400 in the vehicle display system 1 will be described.

まず、ステップS101において、画像解析部220は、第1、第2の撮像素子211、212から第1、第2の被写体画像F、Sを受信する。   First, in step S101, the image analysis unit 220 receives the first and second subject images F and S from the first and second imaging elements 211 and 212.

次に、ステップS102において、画像合成部221は、内部変数である合成画像Gの輝度合計値Btを初期化する。   Next, in step S102, the image composition unit 221 initializes the luminance total value Bt of the composite image G, which is an internal variable.

次に、ステップS103において、画像合成部221は、第1の被写体画像Fの画素と第2の被写体画像Sの画素との合成を行う(画素を合成)。具体的には、第1の被写体画像Fの画素輝度値Bfに第1の露出係数Cfを乗じた値と第2の被写体画像Sの画素輝度値Bsに第2の露出係数Csを乗じた値とを加算して合成画像Gの画素輝度値Bgとする(Bg=Bf×Cf+Bs×Cs)。したがって、合成画像Gの画素輝度値Bgは第1の被写体画像Fの画素輝度値Bf及び第2の被写体画像Sの画素輝度値Bsの取り得る範囲より広い範囲を取ることができる。なお、第1、第2の露出係数Cf、Csは、第1、第2の撮像素子211、212の露光時間及びレンズの絞りに応じて予め設定される。   Next, in step S103, the image composition unit 221 performs composition of the pixels of the first subject image F and the pixels of the second subject image S (composites pixels). Specifically, a value obtained by multiplying the pixel brightness value Bf of the first subject image F by the first exposure coefficient Cf and a value obtained by multiplying the pixel brightness value Bs of the second subject image S by the second exposure coefficient Cs. Are added to obtain the pixel luminance value Bg of the composite image G (Bg = Bf × Cf + Bs × Cs). Therefore, the pixel luminance value Bg of the composite image G can take a wider range than the possible range of the pixel luminance value Bf of the first subject image F and the pixel luminance value Bs of the second subject image S. The first and second exposure coefficients Cf and Cs are set in advance according to the exposure times of the first and second imaging elements 211 and 212 and the lens aperture.

次に、ステップS104において、画像合成部221は、合成画像Gの輝度合計値Btを算出する。具体的には、ステップS103で算出した合成画像Gの画素輝度値Bgを輝度合計値Btに加算する(Bt=Bt+Bg)。   Next, in step S104, the image composition unit 221 calculates the total luminance value Bt of the composite image G. Specifically, the pixel luminance value Bg of the composite image G calculated in step S103 is added to the luminance total value Bt (Bt = Bt + Bg).

次に、ステップS105において、画像合成部221は、第1、第2の被写体画像F、Sの横1ラインの全ての画素に対してステップS103及びS104の処理が終了したか否かを判定する。画素合成部221は、横1ラインの全ての画素に対してステップS103及びS104の処理が終了していると判定される場合は(ステップS105;Yes)、ステップS106に移行し、終了していないと判定される場合(ステップS105;No)は、ステップS103に戻って、横1ラインの次の画素に対してステップS103及びS104の処理を繰り返し実行する。   Next, in step S105, the image composition unit 221 determines whether or not the processes in steps S103 and S104 have been completed for all the pixels in the first horizontal line of the first and second subject images F and S. . If it is determined that the processing in steps S103 and S104 has been completed for all pixels in one horizontal line (step S105; Yes), the pixel composition unit 221 proceeds to step S106, and has not ended. Is determined (step S105; No), the process returns to step S103, and the processes of steps S103 and S104 are repeatedly executed for the next pixel in the horizontal line.

次に、ステップS106において、画像合成部221は、第1、第2の被写体画像F、Sの全ての横ラインに対してステップS103及びS104の処理が終了したか否かを判定する。画像合成部221は、全ての横ラインに対してステップS103及びS104の処理が終了したと判定される場合は(ステップS106;Yes)、ステップS107に移行し、終了していないと判定される場合は(ステップS106;No)、ステップS103に戻って次の横ラインの画素に対してステップS103及びS104の処理を繰り返し実行する。このようにして、第1、第2の被写体画像F、Sの全ての画素に対してステップS103及びS104の処理が実行される。このようにして合成された画素からなる合成画像Gは、第1、第2の被写体画像F、Sよりも広いダイナミックレンジを持つハイダイナミックレンジ画像となる。図4(c)には、合成画像Gの一例を示している。図4(c)で示すように、合成画像Gとして、第1、第2の被写体画像F、Sに対して白飛び及び黒潰れが低減された画像が得られる。   Next, in step S106, the image composition unit 221 determines whether or not the processing in steps S103 and S104 has been completed for all the horizontal lines of the first and second subject images F and S. When it is determined that the processing in steps S103 and S104 has been completed for all horizontal lines (step S106; Yes), the image composition unit 221 proceeds to step S107 and determines that the processing has not been completed. (Step S106; No), the process returns to Step S103, and the processes of Steps S103 and S104 are repeatedly executed for the pixels of the next horizontal line. In this way, the processes in steps S103 and S104 are performed on all the pixels of the first and second subject images F and S. The synthesized image G composed of the pixels synthesized in this way becomes a high dynamic range image having a wider dynamic range than the first and second subject images F and S. FIG. 4C shows an example of the composite image G. As shown in FIG. 4C, an image in which whiteout and blackout are reduced with respect to the first and second subject images F and S is obtained as the composite image G.

次に、ステップS107において、画像合成部221は、合成画像Gの輝度平均値Baを算出する。具体的には、ステップS104で算出された合成画像Gの輝度合計値Btを合成画像Gの画素数dで除算する(Ba=Bt/d)。   Next, in step S107, the image composition unit 221 calculates the average brightness value Ba of the composite image G. Specifically, the total luminance value Bt of the composite image G calculated in step S104 is divided by the number of pixels d of the composite image G (Ba = Bt / d).

次に、ステップS108において、画像合成部221は、ステップS107までの処理で得られた合成画像G及び合成画像Gの輝度平均値Baを保存する。   Next, in step S108, the image composition unit 221 stores the composite image G obtained by the processing up to step S107 and the luminance average value Ba of the composite image G.

次に、ステップS109において、解析部222は、画像合成部221に保存された合成画像Gから合成画像Gの輝度平均値Baを用いて使用者3の目を検出する。具体的には、合成画像Gの輝度平均値Baに基づいて所定の輝度レンジ(輝度範囲)を設定し、合成画像Gのうち設定した輝度レンジの範囲内の部分(画素)に対してエッジ検出を行い、目の輪郭や黒目を検出する(すなわち、極端に輝度が高いあるいは低い部分はエッジ検出を行わない)。前述のように、合成画像Gは、第1、第2の被写体画像F、Sに対して白飛び及び黒潰れが低減された画像であるため、被写体の明るさに係わらず安定して使用者3の目を検出することができる。また、合成画像Gは広いダイナミックレンジを持つことから全ての画素に対してエッジ検出を行うと従来よりも目の検出に時間を要することが考えられるが、合成画像Gの輝度平均値Baを用いてエッジ検出を行う部分を絞り込むことで速やかな目の検出が可能となる。   Next, in step S <b> 109, the analysis unit 222 detects the eyes of the user 3 from the composite image G stored in the image composition unit 221 using the average brightness value Ba of the composite image G. Specifically, a predetermined luminance range (luminance range) is set based on the average luminance value Ba of the composite image G, and edge detection is performed on a portion (pixel) within the set luminance range of the composite image G. To detect eye contours and black eyes (that is, edge detection is not performed on extremely high or low luminance portions). As described above, the composite image G is an image in which overexposure and underexposure are reduced with respect to the first and second subject images F and S, so that the user can stably operate regardless of the brightness of the subject. The third eye can be detected. Further, since the composite image G has a wide dynamic range, it may be considered that it takes more time to detect the eyes than before when edge detection is performed on all pixels, but the average luminance value Ba of the composite image G is used. By narrowing down the part where edge detection is performed, it is possible to detect eyes quickly.

次に、ステップS110において、解析部222は、ステップS109で検出された目の輪郭及び黒目の相関関係から、使用者3の目の位置及び視線を算出する。   Next, in step S110, the analysis unit 222 calculates the eye position and line of sight of the user 3 from the correlation between the eye contour and the black eye detected in step S109.

次に、ステップS111において、解析部222は、ステップS110で算出した使用者3の目の位置情報I1及び視線情報I2を表示コントローラ400に送信する。   Next, in step S111, the analysis unit 222 transmits the position information I1 and line-of-sight information I2 of the user 3 calculated in step S110 to the display controller 400.

次に、ステップS112において、表示コントローラ400は、目検出装置200から受信した目の位置情報I1及び視線方向情報I2に基づいて、表示画像Jの表示位置の補正量を算出する。具体的には、予め図示しない記憶部に格納される目の位置及び視線に対する表示補正量を定めた補正データテーブルに基づいて、目検出装置200から受信した目の位置情報I1及び視線情報I2に対する表示補正量を読み出す。   Next, in step S112, the display controller 400 calculates the correction amount of the display position of the display image J based on the eye position information I1 and the line-of-sight direction information I2 received from the eye detection device 200. Specifically, the eye position information I1 and the line-of-sight information I2 received from the eye detection device 200 are based on a correction data table in which display correction amounts for the eye position and the line-of-sight are stored in a storage unit (not shown) in advance. Read the display correction amount.

次に、ステップS113において、表示コントローラ400は、ステップS112で算出した表示補正量に基づいて表示画像Jを更新し(表示位置を移動させ)、使用者3の視線と重なるように、虚像Mの位置を調整する。   Next, in step S113, the display controller 400 updates the display image J based on the display correction amount calculated in step S112 (moves the display position), and the virtual image M is overlapped with the line of sight of the user 3. Adjust the position.

車両用表示システム1の各部は、以上の処理を繰り返し実行する。   Each unit of the vehicle display system 1 repeatedly executes the above processing.

以上に説明したように、本実施形態における目検出装置200は、人(使用者3)の顔部を含む被写体を撮像し、撮像した被写体の画像に基づいて人の目を検出する目検出装置であって、露出の異なる複数の撮像素子211、212を備え、複数の撮像素子211、212の各々が前記被写体からの撮像光N1、N2を受けて前記被写体を撮像する撮像部210と、複数の撮像素子211、212の各々で撮像された前記被写体の画像F、Sを合成し、複数の撮像素子211、212の各々で撮像された前記被写体の画像F、Sよりも広いダイナミックレンジを持つハイダイナミックレンジ画像(合成画像G)を生成する画像合成部221と、前記ハイダイナミックレンジ画像から人の目を検出する解析部222と、を備えてなる。
これによれば、被写体の明るさに係わらず安定して人の目を検出することができる。
As described above, the eye detection apparatus 200 according to the present embodiment captures an image of a subject including the face of a person (user 3), and detects the eyes of the person based on the captured image of the object. The imaging unit 210 includes a plurality of imaging elements 211 and 212 having different exposures, and each of the imaging elements 211 and 212 receives imaging light N1 and N2 from the subject and images the subject. The image F, S of the subject imaged by each of the image pickup devices 211, 212 is synthesized and has a wider dynamic range than the image F, S of the subject imaged by each of the plurality of image pickup devices 211, 212. An image composition unit 221 that generates a high dynamic range image (composite image G) and an analysis unit 222 that detects human eyes from the high dynamic range image are provided.
According to this, it is possible to stably detect human eyes regardless of the brightness of the subject.

また、目検出装置200は、被写体からの撮像光Nを入射し、前記被写体からの撮像光Nの一部を透過し、一部を反射して複数の撮像素子211、212の各々に向けて出射する半透過反射部材213を備えてなる。
これによれば、複数の撮像素子211、212で被写体を同時に撮像して露出の異なる複数の被写体画像F、Sを同じタイミングで画像合成部221に送信することができ、ハイダイナミックレンジ画像を生成するのに要する時間を短縮することができる。
The eye detection device 200 receives the imaging light N from the subject, transmits a part of the imaging light N from the subject, reflects a part thereof, and directs the imaging light N toward each of the plurality of imaging elements 211 and 212. An outgoing transflective member 213 is provided.
According to this, a plurality of subject images F and S having different exposures can be simultaneously captured by a plurality of imaging elements 211 and 212 and transmitted to the image composition unit 221 at the same timing, and a high dynamic range image is generated. The time required to do so can be shortened.

また、目検出装置200において、画像合成部221は、前記ハイダイナミックレンジ画像の輝度合計値Btの平均値Baを算出し、解析部222は、輝度合計値Btの平均値Baに基づいて所定の輝度範囲を設定し、前記ハイダイナミックレンジ画像のうち設定した輝度範囲内の部分から人の目を検出する。
これによれば、ハイダイナミックレンジ画像を用いる際にも、速やかに人の目を検出することができる。
In the eye detection apparatus 200, the image composition unit 221 calculates the average value Ba of the luminance total value Bt of the high dynamic range image, and the analysis unit 222 performs a predetermined operation based on the average value Ba of the luminance total value Bt. A luminance range is set, and human eyes are detected from a portion within the set luminance range of the high dynamic range image.
According to this, even when a high dynamic range image is used, it is possible to quickly detect human eyes.

本実施形態の車両用表示システム1は、目検出装置200によって使用者3の目の位置及び/あるいは視線を算出し、目検出装置200によって検出された使用者3の目の位置及び/あるいは視線に応じて、ヘッドアップディスプレイ装置100によって出射される表示画像Jを示す表示光Lによって使用者3が視認する表示画像Jの虚像Mの位置を調整する。
これによれば、周囲の明るさに係わらず安定して虚像Mの位置調整を行うことができる。
The vehicle display system 1 according to the present embodiment calculates the position and / or line of sight of the eye of the user 3 by the eye detection device 200, and the position and / or line of sight of the eye of the user 3 detected by the eye detection device 200. Accordingly, the position of the virtual image M of the display image J visually recognized by the user 3 is adjusted by the display light L indicating the display image J emitted by the head-up display device 100.
According to this, the position of the virtual image M can be adjusted stably regardless of the surrounding brightness.

なお、本発明は前述の実施形態に限定されるものではなく、発明の要旨を変更しない範囲内で種々の変更(構成要素の追加及び削除を含む)が可能であることは勿論である。例えば、目検出装置200と表示コントローラ400が1つの制御部に一体的に構成されてもよい。また、目検出装置200は、検出した人の目に基づいて、目の位置及び視線のほか、さらに人の居眠りや脇見、集中の低下などを判定してもよい。また、撮像素子は複数であればよく、3つ以上であってもよい。さらに、撮像素子の数に伴って半透過反射部材が複数備えられてもよい。   Note that the present invention is not limited to the above-described embodiment, and various modifications (including addition and deletion of components) can be made without departing from the scope of the invention. For example, the eye detection device 200 and the display controller 400 may be integrally configured in one control unit. Further, the eye detection device 200 may determine not only the position and line of sight of the eye but also the falling asleep or looking aside, a decrease in concentration, etc. based on the detected eye of the person. Further, the number of image sensors is not limited, and may be three or more. Furthermore, a plurality of transflective members may be provided in accordance with the number of image sensors.

本発明は、人の顔を撮像した画像から人の目を検出して目の位置及び/あるいは視線を算出する目検出装置及びこれを用いた車両用表示システムに好適である。   INDUSTRIAL APPLICABILITY The present invention is suitable for an eye detection device that detects a human eye from an image obtained by capturing a human face and calculates an eye position and / or line of sight and a vehicle display system using the eye detection device.

1 車両用表示システム
2 車両
3 使用者
100 ヘッドアップディスプレイ装置
200 目検出装置
210 撮像部
211 第1の撮像素子
212 第2の撮像素子
220 画像解析部
221 画像合成部
222 解析部
300 ナビゲーションシステム
400 表示コントローラ
F 第1の被写体画像
G 合成画像(ハイダイナミックレンジ画像)
K 画像光
L 表示光
M 虚像
N 撮像光
N1 第1の撮像光
N2 第2の撮像光
S 第2の被写体画像
DESCRIPTION OF SYMBOLS 1 Display system for vehicles 2 Vehicle 3 User 100 Head up display apparatus 200 Eye detection apparatus 210 Image pick-up part 211 1st image pick-up element 212 2nd image pick-up element 220 Image analysis part 221 Image composition part 222 Analysis part 300 Navigation system 400 Display Controller F First subject image G Composite image (high dynamic range image)
K image light L display light M virtual image N imaging light N1 first imaging light N2 second imaging light S second subject image

Claims (4)

人の顔部を含む被写体を撮像し、撮像した被写体の画像に基づいて人の目を検出する目検出装置であって、
露出の異なる複数の撮像素子を備え、前記複数の撮像素子の各々が前記被写体からの撮像光を受けて前記被写体を撮像する撮像部と、
前記複数の撮像素子の各々で撮像された前記被写体の画像を合成し、前記複数の撮像素子の各々で撮像された前記被写体の画像よりも広いダイナミックレンジを持つハイダイナミックレンジ画像を生成する画像合成部と、
前記ハイダイナミックレンジ画像から人の目を検出する解析部と、を備えてなる、ことを特徴とする目検出装置。
An eye detection device that images a subject including a human face and detects a human eye based on an image of the captured subject,
An imaging unit that includes a plurality of imaging elements having different exposures, and each of the plurality of imaging elements receives imaging light from the subject, and images the subject;
Image synthesis for synthesizing images of the subject imaged by each of the plurality of image sensors and generating a high dynamic range image having a wider dynamic range than the image of the subject imaged by each of the plurality of image sensors. And
An eye detection apparatus comprising: an analysis unit that detects a human eye from the high dynamic range image.
前記被写体からの撮像光を入射し、前記被写体からの撮像光の一部を透過し、一部を反射して前記複数の撮像素子の各々に向けて出射する半透過反射部材を備えてなる、ことを特徴とする請求項1に記載の目検出装置。   Comprising a transflective member that receives imaging light from the subject, transmits part of the imaging light from the subject, reflects part of the imaging light, and emits the reflected light toward each of the plurality of imaging elements; The eye detection device according to claim 1. 前記画像合成部は、前記ハイダイナミックレンジ画像の輝度合計値の平均値を算出し、前記解析部は、前記輝度合計値の平均値に基づいて所定の輝度範囲を設定し、前記ハイダイナミックレンジ画像のうち設定した輝度範囲内の部分から人の目を検出する、ことを特徴とする請求項1または請求項2に記載の目検出装置。   The image synthesizing unit calculates an average value of the total luminance value of the high dynamic range image, and the analysis unit sets a predetermined luminance range based on the average value of the total luminance value, and the high dynamic range image The eye detection apparatus according to claim 1, wherein a human eye is detected from a portion within a set luminance range. 請求項1から請求項3の何れかに記載の目検出装置によって使用者の目の位置及び/あるいは視線を算出し、前記目検出装置によって検出された前記使用者の目の位置及び/あるいは視線に応じて、ヘッドアップディスプレイ装置によって出射される表示画像を示す表示光によって前記使用者が視認する前記表示画像の虚像の位置を調整する、ことを特徴とする車両用表示システム。   The position and / or line of sight of the user's eyes calculated by the eye detection apparatus according to any one of claims 1 to 3 and detected by the eye detection apparatus. The display system for vehicles according to claim 1, wherein the position of the virtual image of the display image visually recognized by the user is adjusted by display light indicating the display image emitted by the head-up display device.
JP2015050121A 2015-03-13 2015-03-13 Eye detector and vehicle display system Pending JP2016170052A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050121A JP2016170052A (en) 2015-03-13 2015-03-13 Eye detector and vehicle display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050121A JP2016170052A (en) 2015-03-13 2015-03-13 Eye detector and vehicle display system

Publications (1)

Publication Number Publication Date
JP2016170052A true JP2016170052A (en) 2016-09-23

Family

ID=56982458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050121A Pending JP2016170052A (en) 2015-03-13 2015-03-13 Eye detector and vehicle display system

Country Status (1)

Country Link
JP (1) JP2016170052A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018110336A1 (en) * 2016-12-13 2018-06-21 コニカミノルタ株式会社 Head-up display device
JPWO2018193708A1 (en) * 2017-04-19 2019-12-19 マクセル株式会社 Head-up display device and display control method thereof
WO2021106664A1 (en) * 2019-11-27 2021-06-03 京セラ株式会社 Head-up display, head-up display system, and mobile body

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018110336A1 (en) * 2016-12-13 2018-06-21 コニカミノルタ株式会社 Head-up display device
JPWO2018110336A1 (en) * 2016-12-13 2019-10-24 コニカミノルタ株式会社 Head-up display device
JPWO2018193708A1 (en) * 2017-04-19 2019-12-19 マクセル株式会社 Head-up display device and display control method thereof
WO2021106664A1 (en) * 2019-11-27 2021-06-03 京セラ株式会社 Head-up display, head-up display system, and mobile body
JP2021084523A (en) * 2019-11-27 2021-06-03 京セラ株式会社 Head-up display, head-up display system, and movable body
JP7250666B2 (en) 2019-11-27 2023-04-03 京セラ株式会社 Head-up display, head-up display system and moving object
US11961429B2 (en) 2019-11-27 2024-04-16 Kyocera Corporation Head-up display, head-up display system, and movable body

Similar Documents

Publication Publication Date Title
CN107615755B (en) Head-mounted display, head-up display and image display method
JP6252883B1 (en) Head-up display device and vehicle
US20180218711A1 (en) Display device
US9971153B2 (en) Method and apparatus for displaying video data
JP5267727B2 (en) Image position adjustment device
US11009781B2 (en) Display system, control device, control method, non-transitory computer-readable medium, and movable object
JP2016014861A (en) Head-up display device
JPWO2017179453A1 (en) Inspection device, inspection method
US10913355B2 (en) Head-up display
US11130404B2 (en) Head-up display apparatus
US11597278B2 (en) Projection control device, head-up display device, projection control method, and non-transitory storage medium
KR101341584B1 (en) Automotive display correction system
JP2016170052A (en) Eye detector and vehicle display system
JP6717330B2 (en) Eye-gaze detecting device, control method of the eye-gaze detecting device, method of detecting corneal reflection image position, and computer program
WO2019138970A1 (en) Projection distance measurement method and device
JP2009006968A (en) Vehicular display device
WO2018030320A1 (en) Vehicle display device
JP2018084767A (en) Display control device, control method, program, and storage medium
JP2018202920A (en) Head Up Display Device
JP6813437B2 (en) Display system
KR20100072963A (en) Method and apparatus for controlling convergence in parallel axis typed sterocamera
CN111385545A (en) Projection system and projection method
CN108995592B (en) Automobile image system
WO2021172333A1 (en) Vehicle display device
JP2017162233A (en) Visual line detection device and visual line detection method