JP2006251926A - Direct light detecting device - Google Patents

Direct light detecting device Download PDF

Info

Publication number
JP2006251926A
JP2006251926A JP2005064504A JP2005064504A JP2006251926A JP 2006251926 A JP2006251926 A JP 2006251926A JP 2005064504 A JP2005064504 A JP 2005064504A JP 2005064504 A JP2005064504 A JP 2005064504A JP 2006251926 A JP2006251926 A JP 2006251926A
Authority
JP
Japan
Prior art keywords
eye
driver
direct light
eyes
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005064504A
Other languages
Japanese (ja)
Other versions
JP4687150B2 (en
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005064504A priority Critical patent/JP4687150B2/en
Publication of JP2006251926A publication Critical patent/JP2006251926A/en
Application granted granted Critical
Publication of JP4687150B2 publication Critical patent/JP4687150B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately determine whether the eyes of a driver receive direct light. <P>SOLUTION: The facial image of the driver included in a video signal outputted from a video camera 10 is acquired by a facial image acquiring part 20. An eye coordinate output part 21 detects eye coordinates indicating the positions of the eyes, based on the facial image, and tracks the eye coordinates. In the meantime, an eye opening/closing determining part 22 learns the opening/closing state of the eyes of the driver, based on the facial image and the eye coordinates, determines it, and also acquires the opening degree of the eyes of the driver. An image pick-up state acquiring part 23 acquires the image pick-up condition of the video camera 10. An eye vicinity area light measuring part 24 measures the amount of light in the area in the vicinity of the eyes of the driver, based on the facial image, the eye coordinates, and the image pick-up condition. A direct light detecting part 25 determines whether the eyes of the driver receive the direct light or not, based on the opening degree of the eyes and the light amount. A direct light signal output part 26 outputs a direct light signal which indicates the determination result of the direct light detecting means 25. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両を運転する運転者の運転状態を検出する装置に関し、より具体的には、車両を運転する運転者の眼に直射光が当たっているか否かを判定する直射光検出装置に関する。   The present invention relates to an apparatus that detects a driving state of a driver who drives a vehicle, and more specifically, to a direct light detection apparatus that determines whether or not direct light is shining on the eyes of a driver driving a vehicle. .

近年、各種の画像解析手法を活用して、車両を運転する運転者の運転状態を検出し、運転者による快適な車両走行を支援するシステムが各種提案されている。この運転者の運転状態を検出するに際しては様々な手法があるが、画像解析手法を利用した手法としては、運転者の眼位置や眼周辺の画像を検出して運転状態を判定する手法がある。   In recent years, various systems have been proposed that utilize various image analysis techniques to detect the driving state of a driver driving a vehicle and assist the driver in driving the vehicle comfortably. There are various methods for detecting the driving state of the driver. As a method using the image analysis method, there is a method of determining the driving state by detecting an image of the driver's eye position and the vicinity of the eye. .

このようなシステムの従来の技術として、運転者の眼の位置と形状を検出することで運転者の眼の開閉状態を判定し、これにより運転者の覚醒状態を推定するシステムが特許文献1に開示されている。   As a conventional technique of such a system, Patent Document 1 discloses a system that determines the open / closed state of the driver's eyes by detecting the position and shape of the driver's eyes, and thereby estimates the driver's arousal state. It is disclosed.

この特許文献1に開示されたシステムにおいては、運転者の眼の開閉状態を眼の縦幅に基づいて判定している。また、眼の開度を検出する手法としては、運転者の肌の白い部分から眼の黒眼部分への濃度変化が最大となる部位の点と、眼の黒眼部分から肌の白い部分への濃度変化が最大となる点との間隔を求める手法や、二値化閾値を設定して眼の黒眼部分の縦幅を求める手法などが例示されている。   In the system disclosed in Patent Document 1, the open / closed state of the driver's eyes is determined based on the vertical width of the eyes. In addition, as a method for detecting the opening of the eye, the point where the density change from the white part of the driver's skin to the black eye part of the eye becomes the maximum, and from the black eye part of the eye to the white part of the skin. Examples include a method for obtaining an interval from a point at which the density change of the eye becomes maximum, a method for obtaining a vertical width of the black-eye portion of the eye by setting a binarization threshold, and the like.

また、運転者の眼位置を検出することにより運転者が感じる眩しさを自動的に低減するシステムの一例が、特許文献2に開示されている。   Further, Patent Document 2 discloses an example of a system that automatically reduces glare felt by the driver by detecting the driver's eye position.

この特許文献2に開示されたシステムにおいては、車両内の監視システムを利用して運転手の眼位置を判断し、眩しい太陽や対向車両のヘッドライトからの直射光が直接運転者の眼に当たることを防止するために、車両のフロントガラスにおける一部分の透過率を制御することを行っている。このようなシステムは、エレクトロクロミックガラス、液晶加工ガラス、光の入射方向を検知する検知手段などを利用している。   In the system disclosed in Patent Document 2, the position of the driver's eyes is determined using a monitoring system in the vehicle, and direct light from the headlight of the oncoming vehicle or the oncoming vehicle directly hits the driver's eyes. In order to prevent this, the transmittance of a part of the windshield of the vehicle is controlled. Such a system utilizes electrochromic glass, liquid crystal processed glass, detection means for detecting the incident direction of light, and the like.

更に、従来の技術としては特許文献3が挙げられる。この特許文献3に開示されたシステムでは、搭乗者(運転者)の顔を撮影するために設置された1台又は複数台のカメラを備え、当該カメラで撮影された画像から搭乗者の眼位置を検出し、搭乗者の顔に入射する光の明るさを検出すると、フロントガラスを遮光する遮光範囲を可変とする。このとき、搭乗者の眼位置に応じて遮光範囲を設定し、遮光手段を制御する。このシステムによれば、撮影された画像から眼位置が検出されるので、搭乗者に何ら負担を与えることなく動的に防眩を行うことが可能とされている。   Further, Patent Document 3 is given as a conventional technique. The system disclosed in Patent Document 3 includes one or a plurality of cameras installed to photograph the face of the passenger (driver), and the eye position of the passenger from the image photographed by the camera. When the brightness of light incident on the passenger's face is detected, the light shielding range for shielding the windshield is made variable. At this time, the light shielding range is set according to the eye position of the passenger, and the light shielding means is controlled. According to this system, since the eye position is detected from the photographed image, it is possible to perform glare prevention dynamically without giving any burden to the passenger.

また、上述した従来のシステムと関連するシステムの一例は、特許文献4及び特許文献5にも開示されている。
特開2000−142164 特開平9−039728 特開2002−331835 特開平9−044685 特開平7−329566
An example of a system related to the conventional system described above is also disclosed in Patent Literature 4 and Patent Literature 5.
JP 2000-142164 A JP-A-9-039728 JP 2002-331835 A JP 9-044685 A JP-A-7-329566

ところで、運転者の眼の開閉状態から覚醒度を推定する場合には、眼の開閉判断の正確さが重要となる。これに対して、運転者は、眩しさを感じた場合に限らず、例えば笑った場合などにおいても眼を細めた表情となるため、特許文献1に開示されたように眼の縦幅により開閉を判断する手法を用いた場合においては、運転者が笑った表情をしたときに眩しさを感じていると誤検出してしまう問題が生じる。   By the way, when estimating the degree of arousal from the eye open / closed state of the driver, the accuracy of the eye open / close determination is important. On the other hand, the driver not only feels dazzling but also has a narrowed expression even when he / she laughs, for example, so that the driver opens and closes according to the vertical width of the eye as disclosed in Patent Document 1. In the case of using the method for determining the above, there arises a problem of erroneously detecting that the driver feels dazzling when making a smile.

このような問題に対処するために、特許文献4には、眼と眉の間隔など顔部位の相対位置関係を用いて眼の開閉判定を行う手法が提案されており、これにより笑ったときの表情と眩しいと感じたときの表情を認識できるとされている。   In order to cope with such a problem, Patent Document 4 proposes a method of performing eye open / close determination using a relative positional relationship between face parts such as the distance between the eyes and the eyebrows. It is said that it can recognize facial expressions and facial expressions when they feel dazzling.

しかしながら、特許文献4に開示された手法で画像解析を行うためには、比較的高い画像解析能力を有する演算装置をシステムに搭載する必要があり、製品が高コスト化してしまうといった問題がある。   However, in order to perform image analysis by the method disclosed in Patent Document 4, it is necessary to install an arithmetic device having a relatively high image analysis capability in the system, resulting in a problem that the cost of the product increases.

また、運転者の眼の位置を検出することにより運転者が感じる眩しさを自動的に低減するシステムとしては、運転者の眼に光が当たっているか否かの判定に顔画像を用いる手法(特許文献2、特許文献3)、眼の付近に照度計のようなセンサを設置する手法(特許文献5)、太陽の高度と向きと車両の進行方向とに基づいて直射光が運転者に当たる時間を推定する手法(特許文献3)、などを用いた判定処理が行われており、運転者が本当に眩しいと感じているか否かを確実に判定するには至っていない。   In addition, as a system that automatically reduces the glare felt by the driver by detecting the position of the driver's eyes, a method that uses a face image to determine whether the driver's eyes are exposed to light ( Patent Documents 2 and 3), a method of installing a sensor such as an illuminometer in the vicinity of the eye (Patent Document 5), the time that direct light hits the driver based on the altitude and direction of the sun and the traveling direction of the vehicle A determination process using a method for estimating the vehicle speed (Patent Document 3) or the like is performed, and it has not been possible to reliably determine whether or not the driver really feels dazzling.

そこで、本発明は、上述した従来の実情に鑑みて提案されるものであり、車両を運転する運転者の眼に直射光が当たっているか否かを確実に判定することが可能な直射光検出装置を提供することを目的とする。   Therefore, the present invention is proposed in view of the above-described conventional situation, and direct light detection capable of reliably determining whether or not direct light is hitting the eyes of the driver who drives the vehicle. An object is to provide an apparatus.

本発明に係る直射光検出装置は、顔画像取得手段により、撮像手段から出力された映像信号に含まれる運転者の顔画像を取得し、当該顔画像に基づいて、眼座標取得手段により、前記運転者の眼位置を示す眼座標を検出すると共に、当該眼座標の追跡を行っており、開閉眼判定手段により、顔画像と前記眼座標とに基づいて前記運転者の眼開度を演算し、当該眼開度から運転者の眼の開閉状態を判定している。そして、この直射光検出装置は、運転者の眼に直射光が当たっているか否かを判定するために、撮像条件取得手段により、撮像手段の撮像条件を取得して、眼付近領域測光手段により、前記眼座標及び前記撮像条件に基づいて、前記顔画像のうちの前記運転者の眼付近領域の光量を測光すると、当該光量と眼開度とに基づく前記運転者の眼に直射光が当たっているか否かの判定を行うことができる。   The direct light detection apparatus according to the present invention acquires a driver's face image included in the video signal output from the imaging unit by the face image acquisition unit, and based on the face image, the eye coordinate acquisition unit The eye coordinates indicating the driver's eye position are detected and the eye coordinates are tracked, and the eye opening degree of the driver is calculated based on the face image and the eye coordinates by the opening / closing eye determination means. The open / closed state of the driver's eyes is determined from the eye opening. The direct light detection device acquires the imaging conditions of the imaging means by the imaging condition acquisition means to determine whether the driver's eyes are exposed to direct light, and the eye vicinity area photometry means. Based on the eye coordinates and the imaging conditions, when the amount of light in the region near the driver's eyes in the face image is measured, direct light hits the driver's eyes based on the amount of light and the eye opening. It can be determined whether or not.

本発明に係る直射光検出装置によれば、撮像手段の撮像条件を考慮して眼付近領域の光量を測光し、開閉眼の判定で検出された眼開度を用いて直射光が眼に当たっているかを判定でき、運転者が直射光により眩しさを感じているか否かを確実に判断することができる。   According to the direct light detection device according to the present invention, whether the direct light hits the eye using the eye opening detected by measuring the amount of light in the vicinity of the eye in consideration of the imaging condition of the imaging means and determining the open / closed eye. It is possible to determine whether or not the driver feels dazzle by direct light.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本発明は、例えば図1に示すように構成された第1実施形態に係る直射光検出システムの直射光検出装置に適用される。なお、本実施形態において、直射光検出システムは、車両を運転する運転者の運転操作を支援する目的で車両に搭載されることを想定する。
[First Embodiment]
The present invention is applied to a direct light detection device of a direct light detection system according to the first embodiment configured as shown in FIG. 1, for example. In the present embodiment, it is assumed that the direct light detection system is mounted on the vehicle for the purpose of assisting the driving operation of the driver who drives the vehicle.

[直射光検出システムの構成]
直射光検出システムは、図1に示すように、運転者の顔画像を撮像する撮像手段としてのビデオカメラ10と、運転者の顔周辺を照明する照明装置11と、運転者の顔面に太陽光などの直射光が当たっているか否かを判定する直射光検出装置12とを有している。
[Configuration of direct light detection system]
As shown in FIG. 1, the direct light detection system includes a video camera 10 as an imaging means for capturing a driver's face image, an illumination device 11 that illuminates the periphery of the driver's face, and sunlight on the driver's face. And a direct light detection device 12 that determines whether or not direct light such as the above is applied.

ビデオカメラ10は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの受光素子、この受光素子を制御するドライバ回路、光学フィルタ及びレンズなどが装着された鏡頭部を有しており、撮像した映像(運転者の顔画像)をビデオ信号として直射光検出装置12に出力する。   The video camera 10 has a light receiving element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor, a driver circuit that controls the light receiving element, a mirror head on which an optical filter, a lens, and the like are mounted. The captured image (driver's face image) is output to the direct light detection device 12 as a video signal.

照明装置11は、例えばLED(Light Emitting Diode)やハロゲンランプなどの光源、光源を制御するドライバ回路、光学フィルタ及びレンズ等の光学素子を有しており、近赤外光を運転者の顔面に照射して照明する。   The illuminating device 11 includes a light source such as an LED (Light Emitting Diode) or a halogen lamp, a driver circuit that controls the light source, an optical element such as an optical filter, and a lens, and applies near infrared light to the driver's face. Irradiate and illuminate.

ここで、運転者が車両を運転する際に、直射光を含む外光が運転者の顔面に当たる様子を図2に示す。運転者の顔面に直射光が当たっていない状態、すなわち通常の走行状態においては、図2(a)に示すように、運転者が眩しさを感じることはなく、眼の開きが大きい。運転者の顔面に直射光が当たっている状態では、図2(b)に示すように、運転者が眩しさを感じ、眼の開きが通常の走行状態よりも小さくなる。この状態の下で、運転者が車両に搭載されたサンバイザなどの遮光装置を使用すると、図2(c)に示すように、運転者の眼周辺が遮光され、眼の開きが通常の走行状態と同等程度となる。   Here, FIG. 2 shows a state in which external light including direct light hits the face of the driver when the driver drives the vehicle. In a state where the driver's face is not exposed to direct light, that is, in a normal running state, as shown in FIG. 2A, the driver does not feel dazzling and has wide eyes. In a state where the driver's face is exposed to direct light, as shown in FIG. 2 (b), the driver feels dazzling and the opening of the eyes becomes smaller than in the normal traveling state. Under this state, when the driver uses a shading device such as a sun visor mounted on the vehicle, as shown in FIG. 2 (c), the driver's eyes are shielded and the eyes are open in a normal driving state. It is equivalent to.

つぎに、直射光検出装置12について、図3を参照しながら説明する。第1実施形態に係る直射光検出装置12は、図3に示すように、顔画像取得部20と、眼座標出力部21と、開閉眼判定部22と、撮像状態取得部23と、眼付近領域測光部24と、直射光検出部25と、直射光信号出力部26とを有している。   Next, the direct light detection device 12 will be described with reference to FIG. As shown in FIG. 3, the direct light detection device 12 according to the first embodiment includes a face image acquisition unit 20, an eye coordinate output unit 21, an open / closed eye determination unit 22, an imaging state acquisition unit 23, and the vicinity of the eyes. An area photometry unit 24, a direct light detection unit 25, and a direct light signal output unit 26 are provided.

顔画像取得部20は、ビデオカメラ10から出力されたビデオ信号が入力され、このビデオ信号に含まれる一連の画像フレームのうちの1枚或いは複数枚の画像フレームを用いて、運転者の顔画像を抽出して取得する。このとき、顔画像取得部20は、ビデオカメラ10から入力されたビデオ信号によりデジタル処理を施し、顔画像をデジタル画像としてキャプチャして、ビデオメモリ内に蓄積する。ここで、ビデオカメラ10の取付位置や画角等から運転者の顔が撮像される画像内位置が決められており、顔画像取得部20は、当該画像内位置のデジタル画像をキャプチャすることになる。   The face image acquisition unit 20 receives the video signal output from the video camera 10 and uses one or a plurality of image frames in a series of image frames included in the video signal, thereby using the face image of the driver. Extract and get. At this time, the face image acquisition unit 20 performs digital processing using the video signal input from the video camera 10, captures the face image as a digital image, and stores the digital image in the video memory. Here, the position in the image at which the driver's face is imaged is determined from the mounting position and angle of view of the video camera 10, and the face image acquisition unit 20 captures a digital image of the position in the image. Become.

眼座標出力部21は、顔画像取得部20によって取得された顔画像に基づいて、運転者の眼位置を示す眼座標を検出すると共に、時間的に前後する複数の顔画像から得た複数の眼位置を比較して眼座標の追跡を行って、開閉眼判定部22及び眼付近領域測光部24に出力する。   The eye coordinate output unit 21 detects eye coordinates indicating the driver's eye position based on the face image acquired by the face image acquisition unit 20, and also includes a plurality of face images obtained from a plurality of face images that move back and forth in time. Eye coordinates are tracked by comparing eye positions, and output to the open / close eye determination unit 22 and the near-eye region photometry unit 24.

開閉眼判定部22は、顔画像取得部20により取得された顔画像と、眼座標出力部21により検出及び追跡されている眼座標とに基づいて、運転者の眼の開閉状態を学習すると共に、運転者の眼開度に基づく開閉状態の判定を行い、眼開度を直射光検出部25に出力する。   The open / close eye determination unit 22 learns the open / closed state of the driver's eyes based on the face image acquired by the face image acquisition unit 20 and the eye coordinates detected and tracked by the eye coordinate output unit 21. Then, the open / close state is determined based on the eye opening of the driver, and the eye opening is output to the direct light detection unit 25.

撮像状態取得部23は、ビデオカメラ10の撮像条件に関する情報を取得する。この撮像状態取得部23が取得する情報としては、例えば、運転者の顔画像を撮像するときのシャッタースピードや絞りに関する情報であって、予め図示しないメモリに記憶されている値などが使用可能である。   The imaging state acquisition unit 23 acquires information related to imaging conditions of the video camera 10. As the information acquired by the imaging state acquisition unit 23, for example, information relating to the shutter speed and the aperture when the driver's face image is captured, and values stored in a memory (not shown) can be used. is there.

眼付近領域測光部24は、顔画像取得部20により取得された顔画像、眼座標出力部21により取得された眼座標、及び撮像状態取得部23により取得された撮像条件に基づいて、運転者の眼付近領域の光量を測光して、直射光検出部25に出力する。   The near-eye area photometry unit 24 is based on the face image acquired by the face image acquisition unit 20, the eye coordinates acquired by the eye coordinate output unit 21, and the imaging condition acquired by the imaging state acquisition unit 23. The amount of light in the near eye area is measured and output to the direct light detection unit 25.

直射光検出部25は、開閉眼判定部22により取得された眼開度と、眼付近領域測光部23により取得された光量とに基づいて、運転者の眼に直射光が当たっているか否かを判定して、直射光信号出力部26に出力する。   The direct light detection unit 25 determines whether the driver's eyes are exposed to direct light based on the eye opening degree acquired by the open / close eye determination unit 22 and the light amount acquired by the near-eye region photometry unit 23. Is output to the direct light signal output unit 26.

直射光信号出力部26は、直射光検出部25による判定結果を直射光信号として外部に接続された機器に出力する。   The direct light signal output unit 26 outputs the determination result by the direct light detection unit 25 as a direct light signal to an externally connected device.

なお、眼座標出力部21は、図4に示すように、顔画像取得部20によって取得された顔画像に基づいて、運転者の眼位置を示す眼座標を検出する眼位置検出部21aと、時間的に前後する一連の顔画像を比較(複数の画像フレーム間で比較)して眼座標の追跡を行う眼位置追跡部21bとを備えて構成されていても良い。すなわち、顔画像取得部20が行う各機能を、眼位置検出部21aと眼位置追跡部21bとが各機能を分担して処理するとしてもよい。   As shown in FIG. 4, the eye coordinate output unit 21 includes an eye position detection unit 21 a that detects eye coordinates indicating the driver's eye position based on the face image acquired by the face image acquisition unit 20, and An eye position tracking unit 21b that tracks eye coordinates by comparing a series of face images moving back and forth in time (comparison between a plurality of image frames) may be provided. That is, each function performed by the face image acquisition unit 20 may be processed by the eye position detection unit 21a and the eye position tracking unit 21b sharing the functions.

また、開閉眼判定部22は、図4に示すように、顔画像取得部20により取得された顔画像と、眼座標出力部21により検出された眼座標とに基づいて、運転者の眼の開閉状態を学習する開閉眼学習部22aと、開閉眼学習部22aによる学習結果に基づいて運転者の眼の開閉判定を行って眼開度を取得する開閉眼決定部22bとを備えて構成されていても良い。すなわち、開閉眼判定部22が行う各機能を、開閉眼学習部22aと開閉眼決定部22bとが各機能を分担して処理するとしてもよい。   Further, as shown in FIG. 4, the open / close eye determination unit 22, based on the face image acquired by the face image acquisition unit 20 and the eye coordinates detected by the eye coordinate output unit 21, An open / closed eye learning unit 22a for learning the open / closed state, and an open / closed eye determination unit 22b for performing eye opening / closing determination based on a learning result by the open / closed eye learning unit 22a and acquiring an eye opening degree. May be. That is, each function performed by the open / close eye determination unit 22 may be processed by the open / close eye learning unit 22a and the open / close eye determination unit 22b sharing the functions.

「眼位置検出処理」
つぎに、眼位置検出部21aにおける眼位置検出処理について説明する。
"Eye position detection process"
Next, the eye position detection process in the eye position detection unit 21a will be described.

眼位置検出部21aは、眼位置検出処理が開始されると、図5に示すように、位置検出がスタートすると、片側候補の検出処理か、或いは両側確定処理かを判断することにより、現在設定されている検出モードを確認する(ステップS10)。   As shown in FIG. 5, when the eye position detection process is started, the eye position detection unit 21a determines whether the one-side candidate detection process or the both-sides determination process is performed when position detection starts. The detected detection mode is confirmed (step S10).

そして、眼位置検出部21aは、確認された検出モードに応じて、顔画像の画面全体から片眼となる候補を検出する片眼候補検出処理(ステップS11)、片眼候補の座標によって局所領域から両眼を検出し両眼を確定する両眼確定処理(ステップS12)のいずれかに処理を進める。また、ステップS11或いはステップS12における処理が完了すると、眼位置検出部21aは、眼位置検出処理を終了する。   Then, the eye position detection unit 21a performs a one-eye candidate detection process (step S11) for detecting a candidate for one eye from the entire screen of the face image according to the confirmed detection mode. Then, the process proceeds to one of the binocular confirmation processing (step S12) in which both eyes are detected and both eyes are confirmed. Further, when the process in step S11 or step S12 is completed, the eye position detection unit 21a ends the eye position detection process.

ステップS11において片眼候補検出処理が開始されると、眼位置検出部21aは、図6のフローチャートに示すように、片眼の候補を検出するための処理エリアを設定する処理(ステップS20)と、当該処理エリア内に存在する濃度変化点の連続データを検出する処理(ステップS21)と、片眼候補を絞り込む処理(ステップS22)と、次の画像フレームにおいて片眼候補の検出処理を行うか、両眼確定の処理を行うかを判断する処理(ステップS23)とを順次行う。   When the one-eye candidate detection process is started in step S11, the eye position detection unit 21a sets a process area for detecting one-eye candidates (step S20), as shown in the flowchart of FIG. Whether to perform continuous data detection of density change points existing in the processing area (step S21), narrowing down one eye candidate (step S22), and detecting one eye candidate in the next image frame Then, the process of determining whether to perform the binocular determination process (step S23) is sequentially performed.

ここで、ステップS20において設定される処理エリアは、図7に示すように、顔画像の右半分又は左半分の領域として設定される。なお、図7においては、顔画像の右半分の領域に設定された場合の一例を示す。そして、この顔画像の右半分又は左半分の領域の眼付近では、例えば図8に示すように、眼の輪郭を示す横方向に隣接した濃度変化点群である連続データ(グループA)や、眉などの眼ではない濃度変化点群である連続データ(グループB)が検出されることになる。   Here, the processing area set in step S20 is set as a right half region or a left half region of the face image as shown in FIG. Note that FIG. 7 shows an example in which the face image is set to the right half region. Then, in the vicinity of the right half or left half of the face image, for example, as shown in FIG. 8, continuous data (group A) that is a group of density change points adjacent in the horizontal direction indicating the outline of the eye, Continuous data (group B) that is a density change point group that is not an eye such as an eyebrow is detected.

また、ステップS21は、眼位置検出部21aにより、ステップS20で設定された処理エリア内の縦ライン毎(図9(a))に、光量の濃度変化を検出し(図9(b))、当該検出された白(淡)→黒(濃)と変化する濃度変化点が、横方向連続して連なる濃度変化点群を検出することにより、当該濃度変化点群を連続データとして検出する処理を行う(図9(c))。なお、図9(a)では、処理エリア内に設定された複数の縦ラインのうちの1本のみを図示しており、この1本の縦ラインについての光量の濃度変化を図9(b)に示す。図9(b)に示す光量の濃度変化において、「眼」であると検出された両端点に注目し、複数の縦ラインについて両端点を並べた状態を図9(c)に示す。なお、図9(c)においては、「眼」であると検出された両端点をそれぞれ「○」「×」で示す。   In step S21, the eye position detection unit 21a detects a change in the light amount density for each vertical line (FIG. 9A) in the processing area set in step S20 (FIG. 9B). A process of detecting the density change point group as continuous data by detecting a density change point group in which the detected density change points that change from white (light) to black (dark) continuously in the horizontal direction are detected. Perform (FIG. 9C). In FIG. 9A, only one of the plurality of vertical lines set in the processing area is shown, and the change in the light amount density for the one vertical line is shown in FIG. 9B. Shown in FIG. 9C shows a state in which both end points of a plurality of vertical lines are arranged while paying attention to both end points detected as “eye” in the change in the light intensity density shown in FIG. 9B. In FIG. 9C, both end points detected as “eye” are indicated by “◯” and “x”, respectively.

また、ステップS22における片眼候補を絞り込む処理においては、眼位置検出部21aにより、ステップST21で検出された連続データが、上瞼のラインであれば、上凸の形状をしているという仮定に基づいて形状認識を行い、上凸の形状と合致した濃度変化点のみを、眼を示す画像として残すように処理する。   In the process of narrowing down one eye candidate in step S22, if the continuous data detected in step ST21 by the eye position detection unit 21a is an upper eyelid line, it is assumed that it has an upward convex shape. Based on the shape recognition, only the density change points that match the convex shape are left as an image showing the eye.

ステップS23においては、眼位置検出部21aにより、次の画像フレームにおいて再度図6に示す片眼候補の検出処理を行うか、或いは次の画像フレームにおいてステップS12における両眼確定の処理を行うかを判断する。   In step S23, whether the eye position detection unit 21a performs the one-eye candidate detection process shown in FIG. 6 again in the next image frame or the binocular determination process in step S12 in the next image frame. to decide.

ステップS12における両眼確定処理を行うと判断されると、同一座標近辺に連続して上凸の形状をし、連続データとして検出される濃度変化点を片眼候補点として、両眼確定処理に遷移する。このステップS12においては、図10に示すように、片眼候補の座標に両眼を検出するための処理エリアを設定する処理(ステップS30)と、処理エリア内の濃度変化点の連続データを検出する処理(ステップS31)と、両眼候補として検出された連続データと予め用意されたテンプレートとの比較によるパターン認識により両眼を判定する処理(ステップS32)と、次の画像フレームにおいて片眼候補の検出処理に戻るか、引き続き両眼確定の処理を行うか、眼位置追跡の処理を行うかを判断する処理(ステップS33)とを順次行う。   If it is determined that the binocular confirmation process is to be performed in step S12, the binocular confirmation process is performed with the density change point detected as continuous data having a continuously convex shape in the vicinity of the same coordinate and being detected as continuous data. Transition. In step S12, as shown in FIG. 10, processing for setting a processing area for detecting both eyes at the coordinates of one eye candidate (step S30) and continuous data of density change points in the processing area are detected. Processing (step S31), processing for determining both eyes by pattern recognition by comparing continuous data detected as a binocular candidate and a template prepared in advance (step S32), and one eye candidate in the next image frame The process of determining whether to return to the detection process, to continue the binocular determination process, or to perform the eye position tracking process (step S33) is sequentially performed.

ここで、ステップS30において設定される処理エリアは、図11に示すように、顔画像において、運転者の両眼を含む領域が設定される。なお、この図10においては、鼻を検出するための領域も設定されていて、当該領域内に鼻から検出される濃度変化点も示している。   Here, as the processing area set in step S30, as shown in FIG. 11, an area including both eyes of the driver is set in the face image. In FIG. 10, a region for detecting the nose is also set, and the density change point detected from the nose is also shown in the region.

また、ステップS32で採用しているパターン認識処理は、予め複数の眼の画像からテンプレートとなる眼の画像を生成した画像データを用意しておき、当該テンプレートと、ステップST31で検出した連続データとの相関を求める相互相関法を用いる手法が使用可能である。又は、このステップST32では、予め複数の眼の画像と眼ではない顔部位画像(眼鏡のフレームや眉毛、鼻など)をニューラルネットワークによって学習し、眼か否かを判定するための画像をニューラルネットワークより判定する手法などを利用することができる。   In addition, the pattern recognition processing employed in step S32 prepares in advance image data that generates a template eye image from a plurality of eye images, and the template and the continuous data detected in step ST31. It is possible to use a method using a cross-correlation method for obtaining the correlation. Alternatively, in this step ST32, a plurality of eye images and non-eye face part images (glass frame, eyebrows, nose, etc.) are learned by a neural network in advance, and an image for determining whether or not an eye is present is detected by the neural network. A method for determining more can be used.

「眼位置追跡処理」
つぎに、眼位置追跡部21bにおける眼位置追跡処理について、図12に示すフローチャートを参照しながら説明する。
"Eye position tracking process"
Next, the eye position tracking process in the eye position tracking unit 21b will be described with reference to the flowchart shown in FIG.

眼位置追跡部21bは、眼位置追跡処理が開始されると、図13(a)に示すように、前回の眼位置検出処理又は両眼確定処理によって検出された眼座標近辺の領域から、基準眼を検出する(ステップS40)。ここで、上述した眼位置検出処理における基準眼の検出位置とは、眼位置検出部21aによって検出された「眼(図9(c))」について、図13(c)に示すように、「上端」「下端」「左端」「右端」を設定して、これらの中心位置を基準眼の位置として検出する処理である。   When the eye position tracking process is started, the eye position tracking unit 21b starts from the region near the eye coordinates detected by the previous eye position detection process or the binocular confirmation process as shown in FIG. Eyes are detected (step S40). Here, the detection position of the reference eye in the above-described eye position detection process refers to “eye (FIG. 9C)” detected by the eye position detection unit 21a, as shown in FIG. The upper end, the lower end, the left end, and the right end are set, and the center position is detected as the reference eye position.

次に、眼位置追跡部21bは、基準眼が検出できたか否か判定し(ステップS41)、検出できた場合には、図13(b)に示すように、当該検出した今回の基準眼の座標から、前回の眼位置検出処理又は両眼確定処理により検出された眼の座標までの眼間距離を求めて、反対眼の検出領域を設定し、当該検出領域から反対眼を検出する(ステップS42)。   Next, the eye position tracking unit 21b determines whether or not the reference eye has been detected (step S41), and if it has been detected, as shown in FIG. 13B, the detected current reference eye is detected. The interocular distance from the coordinates to the coordinates of the eyes detected by the previous eye position detection process or the binocular confirmation process is obtained, a detection area for the opposite eye is set, and the opposite eye is detected from the detection area (step) S42).

ステップS41において、眼位置追跡部21bは、基準眼が検出できないと判定された場合には、反対眼を基準眼に変え(ステップS43)、再び基準眼の検出を行う(ステップS44)。次に、眼位置追跡部21bは、反対眼を基準眼として検出できたか否か判定し(ステップS45)、検出できないと判定された場合には、当該画像フレームでの追跡に失敗したとみなして(ステップS46)、眼位置追跡処理を終了する。また、ステップS45において、眼位置追跡部21bは、反対眼を基準眼として検出できたと判定された場合には、処理をステップS42に進める。   In step S41, if it is determined that the reference eye cannot be detected, the eye position tracking unit 21b changes the opposite eye to the reference eye (step S43) and detects the reference eye again (step S44). Next, the eye position tracking unit 21b determines whether or not the opposite eye can be detected as the reference eye (step S45). If it is determined that the eye cannot be detected, it is considered that tracking in the image frame has failed. (Step S46), the eye position tracking process is terminated. In Step S45, when it is determined that the eye position tracking unit 21b has detected the opposite eye as the reference eye, the process proceeds to Step S42.

ステップS42において反対眼の検出を行った後、眼位置追跡部21bは、反対眼が検出できたか否か判定し(ステップS47)、検出できた場合には、検出した基準眼及び反対眼の座標を確定して(ステップS48)、眼位置追跡処理を終了する。また、ステップS47において、反対眼を検出できないと判定された場合には、眼位置追跡部21bは、前回の眼座標から眼間距離を求めて、基準眼の座標から眼間距離相当分の移動位置を反対眼の座標として確定し(ステップS49)、眼位置検出処理を終了する。   After detecting the opposite eye in step S42, the eye position tracking unit 21b determines whether or not the opposite eye has been detected (step S47), and if detected, the coordinates of the detected reference eye and the opposite eye are detected. Is determined (step S48), and the eye position tracking process is terminated. Further, when it is determined in step S47 that the opposite eye cannot be detected, the eye position tracking unit 21b obtains the interocular distance from the previous eye coordinates, and moves the interocular distance corresponding to the reference eye coordinates. The position is determined as the coordinates of the opposite eye (step S49), and the eye position detection process is terminated.

「開閉眼判断処理」
つぎに、開閉眼判定部22による開閉眼学習処理及び開閉眼判断(決定)処理について、図14に示すフローチャートを参照しながら説明する。
"Open / close eye judgment process"
Next, the opening / closing eye learning process and the opening / closing eye determination (determination) process by the opening / closing eye determination unit 22 will be described with reference to the flowchart shown in FIG.

開閉眼判定部22は、開閉眼学習処理及び開閉眼判断処理が開始されると、眼位置追跡部21bによる眼位置追跡処理によって得られた眼座標近辺の画像領域から、画像の濃淡値により2値化閾値を決定し、顔画像から眼領域を切り出すことにより、眼の「左端」「右端」「上端」「下端」を取得して、開閉眼判断用パラメータを設定する(ステップS50)。ここで、開閉眼判断用パラメータとして設定される眼の「左端」「右端」「上端」「下端」の各座標は、開眼時と閉眼時とではその相対位置関係が異なるように設定されることになる。   When the open / close eye learning process and the open / close eye determination process are started, the open / close eye determination unit 22 calculates 2 based on the gray value of the image from the image area near the eye coordinates obtained by the eye position tracking process by the eye position tracking unit 21b. By determining the threshold value and cutting out the eye region from the face image, the “left end”, “right end”, “upper end”, and “lower end” of the eye are obtained, and the open / close eye determination parameters are set (step S50). Here, the coordinates of the “left end”, “right end”, “upper end”, and “lower end” of the eye that are set as the open / closed eye determination parameters should be set so that the relative positional relationship differs between when the eye is opened and when the eye is closed. become.

次に、開閉眼判定部22は、眼の「上端」と「下端」との間の距離(眼の縦幅)を眼の開度として求める(ステップS51)。ここで、ステップST50で設定された開閉眼判断用パラメータから、眼の「上端」と「下端」との相対位置関係は、眼の開閉状態が閉眼に近づくに従って、近接した関係となる。   Next, the open / closed eye determination unit 22 obtains the distance (vertical width of the eye) between the “upper end” and the “lower end” of the eye as the eye opening (step S51). Here, from the open / closed eye determination parameters set in step ST50, the relative positional relationship between the “upper end” and “lower end” of the eye becomes closer as the open / closed state of the eye approaches the closed eye.

次に、開閉眼判定部22は、眼の「右端」「左端」「上端」による上瞼の形状に基づいて、「右端」と「左端」とを結ぶ線分に対して「上端」の座標が上方にあるか下方にあるかを判定する。そして、開閉眼判定部22は、この判定結果に基づいて眼の形状が上凸状であるか、下凸(凹)状であるか、或いは水平であるかを判定する(ステップS52)。   Next, based on the shape of the upper eyelid by the “right end”, “left end”, and “upper end” of the eye, the open / close eye determination unit 22 coordinates “upper end” with respect to the line segment connecting the “right end” and “left end”. Is determined to be above or below. Then, the open / close eye determination unit 22 determines whether the eye shape is upward, downward (concave) or horizontal based on the determination result (step S52).

次に、開閉眼判定部22は、眼の開閉学習が終了しているか否かを判定し(ステップS53)、終了していない場合には眼の開閉学習を行う(ステップS54)。一方、眼の開閉学習が終了している場合には、開閉眼決定部22bにより、眼の形状と眼の学習結果によって得られる眼の縦幅閾値と、検出した現在の眼の縦幅とに基づき、検出した現在の眼の縦幅が眼の縦幅閾値以下の場合を閉眼、縦幅閾値以上の場合を開眼として判断する(ステップS55)。開閉眼判定部22は、ステップS54或いはステップS55の処理の後に、一連の処理を終了する。   Next, the open / close eye determination unit 22 determines whether or not the eye open / close learning has been completed (step S53), and if not, the eye open / close learning is performed (step S54). On the other hand, when the eye opening / closing learning is completed, the opening / closing eye determination unit 22b sets the eye height and the detected eye height width obtained from the eye learning result and the detected current eye height. Based on this, it is determined that the detected current eye height is equal to or smaller than the eye height threshold, and the eye is equal to or greater than the height threshold (step S55). The open / close eye determination unit 22 ends the series of processes after the process of step S54 or step S55.

ステップS54における眼の開閉学習処理は、開閉眼学習部22aにより、以下のようにして行われる。すなわち、図14のフローチャートに示す一連の処理で得られた眼の縦幅と、眼の形状とから、眼の形状が上凸であるときの開度値を、図15に示すような開度値ごとに用意したカウンタ用メモリ配列にてカウントし、各開度値の左右のカウンタ用メモリの合計値が予め設定された設定値(本実施形態においては「20」とする)以上となった開度値を、開眼開度値として学習する。また、開眼開度値から予め設定された所定の割合(本実施形態においては「30%」とする)を開眼と閉眼を区別するための閾値として設定する。   The eye opening / closing learning process in step S54 is performed by the opening / closing eye learning unit 22a as follows. That is, the opening degree value when the eye shape is upwardly convex from the vertical width of the eye and the eye shape obtained by the series of processing shown in the flowchart of FIG. The counter memory array prepared for each value is counted, and the total value of the left and right counter memories for each opening value is equal to or greater than a preset setting value (in this embodiment, “20”). The opening value is learned as an eye opening value. Further, a predetermined ratio (in this embodiment, “30%”) set in advance from the opening degree value of the eye opening is set as a threshold value for distinguishing between opening and closing.

「眼付近領域測光処理」
つぎに、眼付近領域測光部24における処理について説明する。
“Near eye area metering”
Next, processing in the near eye region photometry unit 24 will be described.

眼付近領域測光部24は、眼座標出力部21における処理によって得られた眼座標(眼の検出位置)に基づいて、以下に示す式(1)により光量dの値を算出する。
The near-eye region photometry unit 24 calculates the value of the light amount d by the following equation (1) based on the eye coordinates (eye detection position) obtained by the processing in the eye coordinate output unit 21.

上記の式(1)においては、図16(a)に示すように、右眼・左眼それぞれの眼の周囲に設定された測光範囲の幅をw、測光範囲の高さをhとする。この測光範囲は、図16(b)に示すように、通常時と直射光が眼に当たっている時とで全体の画素値が明確に異なるような範囲が設定される。そして、上記式(1)に従って演算を行うことにより、眼付近領域測光部24は、測光範囲内に存在する画素群を構成する各画素(x,y)の光量に相当する画素値p(x,y)を用いて平均画素値を求め、当該平均画素値に対して、撮像状態取得部23によって得られた撮像時のシャッタースピードsの逆数を乗算することによって、現在の画像フレームにおける眼付近領域の光量dを算出している。   In the above formula (1), as shown in FIG. 16A, the width of the photometric range set around the right eye and the left eye is w, and the height of the photometric range is h. As shown in FIG. 16B, this photometric range is set such that the entire pixel value is clearly different between the normal time and the time when direct light hits the eyes. Then, by performing the calculation according to the above formula (1), the near-eye region photometry unit 24 has a pixel value p (x corresponding to the light amount of each pixel (x, y) constituting the pixel group existing in the photometry range. , Y) to obtain an average pixel value and multiply the average pixel value by the reciprocal of the shutter speed s at the time of imaging obtained by the imaging state acquisition unit 23, thereby near the eye in the current image frame The amount of light d in the area is calculated.

眼付近領域測光部24は、上記の式(1)によって得られた光量dを、複数の画像フレームについて時系列的に算出し、複数の光量dの平均を求めて最終的な光量を得る。   The near-eye region photometry unit 24 calculates the light amount d obtained by the above equation (1) in time series for a plurality of image frames, obtains the average of the plurality of light amounts d, and obtains the final light amount.

つぎに、直射光検出部25における処理について、図17を参照しながら説明する。   Next, processing in the direct light detection unit 25 will be described with reference to FIG.

直射光検出部25は、開閉眼決定部22による開閉眼判定処理による得られた現在の眼の縦幅と、眼付近領域測光部24による眼付近領域測光処理により得られた右眼・左眼それぞれの眼の周囲の光量を取得して、それぞれの変化を時系列に監視(モニタリング)する。また、直射光検出部25は、両眼の光量があらかじめ設定した値以上に上昇し、且つ、眼の縦幅(開眼開度値)が予め設定し閾値以下に下降した場合に、運転者の眼に直射光が当たっていると判定する。   The direct light detection unit 25 has the current eye vertical width obtained by the open / close eye determination process by the open / close eye determination unit 22 and the right eye / left eye obtained by the near eye region photometry process by the near eye region photometry unit 24. The amount of light around each eye is acquired, and each change is monitored (monitored) in time series. Further, the direct light detection unit 25 increases the amount of light of both eyes above a preset value, and when the vertical width of the eye (opening opening value) falls below a threshold value set in advance, It is determined that the eyes are exposed to direct light.

このとき、直射光検出部25は、直射光が眼に当たっていない通常状態時において開眼と閉眼を判定するための眼の縦幅閾値(図17(a))を、図17(b)に示すように、直射光が眼に入っていると判断されたときの開眼開度値によって下方に補正する。すなわち、直射光が眼に当たっている時の開眼開度値(図17(b))は、直射光が眼に当たっていない時の開眼開度値(図17(a))よりも低くなっており、当該低くなっている開度値分だけ眼の縦幅閾値を低く設定する。これにより、例えば運転者が笑った状態や居眠りをした状態などのように、直射光による眩しさ以外の要因によって眼を細めた状態を閉眼であると誤判定することを防ぐことができる。   At this time, the direct light detection unit 25 shows an eye vertical width threshold value (FIG. 17A) for determining whether the eyes are open or closed in a normal state where the direct light does not hit the eyes, as shown in FIG. In addition, it is corrected downward by the eye opening degree value when it is determined that direct light is in the eye. That is, the opening degree value of the eye opening when the direct light hits the eye (FIG. 17B) is lower than the opening degree value of the eye opening when the direct light does not hit the eye (FIG. 17A). The eye vertical width threshold is set lower by the opening degree value that is lower. As a result, it is possible to prevent erroneous determination that the eye is narrowed due to factors other than glare caused by direct light, such as a state where the driver laughs or sleeps, for example, as being closed.

つぎに、直射光信号出力部26における処理について説明する。   Next, processing in the direct light signal output unit 26 will be described.

直射光信号出力部26は、直射光検出部25による直射光検出処理の結果により、運転者の眼に直射光が当たっていると判定された場合に、直射光検出装置12に接続された外部機器に直射光信号を出力する。この外部機器としては、運転者の眩しさ低減や疲労低減のために運転者にサンバイザやサングラス等の使用を促すための報知を行う報知手段、運転者の眼の周辺に射し込む光を遮光する自動遮光装置などを挙げることができる。   The direct light signal output unit 26 is connected to the direct light detection device 12 when it is determined that the direct light is applied to the driver's eyes based on the result of the direct light detection process by the direct light detection unit 25. Outputs a direct light signal to the device. As this external device, in order to reduce the driver's glare and fatigue, the notification means for prompting the driver to use a sun visor, sunglasses, etc., the automatic that blocks the light entering the periphery of the driver's eyes A light shielding device can be used.

この報知手段としては、車両に搭載された車両ナビゲーションシステムのナビ画面やメータパネル内に文字やイメージアイコンを表示することによる視覚的な報知手法を採用したものや、スピーカからの音声メッセージ又は報知音などによる音声出力による聴覚的な報知手法を採用したものなどを挙げることができる。また、自動遮光装置の一例としては、未使用時には車両室内の天井面に格納されており、使用時にフロントウィンドウ面にスライドして遮光を行うサンバイザ機構や、フロントウィンドウ面上に設置された液晶シャッターによる遮光機構などを挙げることができる。   As this notification means, a visual notification method by displaying characters and image icons in a navigation screen or meter panel of a vehicle navigation system mounted on a vehicle, a voice message or notification sound from a speaker, etc. And the like that employ an auditory notification method by voice output. In addition, as an example of an automatic light shielding device, a sun visor mechanism that is stored on the ceiling surface of the vehicle interior when not in use and slides on the front window surface to shield light when in use, or a liquid crystal shutter installed on the front window surface And a light shielding mechanism.

[第1実施形態の効果]
以上詳細に説明したように、第1実施形態に係る直射光検出システムによれば、ビデオカメラ10から出力された映像信号に含まれる運転者の顔画像を取得する顔画像取得部20と、顔画像に基づいて、運転者の眼位置を示す眼座標を検出すると共に、眼座標の追跡を行う眼座標出力部21と、顔画像と眼座標とに基づいて、運転者の眼の開閉状態を学習して判定し、運転者の眼開度を取得する開閉眼判定部22と、ビデオカメラ10の撮像条件を取得する撮像状態取得部23と、顔画像、眼座標、及び撮像条件に基づいて、運転者の眼付近領域の光量を測光する眼付近領域測光部24と、眼開度と光量とに基づいて、運転者の眼に直射光が当たっているか否かを判定する直射光検出部25と、直射光検出装置12による判定結果を示す直射光信号を出力する直射光信号出力部26とを備えることを特徴とする直射光検出装置を実現することができ、運転者の眼の位置を自動的に検出すると共に、眼付近領域の光量と眼開度とに基づいて、運転者が直射光により眩しさを感じているか否かを確実に判断することができる。
[Effect of the first embodiment]
As described above in detail, according to the direct light detection system according to the first embodiment, the face image acquisition unit 20 that acquires the face image of the driver included in the video signal output from the video camera 10, and the face Based on the image, the eye coordinate indicating the driver's eye position is detected, the eye coordinate output unit 21 that tracks the eye coordinate, and the open / closed state of the driver's eye based on the face image and the eye coordinate. Based on learning and determination, an open / close eye determination unit 22 that acquires the eye opening of the driver, an imaging state acquisition unit 23 that acquires an imaging condition of the video camera 10, a face image, eye coordinates, and an imaging condition. A near-eye region metering unit 24 that measures the amount of light in the region near the driver's eyes, and a direct light detection unit that determines whether or not the driver's eyes are exposed to direct light based on the eye opening and the light amount 25 and direct light indicating the determination result by the direct light detection device 12 A direct light detection device including a direct light signal output unit 26 that outputs a signal can be realized, and the position of the driver's eye can be automatically detected, and the light amount and the eye in the vicinity of the eye can be detected. Based on the opening degree, it can be reliably determined whether or not the driver feels dazzle by direct light.

すなわち、既存の技術において、運転者の眼の開閉状態の判定結果から覚醒度を推定する手法では、眼の開閉判断の正確さが重要となるものの、眩しいと眼を細め開閉眼判定の精度が落ちるが、眼を細める程度の眩しさでは、サンバイザを使用しない運転者が多い。一方、運転者にとって直射光を浴びた環境における運転心理を考慮すると、運転者の疲労が蓄積したり、ビル影やトンネルに入るなど急な環境照度変化がおこった場合に運転者の適応を考慮すると、サンバイザの使用が望ましく、更には、眼の開閉状態を判断するためにも、閉眼と誤検出し易くなるので、運転者のサンバイザ使用が望ましい。これに対し、上述した第1実施形態に係る直射光検出システムによれば、眼の開閉状態の判定結果に基づく開眼開度値を学習によって求め、且つ眼に当たっている光量を推定して、直射光が眼に当たっているかを検出でき、運転者が直接光で眩しいと感じているかどうかを検出できる。   In other words, in the existing technology, in the method of estimating the arousal level from the determination result of the eye open / closed state of the driver, although accuracy of the eye open / close determination is important, the eye is narrowed and the accuracy of the open / closed eye determination is reduced. Many drivers do not use a sun visor if they are dazzling enough to narrow their eyes. On the other hand, considering the driving psychology in an environment exposed to direct light for the driver, the driver's adaptation is considered when the driver's fatigue accumulates or sudden changes in ambient illuminance occur such as building shadows or entering tunnels. Then, it is desirable to use a sun visor, and moreover, since it is easy to erroneously detect that the eyes are closed in order to determine the open / closed state of the eyes, it is desirable that the driver use the sun visor. On the other hand, according to the direct light detection system according to the first embodiment described above, the eye opening degree value based on the determination result of the open / closed state of the eye is obtained by learning, and the amount of light hitting the eye is estimated to obtain direct light. It is possible to detect whether or not the driver is in contact with the eyes, and whether or not the driver feels dazzled by direct light.

・直接光の検出結果を報知(信号出力)する。 -Notify (signal output) the detection result of direct light.

・あるいは、更に自動遮光制御(オートサンバイザ作動)を行う。 ・ Or, further, perform automatic shading control (auto sun visor operation).

また、眼座標出力部21は、顔画像全体から眼位置検出部21aによって眼の位置を検出し、眼の位置が検出できたときに、眼位置追跡部21bによって、以前の画像フレームにおける眼の位置から現在の画像フレームにおける眼の位置を追跡することができる。したがって、直射光検出装置12によれば、画像フレームの各々について顔画像全体の処理を行う必要がなく、検出処理の高速化を図ると共に、画像解析に要する演算能力を削減することができる。   Further, the eye coordinate output unit 21 detects the eye position from the entire face image by the eye position detection unit 21a, and when the eye position can be detected, the eye position tracking unit 21b performs the eye position detection in the previous image frame. From the position, the position of the eye in the current image frame can be tracked. Therefore, according to the direct light detection device 12, it is not necessary to process the entire face image for each of the image frames, and it is possible to increase the speed of the detection process and reduce the calculation capability required for image analysis.

更に、開閉眼判定部22は、顔画像と眼座標とに基づいて眼開度を取得して学習し、眼座標と開眼開度値とに基づいて眼の縦幅閾値を設定し、縦幅閾値に基づいて運転者の眼の開閉判定を行うことにより、自動的に運転者の眼の形状を学習し開閉判断を行うことが可能となり、運転者の個人差をあらかじめ設定する等のキャリブレーション作業を不要とすることができる。また、このとき、開閉眼判定部22は、直射光検出装置12によって運転者の眼に直射光が当たっていると判定されたときの眼開度に応じて、縦幅閾値を補正するとしてもよい。これにより、運転者の眼に直射光が当たり運転者が眩しいと感じている期間において、開閉判断のための眼の縦幅の閾値を最適に制御することができる。   Further, the open / close eye determination unit 22 acquires and learns the eye opening based on the face image and the eye coordinates, sets the eye vertical width threshold based on the eye coordinates and the eye opening value, and sets the vertical width. By determining whether the driver's eyes are open or closed based on the threshold value, it is possible to automatically learn the shape of the driver's eyes and make an open / close determination, and to perform calibration such as setting individual differences among drivers in advance. Work can be made unnecessary. At this time, the open / close eye determination unit 22 may correct the vertical width threshold according to the eye opening degree when the direct light detection device 12 determines that the driver's eyes are receiving direct light. Good. Thereby, in the period when the driver's eyes are exposed to direct light and the driver feels dazzling, it is possible to optimally control the threshold of the eye vertical width for opening / closing determination.

更にまた、眼付近領域測光部24は、運転者の右眼及び左眼それぞれについての眼座標に基づいて設定される領域内の平均画素値に対して、撮像状態取得部23によって取得されたビデオカメラ10のシャタースピードの逆数を乗じた値を、予め設定された所定期間の平均値によって光量を算出するとしてもよい。これにより、顔画像の画素値のみでなくビデオカメラ10のカメラパラメータも光量計算の考慮対象とするため、光量差が大きく生じた場合にも正確に光量を計算することができる。   Furthermore, the near-eye region photometry unit 24 captures the video acquired by the imaging state acquisition unit 23 with respect to the average pixel value in the region set based on the eye coordinates for each of the right and left eyes of the driver. The light quantity may be calculated by a value obtained by multiplying the reciprocal of the shutter speed of the camera 10 by an average value for a predetermined period set in advance. As a result, not only the pixel value of the face image but also the camera parameters of the video camera 10 are taken into consideration in the light amount calculation, so that the light amount can be accurately calculated even when a large difference in light amount occurs.

[第2実施形態]
つぎに、直射光検出装置12の第2実施形態について説明する。
[Second Embodiment]
Next, a second embodiment of the direct light detection device 12 will be described.

第2実施形態に係る直射光検出装置12は、図18に示すように、第1実施形態に係る直射光検出装置12と比較して、車両環境検出部50が追加された点で異なる。したがって、以下の第2実施形態に関する説明においては、上述した第1実施形態と同一又は同等の部位について、図中で同一の符号を付すと共に、詳細な説明を省略する。   As illustrated in FIG. 18, the direct light detection device 12 according to the second embodiment is different from the direct light detection device 12 according to the first embodiment in that a vehicle environment detection unit 50 is added. Therefore, in the following description regarding the second embodiment, the same or equivalent parts as those of the above-described first embodiment are denoted by the same reference numerals in the drawings, and detailed description thereof is omitted.

車両環境検出部50は、運転者が運転する車両の現在位置及び進行方向を含む走行状態と日時(現在時刻)とを取得する。なお、車両環境検出部50が各情報の取得対象とする機器は任意であるが、例えば、車両に搭載された車両ナビゲーションシステムに関わる機器から必要な情報を取得するとすればよい。   The vehicle environment detection unit 50 acquires a traveling state and a date and time (current time) including the current position and traveling direction of the vehicle driven by the driver. In addition, although the apparatus which the vehicle environment detection part 50 makes acquisition target of each information is arbitrary, what is necessary is just to acquire required information from the apparatus in connection with the vehicle navigation system mounted in the vehicle, for example.

また、第2実施形態において、直射光検出部25は、第1実施形態で説明した処理に加えて、車両環境検出部50により検出された車両の走行状態と現在時刻とに基づいて、車両が太陽に正対して走行しているか否かを判定する車両方向検出処理を行う。直射光検出部25による車両方向検出処理は、以下で説明する演算処理を行うことにより実現できる。   In the second embodiment, in addition to the processing described in the first embodiment, the direct light detection unit 25 determines whether the vehicle is based on the traveling state of the vehicle detected by the vehicle environment detection unit 50 and the current time. A vehicle direction detection process is performed to determine whether or not the vehicle is facing the sun. The vehicle direction detection process by the direct light detection unit 25 can be realized by performing a calculation process described below.

すなわち、直射光検出部25は、車両が現在位置する緯度φ、経度λの地点における現在時刻の太陽方位ψ、高度αを算出するに際して、先ず、以下に示す式(2)により元旦(1月1日)からの通し日数dnに基いて定めたθoを求める。
That is, when the direct light detection unit 25 calculates the solar azimuth ψ and altitude α at the current time at a point of latitude φ and longitude λ where the vehicle is currently located, first, the first day (January) [Theta] o determined based on the number of continuous days dn from 1st).

次に、現在時刻における太陽赤緯δ、均時差Eqを、以下に示す式(3)及び式(4)により求める。
Next, the solar declination δ and the equation of time Eq at the current time are obtained by the following equations (3) and (4).

次に、車両が日本国内に位置している場合には、日本標準時間JSTから、以下に示す式(5)により太陽の時角hを求める。
Next, when the vehicle is located in Japan, the solar hour angle h is obtained from the Japan standard time JST by the following equation (5).

次に、以上で算出した太陽赤緯δ、緯度φ、時角hに基づいて、太陽方位ψ、高度αを以下に示す式(6)及び式(7)により求める。
Next, based on the solar declination δ, latitude φ, and hour angle h calculated above, the solar azimuth ψ and altitude α are obtained by the following equations (6) and (7).

直射光検出部25は、以上の演算処理により得られた現在時刻における太陽方位ψと太陽の高度αに基づいて、車両の進行方向が太陽と正対しているか否かを判定し、正対していると判定された場合のみに直射光検出処理を行う。これにより、車両と太陽との位置関係から実際に太陽からの直射光が運転者の顔に当たる状況であるか否かを考慮して直射光検出処理を行うことができ、例えば運転者が笑った状態や居眠りをした状態などのように、直射光による眩しさ以外の要因によって眼を細めた状態を、直射光が眼に当たったことによる閉眼であると誤判定する虞を低減することができる。   The direct light detection unit 25 determines whether or not the traveling direction of the vehicle is facing the sun based on the solar azimuth ψ at the current time and the altitude α of the sun obtained by the above calculation process, and faces the sun. Only when it is determined that there is a direct light detection process. Thus, it is possible to perform direct light detection processing considering whether the direct light from the sun actually hits the driver's face from the positional relationship between the vehicle and the sun, for example, the driver laughed Reduces the possibility of misjudging a state in which the eyes are narrowed due to factors other than glare caused by direct light, such as a state or a drowsy state, as closed eyes due to direct light hitting the eyes .

[第2実施形態の効果]
このように、第2実施形態に係る直射光検出システムによれば、運転者が運転する車両の現在位置及び進行方向を含む走行状態と日時とを取得する車両環境検出部50を更に備え、直射光検出装置12は、車両環境検出部50により取得された情報に基づいて、現在太陽が位置する方向に車両が向かって走行していると判定された場合にのみ、運転者の眼に直射光が当たっているか否かの判定を行うことができる。これにより、画像解析に必要な計算量を減らすことができると共に、直射光検出処理による誤検出を低減することができる。
[Effects of Second Embodiment]
As described above, the direct light detection system according to the second embodiment further includes the vehicle environment detection unit 50 that acquires the travel state and date / time including the current position and traveling direction of the vehicle driven by the driver, Based on the information acquired by the vehicle environment detection unit 50, the light detection device 12 is directly irradiated to the driver's eyes only when it is determined that the vehicle is traveling in the direction in which the sun is currently positioned. It can be determined whether or not. Thereby, the amount of calculation required for image analysis can be reduced, and erroneous detection due to direct light detection processing can be reduced.

[第3実施形態]
つぎに、直射光検出装置12の第3実施形態について説明する。
[Third Embodiment]
Next, a third embodiment of the direct light detection device 12 will be described.

第3実施形態に係る直射光検出装置12は、図19に示すように、第1実施形態に係る直射光検出装置12と比較して、鼻座標出力部60、鼻付近領域測光部61、及び鼻直射光検出部62が追加された点で異なる。したがって、以下の第3実施形態に関する説明においては、上述した第1実施形態と同一又は同等の部位について、図中で同一の符号を付すと共に、詳細な説明を省略する。   As shown in FIG. 19, the direct light detection device 12 according to the third embodiment has a nose coordinate output unit 60, a nose vicinity region photometry unit 61, and a direct light detection device 12 according to the first embodiment. The difference is that a nose direct light detector 62 is added. Therefore, in the following description of the third embodiment, the same or equivalent parts as those in the first embodiment described above are denoted by the same reference numerals in the drawings and detailed description thereof is omitted.

鼻座標出力部60は、顔画像取得部20により取得された顔画像と、眼座標出力部21により取得された眼座標に基づいて、運転者の鼻位置を示す鼻座標を求める。鼻付近領域測光部61は、顔画像取得部20により取得された顔画像と、鼻座標出力部60により取得された鼻座標とに基づいて鼻付近領域を設定し、この鼻付近領域における光量を算出する。鼻直射光検出部62は、鼻付近領域測光部61により取得された光量に基づいて、運転者の鼻周辺部に直射光が当たっているか否かを判定する。   The nose coordinate output unit 60 obtains nose coordinates indicating the driver's nose position based on the face image acquired by the face image acquisition unit 20 and the eye coordinates acquired by the eye coordinate output unit 21. The nose vicinity region photometry unit 61 sets a nose vicinity region based on the face image acquired by the face image acquisition unit 20 and the nose coordinates acquired by the nose coordinate output unit 60, and the light amount in the nose vicinity region is determined. calculate. The nasal direct light detection unit 62 determines whether or not the driver has received direct light on the periphery of the nose based on the amount of light acquired by the nose vicinity region photometry unit 61.

また、第3実施形態における直射光信号出力部26は、眼座標出力部21により得られた眼座標、直射光検出部25による直射光検出結果、及び鼻座標出力部60により得られた鼻座標、鼻直射光検出部62による鼻直射光検出結果に基づいて、運転者の眼周辺部に直射光が当たっているか否かを判定し、直射光が当たっている場合に直射光信号を出力する。   Further, the direct light signal output unit 26 in the third embodiment includes the eye coordinates obtained by the eye coordinate output unit 21, the direct light detection result by the direct light detection unit 25, and the nose coordinates obtained by the nose coordinate output unit 60. Then, based on the nose direct light detection result by the nose direct light detection unit 62, it is determined whether or not the direct light is applied to the peripheral portion of the driver's eyes, and when the direct light is applied, the direct light signal is output. .

つぎに、鼻座標出力部60による鼻座標出力処理について、図20に示すフローチャートを参照しながら説明する。   Next, the nose coordinate output processing by the nose coordinate output unit 60 will be described with reference to the flowchart shown in FIG.

鼻座標出力部60は、鼻座標出力処理が開始されると、眼座標出力部21により得られた眼座標に基づいて、顔画像取得部20により取得された顔画像について鼻探索エリアを設定する(ステップS60)。   When the nose coordinate output process is started, the nose coordinate output unit 60 sets a nose search area for the face image acquired by the face image acquisition unit 20 based on the eye coordinates obtained by the eye coordinate output unit 21. (Step S60).

次に、鼻座標出力部60は、鼻探索エリア内に複数の縦ラインを設定し、各々の縦ライン毎に2値化処理を行う(ステップS61)。このとき、2値化処理における閾値としては、各々の縦ライン毎に画素値の最大値と最小値とを2:1に内分する画素値を用いる。   Next, the nose coordinate output unit 60 sets a plurality of vertical lines in the nose search area, and performs binarization processing for each vertical line (step S61). At this time, as a threshold value in the binarization process, a pixel value that internally divides the maximum value and the minimum value of the pixel value into 2: 1 for each vertical line is used.

次に、鼻座標出力部60は、2値化処理した結果得られた画像について、鼻の特徴点を島状のラベル(領域)として設定するラベリング処理を行う(ステップS62)。この鼻の特徴点としては、図20中に示すように、左右の鼻孔が位置する部位、左右の鼻孔外殻の膨らみが開始する部位などがあり、当該各特徴点部分を一つの領域(ラベル)として設定するラベリング処理を行う。   Next, the nose coordinate output unit 60 performs a labeling process for setting the feature points of the nose as island-like labels (regions) for the image obtained as a result of the binarization process (step S62). As shown in FIG. 20, the nose feature points include a part where the left and right nostrils are located, a part where the left and right nostril shells start to bulge, and the like. ) To perform the labeling process.

ステップS62におけるラベリング処理の後、鼻座標出力部60は、ラベルの幅と高さの比が1:1に近いこと、及びラベル内の画素値が低く設定値内であることを基準として、鼻孔となりうるラベルを選択し、並んで存在する2つのラベルの組合せを選択する(ステップS63)。   After the labeling process in step S62, the nose coordinate output unit 60 uses the label width / height ratio close to 1: 1 and the pixel value in the label as a reference to be within the set value. A possible label is selected, and a combination of two labels existing side by side is selected (step S63).

次に、鼻座標出力部60は、ステップS63における選択処理に鼻孔として判断しうる候補ラベルがあるか否かを判定し(ステップS64)、候補ラベルの組み合わせが1つだけ存在するときには鼻孔が検出されたと判断して、一対の鼻孔の中間位置の座標を鼻座標として決定する(ステップS65)。また、鼻座標出力部60により、候補ラベルの組み合わせが存在しないとき、又は2つ以上存在すると判定された場合には、鼻孔が検出されなかったものとする(ステップS66)。そして、鼻座標出力部60は、ステップS65又はステップS66における処理が完了すると、鼻座標出力処理を終了する。   Next, the nose coordinate output unit 60 determines whether or not there is a candidate label that can be determined as a nostril in the selection process in step S63 (step S64), and when only one candidate label combination exists, the nostril is detected. Therefore, the coordinates of the intermediate position of the pair of nostrils are determined as the nose coordinates (step S65). In addition, when the nose coordinate output unit 60 determines that there is no combination of candidate labels or that two or more candidate labels exist, it is assumed that the nostril has not been detected (step S66). And the nose coordinate output part 60 will complete | finish a nose coordinate output process, if the process in step S65 or step S66 is completed.

つぎに、鼻付近領域測光部61による鼻付近領域測光処理について、図21を参照しながら説明する。   Next, the nose vicinity area photometry processing by the nose vicinity area photometry unit 61 will be described with reference to FIG.

鼻付近領域測光部61は、顔画像取得部20により得られた顔画像と鼻座標出力部60により得られた鼻座標とに基づいて、以下に示す式(8)により光量dの値を算出する。
The nose vicinity region photometry unit 61 calculates the value of the light amount d by the following equation (8) based on the face image obtained by the face image acquisition unit 20 and the nose coordinates obtained by the nose coordinate output unit 60. To do.

上記の式(8)においては、図21(a)に示すように、運転者の鼻を含む部位に設定された測光範囲の幅をw、高さをhとる。この測光範囲は、図21(b)に示すように、上述の図16(b)の右眼及び左眼と同様に、通常時と直射光が鼻に当たっている時とで全体の画素値が明確に異なるような範囲が設定される。そして、上記式(8)に従って演算を行うことにより、鼻付近領域測光部61は、測光範囲内に存在する画素群を構成する各画素(x,y)の光量に相当する画素値p(x,y)を用いて平均画素値を求め、当該平均画素値に対して、撮像状態取得部23によって得られた撮像時のシャッタースピードsの逆数を乗算することによって、現在の画像フレームにおける鼻付近領域の光量dを算出している。   In the above equation (8), as shown in FIG. 21 (a), the width of the photometric range set in the region including the driver's nose is w and the height is h. As shown in FIG. 21 (b), this photometric range has a clear overall pixel value in normal times and when direct light hits the nose, as with the right and left eyes in FIG. 16 (b) described above. A different range is set. And by calculating according to said Formula (8), the nose vicinity area | region photometry part 61 is pixel value p (x corresponding to the light quantity of each pixel (x, y) which comprises the pixel group which exists in a photometry range. , Y) is used to obtain an average pixel value, and the average pixel value is multiplied by the reciprocal of the shutter speed s at the time of imaging obtained by the imaging state acquisition unit 23 to obtain the vicinity of the nose in the current image frame The amount of light d in the area is calculated.

鼻付近領域測光部61は、上記の式(8)によって得られた光量dを、複数の画像フレームについて時系列的に算出し、複数の光量dの平均を求めて最終的な光量を得る。   The nose vicinity region photometry unit 61 calculates the light amount d obtained by the above equation (8) in a time series for a plurality of image frames, obtains the average of the plurality of light amounts d, and obtains the final light amount.

鼻直射光検出部62は、鼻付近領域測光部61により得られた鼻の周囲の光量を取得して、光量の変化を時系列に監視(モニタリング)する。また、鼻直射光検出部62は、鼻の周囲の光量が予め設定した値以上に上昇した場合に、運転者の鼻に直射光が当たっていると判定する。   The nasal direct light detection unit 62 acquires the amount of light around the nose obtained by the nose vicinity region photometry unit 61 and monitors (monitors) the change in the amount of light in time series. Moreover, the nose direct light detection part 62 determines with direct light having hit the driver | operator's nose, when the light quantity around a nose rises more than the preset value.

ここで、第3実施形態に係る直射光検出装置12により得られた右眼、左眼、及び鼻の付近の光量と眼開度との時系列変化を、図22に示す。ここで、運転者の眼に直射光が当たっていない通常状態における顔画像の一例を図23(a)に、運転者の片眼のみに直射光が当たっている状態における顔画像の一例を図23(b)に、運転者の両眼に直射光が当たっている状態における顔画像の一例を図23(c)に、運転者がサンバイザを使用している状態における顔画像の一例を図23(d)にそれぞれ示す。   Here, FIG. 22 shows time-series changes in the light amount and the eye opening in the vicinity of the right eye, the left eye, and the nose obtained by the direct light detection device 12 according to the third embodiment. Here, FIG. 23A shows an example of a face image in a normal state where no direct light hits the driver's eyes, and FIG. 23A shows an example of a face image in a state where only one eye of the driver hits the driver's eyes. 23B shows an example of a face image in a state where the driver's eyes are exposed to direct light. FIG. 23C shows an example of a face image in a state where the driver uses a sun visor. Each is shown in (d).

図22から分かるように、運転者の眼に直射光が当たっていない通常状態(図23(a))から、運転者の片眼のみに直射光が当たっている状態(図23(b))、運転者の両眼に直射光が当たっている状態(図23(c))、へと変化するにつれて、右眼、左眼、鼻の光量が共に上昇する一方で、眼開度が下降している。また、車両に搭載された既存の遮光装置であるサンバイザを使用した場合(図23(d))、右眼、左眼の光量が下降し、眼開度は上昇することがわかる。   As can be seen from FIG. 22, from the normal state where the driver's eyes are not exposed to direct light (FIG. 23 (a)), only the driver's eye is exposed to direct light (FIG. 23 (b)). As the driver changes to a state where the driver's eyes are exposed to direct light (FIG. 23 (c)), the right eye, left eye, and nose increase in light, while the eye opening decreases. ing. In addition, when a sun visor, which is an existing light-shielding device mounted on a vehicle, is used (FIG. 23 (d)), it can be seen that the right and left eye light amounts decrease and the eye opening increases.

また、運転者の片眼のみ光量が上昇した状態においては、眼開度が下降傾向にある一方で、通常状態に比べてさほど眼を細めてはおらず、両眼共に光量が上昇するのに合わせて眼開度が下降していることが分かる。これは、片眼のみに直射光が当たっている状態では、運転者は眩しさをさほど感じておらず、運転への影響が少ないことを示していると考えられる。   In addition, when the amount of light increases only for one eye of the driver, the eye opening degree tends to decrease, but the eyes are not narrowed as compared with the normal state. It can be seen that the eye opening is decreasing. This is considered to indicate that in a state where only one eye is exposed to direct light, the driver does not feel much dazzling and has little influence on driving.

つぎに、第3実施形態に係る直射光検出装置12の車両への搭載例について、図24を参照しながら説明する。図24に示す使用例は、図1に示す直射光検出システムに対して、遮光装置70と、この遮光装置70の動作を制御する遮光制御装置71とを追加したものである。したがって、図24に示す各部のうち、図1に図示した各部と同一又は同等のものについては同一の符号を付すと共に、以下での詳細な説明は省略する。   Next, an example of mounting the direct light detection device 12 according to the third embodiment on a vehicle will be described with reference to FIG. The usage example shown in FIG. 24 is obtained by adding a light shielding device 70 and a light shielding control device 71 for controlling the operation of the light shielding device 70 to the direct light detection system shown in FIG. Therefore, among the units shown in FIG. 24, the same or equivalent components as those shown in FIG.

遮光制御装置71は、図24に示すように、直射光検出装置12から出力される直射光信号に基づいて遮光装置70の動作を制御し、運転者の眼周辺に当たる直射光を遮光装置70によって遮光させる機能を有している。   As shown in FIG. 24, the light shielding control device 71 controls the operation of the light shielding device 70 based on the direct light signal output from the direct light detection device 12, and direct light that strikes around the eyes of the driver is transmitted by the light shielding device 70. It has a function of blocking light.

ここで、運転者の眼付近の光量、鼻付近の光量、及び直射光検出装置12から出力される直射光信号の信号レベルについての時間変化の一例を図25に示す。図25に示すように、眼付近及び鼻付近の光量が閾値以上に上昇し、直射光が運転者の眼に当たっていると判断されると、直射光検出装置12から直射光信号が出力され、これに応じて遮光制御装置71が制御信号を遮光装置70に出力する。これにより、遮光装置70が動作して、運転者の眼の周囲を遮光する。   Here, FIG. 25 shows an example of temporal changes in the light amount near the driver's eyes, the light amount near the nose, and the signal level of the direct light signal output from the direct light detection device 12. As shown in FIG. 25, when the light intensity near the eyes and near the nose rises above the threshold and it is determined that the direct light hits the driver's eyes, the direct light detection device 12 outputs a direct light signal, In response to this, the light shielding control device 71 outputs a control signal to the light shielding device 70. As a result, the light shielding device 70 operates to shield the surroundings of the driver's eyes.

遮光装置70としては、通常時に車両の車室内天井(ルーフ)部分に格納され、遮光時に遮光部分が下降する機構や、フロントウィンドウ内に貼り付けられた液晶シャッターにより任意の個所を遮光する機構を備えることによって遮光を実現することが考えられる。   As the light shielding device 70, there is a mechanism that is stored in a vehicle interior ceiling (roof) portion in a normal state and the light shielding portion descends when the light is shielded, or a mechanism that shields an arbitrary portion by a liquid crystal shutter pasted in the front window. It is conceivable to provide light shielding by providing.

遮光装置70として、遮光部分が下降するタイプの機構を用いる場合、図25の下段に示すように、直射光が運転者の眼に当たっていると判断された時点で、遮光部分の降下を開始させ、鼻付近の光量が下降する位置まで遮光部分を降下させるように遮光制御装置71による制御を行うことが望ましい。これにより、運転者の眼周辺部を確実に遮光することができる。   When a mechanism of a type in which the light shielding part descends is used as the light shielding device 70, as shown in the lower part of FIG. 25, when it is determined that the direct light is hitting the driver's eyes, the light shielding part starts to descend. It is desirable to perform control by the light shielding control device 71 so as to lower the light shielding portion to a position where the light amount near the nose is lowered. Thereby, a driver | operator's eyes peripheral part can be light-shielded reliably.

また、遮光制御装置71は、鼻付近の光量が閾値以下まで下降したとき遮光部分を少し上昇させた位置に保持するように遮光装置70を動作させてもよい。これにより、遮光が不要な部位(鼻周辺部)を、遮光装置70によって遮光させることがなくなり、眼の付近のみを確実に遮光させることができる。   Further, the light shielding control device 71 may operate the light shielding device 70 so as to hold the light shielding portion at a slightly raised position when the light amount near the nose falls below the threshold value. As a result, a portion (nose peripheral portion) that does not require light shielding is not shielded by the light shielding device 70, and only the vicinity of the eyes can be reliably shielded from light.

このように、本実施形態において遮光装置70を制御するに際しての遮光装置70の状態遷移図を図26に示す。遮光装置70の状態としては、遮光の必要がない「遮光なし」、遮光部が下降制御されることにより遮光部分を増加する「遮光増」、遮光部が上昇制御されることにより遮光部分を減少する「遮光減」、最適な遮光状態を示す「最適遮光」、及び遮光不可能な状態を示す「遮光不可」の5状態がある。遮光装置70の状態遷移は、眼の部分の光量が適正(正)であるか明るい(明)かと、鼻の部分の光量が適正(正)であるか明るい(明)か、及び、眼の開度値が正常(正)であるか減少(減)しているかの3つのパラメータを、図22に示すような時系列データと予め設定される閾値とにより判断して遮光制御装置71により遮光装置70を制御することで行われる。   Thus, FIG. 26 shows a state transition diagram of the light shielding device 70 when the light shielding device 70 is controlled in the present embodiment. As the state of the light shielding device 70, “no light shielding” that does not require light shielding, “light shielding increase” in which the light shielding part is increased by the lowering control of the light shielding part, and light shielding part is decreased by the upward control of the light shielding part. There are five states: “reduce light shielding”, “optimal light shielding” indicating an optimal light shielding state, and “non-light shielding” indicating a state where light shielding is impossible. The state transition of the light shielding device 70 includes whether the amount of light in the eye part is appropriate (positive) or bright (bright), whether the amount of light in the nose part is appropriate (positive) or bright (bright), and The three parameters of whether the opening value is normal (positive) or decreased (decreasing) are judged by time series data as shown in FIG. This is done by controlling the device 70.

なお、本実施形態においては、第2実施形態で説明した車両環境検出部50を更に組み合わせることによって、太陽の方位と高度と車両の進行方向から車両正面方向に太陽がある場合にのみ直射光検出処理を行うとしてもよい。   In this embodiment, the direct detection of the direct light is detected only when the sun is in the vehicle front direction from the direction of the sun and the altitude and the traveling direction of the vehicle by further combining the vehicle environment detecting unit 50 described in the second embodiment. Processing may be performed.

[第3実施形態の効果]
このように、第3実施形態に係る直射光検出システムによれば、顔画像と眼座標とに基づいて、運転者の鼻位置を示す鼻座標を検出する鼻座標出力部60(鼻座標取得手段)と、顔画像と鼻座標とに基づいて、運転者の鼻付近領域の光量を測光する鼻付近領域測光部61(鼻付近領域測光手段)と、鼻付近領域の光量に基づいて、運転者の鼻に直射光が当たっているか否かを判定する鼻直射光検出部62とを備え、直射光検出装置12は、眼座標と、鼻座標と、運転者の眼に直射光が当たっているか否かの判定結果と、鼻直射光検出部62による判定結果とに基づいて、運転者の眼に直射光が当たっているか否かを判定することができる。これにより、遮光制御を行ったときに、眼の周囲を確実に遮光できているかを判断すると共に、遮光制御が必要となくなったタイミングを鼻の周囲の光量から得ることができる。
[Effect of the third embodiment]
As described above, according to the direct light detection system according to the third embodiment, the nose coordinate output unit 60 (the nose coordinate acquisition unit) detects the nose coordinate indicating the driver's nose position based on the face image and the eye coordinates. ), A nose vicinity area photometry unit 61 (nose vicinity area photometry means) that measures the amount of light in the vicinity of the driver's nose based on the face image and the nose coordinates, and the driver based on the amount of light in the vicinity of the nose The nose direct light detection unit 62 for determining whether or not the direct nose is hitting the nose of the nose, and the direct light detection device 12 is whether the direct light hits the eye coordinates, the nose coordinates, and the driver's eyes. Based on the determination result of whether or not and the determination result by the nose direct light detection unit 62, it can be determined whether or not the driver's eyes are exposed to direct light. As a result, when the light shielding control is performed, it can be determined whether or not the periphery of the eye can be reliably shielded, and the timing at which the light shielding control is no longer necessary can be obtained from the amount of light around the nose.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した第1実施形態に係る直射光検出装置を含む直射光検出システムの概略ブロック図である。1 is a schematic block diagram of a direct light detection system including a direct light detection apparatus according to a first embodiment to which the present invention is applied. 本発明の第1実施形態の直射光検出システムにおいて、運転者の顔面に直射光が当たる様子を示す模式図であり、(a)は直射光が当たっていない通常状態を示す図であり、(b)は直射光が当たっている状態を示す図であり、(c)はサンバイザを使用した状態を示す図である。In the direct light detection system of 1st Embodiment of this invention, it is a schematic diagram which shows a mode that a driver | operator's face is exposed to direct light, (a) is a figure which shows the normal state where direct light is not hit, ( (b) is a figure which shows the state which has received the direct light, (c) is a figure which shows the state which used the sun visor. 本発明を適用した第1実施形態に係る直射光検出装置の構成例を示す機能ブロック図である。It is a functional block diagram which shows the structural example of the direct light detection apparatus which concerns on 1st Embodiment to which this invention is applied. 本発明を適用した第1実施形態に係る直射光検出装置の別の構成例を示す機能ブロック図である。It is a functional block diagram which shows another structural example of the direct light detection apparatus which concerns on 1st Embodiment to which this invention is applied. 眼位置検出部による眼位置検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the eye position detection process by an eye position detection part. 片眼候補検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a single eye candidate detection process. 片眼候補検出処理により設定される処理エリアの一例を示す模式図である。It is a schematic diagram which shows an example of the process area set by one eye candidate detection process. 眼座標の候補となる連続データの取得について説明するための図である。It is a figure for demonstrating acquisition of the continuous data used as the candidate of an eye coordinate. 片眼候補検出処理を説明するための模式図であり、(a)は処理エリア内に設定される縦ラインを示す図であり、(b)は縦ラインにおいて光量の濃度変化が検出された状態を示す図であり、(c)は顔画像に含まれる「眼」が検出された状態を示す図である。It is a schematic diagram for demonstrating a single eye candidate detection process, (a) is a figure which shows the vertical line set in a process area, (b) is the state by which the density change of the light quantity was detected in the vertical line (C) is a figure which shows the state from which the "eye" contained in the face image was detected. 両眼確定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a binocular confirmation process. 両眼確定処理により設定される処理エリアの一例を示す模式図である。It is a schematic diagram which shows an example of the process area set by a binocular confirmation process. 眼位置追跡処理の一例を示すフローチャートである。It is a flowchart which shows an example of an eye position tracking process. 眼位置追跡処理を説明するための模式図であり、(a)は基準眼の検出を説明するための模式図であり、(b)は反対眼の検出を説明するための模式図であり、(c)は基準眼の検出を説明するための模式図である。It is a schematic diagram for explaining eye position tracking processing, (a) is a schematic diagram for explaining detection of a reference eye, (b) is a schematic diagram for explaining detection of an opposite eye, (C) is a schematic diagram for demonstrating the detection of a reference | standard eye. 開閉眼判定部による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process by an opening-and-closing eye determination part. 開閉眼判定部による学習処理について説明するための模式図である。It is a schematic diagram for demonstrating the learning process by an opening-and-closing eye determination part. 眼座標出力部による処理について説明するための模式図である。It is a schematic diagram for demonstrating the process by an eye coordinate output part. 直射光検出部による処理について説明するための模式図であり、(a)は直射光が当たっているか否かを開眼開度値によって決定することを説明するための模式図であり、(b)は眼の縦幅の閾値を開眼開度値に応じて補正することを説明するための模式図である。It is a schematic diagram for demonstrating the process by a direct light detection part, (a) is a schematic diagram for demonstrating determining whether the direct light is hit by the opening degree value of eyes, (b) FIG. 5 is a schematic diagram for explaining correction of a threshold value of the vertical width of an eye according to an eye opening degree value. 本発明を適用した第2実施形態に係る直射光検出装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the direct light detection apparatus which concerns on 2nd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置における鼻座標出力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the nose coordinate output process in the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置における鼻付近領域測光処理について説明するための模式図であり、(a)は鼻座標を検出することを説明するための模式図であり、(b)は測光範囲の具体例を示す模式図である。It is a schematic diagram for demonstrating the nose vicinity area | region photometry process in the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied, (a) is a schematic diagram for demonstrating detecting a nose coordinate. (B) is a schematic diagram which shows the specific example of a photometry range. 本発明を適用した第3実施形態に係る直射光検出装置における光量と眼開度の時系列変化の一例を示すグラフである。It is a graph which shows an example of the time-sequential change of the light quantity and eye opening degree in the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置において、運転者に直射光が当たる状態を示す模式図であり、(a)は運転者の眼に直射光が当たっていない通常状態の一例を示す模式図であり、(b)は運転者の片眼のみに直射光が当たっている状態の一例を示す模式図であり、(c)は運転者の両眼に直射光が当たっている状態の一例を示す模式図であり、(d)は運転者がサンバイザを使用している状態の一例を示す模式図である。In the direct light detection device according to the third embodiment to which the present invention is applied, it is a schematic diagram showing a state where the driver is exposed to direct light, and (a) is a normal state where the driver's eyes are not exposed to direct light. It is a schematic diagram which shows an example, (b) is a schematic diagram which shows an example of the state in which direct light is shining on only one eye of the driver, and (c) is that the direct light is shining on both eyes of the driver. It is a schematic diagram which shows an example of the state which exists, (d) is a schematic diagram which shows an example of the state which the driver is using the sun visor. 本発明を適用した第3実施形態に係る直射光検出装置を車両に搭載した一例を示す模式図である。It is a schematic diagram which shows an example which mounted in the vehicle the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置において出力される直射光信号の信号レベルの時間変化の一例を示すグラフである。It is a graph which shows an example of the time change of the signal level of the direct light signal output in the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied. 本発明を適用した第3実施形態に係る直射光検出装置に接続される遮光装置の状態遷移を示す状態遷移図である。It is a state transition diagram which shows the state transition of the light-shielding apparatus connected to the direct light detection apparatus which concerns on 3rd Embodiment to which this invention is applied.

符号の説明Explanation of symbols

10 ビデオカメラ
11 照明装置
12 直射光検出装置
20 顔画像取得部
21 眼座標出力部
21a 眼位置検出部
21b 眼位置追跡部
22 開閉眼判定部
22a 開閉眼学習部
22b 開閉眼決定部
23 撮像状態取得部
24 眼付近領域測光部
25 直射光検出部
26 直射光信号出力部
50 車両環境検出部
60 鼻座標出力部
61 鼻付近領域測光部
62 鼻直射光検出部
70 遮光装置
71 遮光制御装置
DESCRIPTION OF SYMBOLS 10 Video camera 11 Illuminating device 12 Direct light detection apparatus 20 Face image acquisition part 21 Eye coordinate output part 21a Eye position detection part 21b Eye position tracking part 22 Opening / closing eye determination part 22a Opening / closing eye learning part 22b Opening / closing eye determination part 23 Imaging state acquisition Unit 24 near-eye region photometry unit 25 direct light detection unit 26 direct light signal output unit 50 vehicle environment detection unit 60 nose coordinate output unit 61 nose vicinity region photometry unit 62 nose direct light detection unit 70 light shielding device 71 light shielding control device

Claims (8)

撮像手段から出力された映像信号に含まれる運転者の顔画像を取得する顔画像取得手段と、
前記顔画像に基づいて、前記運転者の眼位置を示す眼座標を検出すると共に、当該眼座標の追跡を行う眼座標取得手段と、
前記顔画像と前記眼座標とに基づいて前記運転者の眼開度を演算し、当該眼開度から運転者の眼の開閉状態を判定する開閉眼判定手段と、
前記撮像手段の撮像条件を取得する撮像条件取得手段と、
前記眼座標及び前記撮像条件に基づいて、前記顔画像のうちの前記運転者の眼付近領域の光量を測光する眼付近領域測光手段と、
前記眼開度と前記光量とに基づいて、前記運転者の眼に直射光が当たっているか否かを判定する直射光検出手段と
を備えることを特徴とする直射光検出装置。
Face image acquisition means for acquiring a driver's face image included in the video signal output from the imaging means;
Eye coordinate acquisition means for detecting eye coordinates indicating the driver's eye position based on the face image and tracking the eye coordinates;
Opening / closing eye determination means for calculating an eye opening of the driver based on the face image and the eye coordinates, and determining an opening / closing state of the driver's eye from the eye opening;
Imaging condition acquisition means for acquiring imaging conditions of the imaging means;
Based on the eye coordinates and the imaging conditions, a near-eye region photometry unit that measures the amount of light in the driver's eye near region of the face image;
A direct light detection device comprising: direct light detection means for determining whether or not direct light is shining on the driver's eyes based on the eye opening and the light amount.
前記眼座標取得手段は、
前記顔画像に基づいて前記眼座標を検出する眼座標検出手段と、
時間的に前後する複数の前記顔画像のそれぞれに検出された前記眼座標を互いに比較して、前記眼座標の追跡を行う眼座標追跡手段とを備えていること
を特徴とする請求項1に記載の直射光検出装置。
The eye coordinate acquisition means includes
Eye coordinate detection means for detecting the eye coordinates based on the face image;
The eye coordinate tracking means for tracking the eye coordinates by comparing the eye coordinates detected in each of the plurality of face images moving back and forth in time with each other. The direct light detection apparatus as described.
前記開閉眼判定手段は、
複数の眼開度及び複数の眼座標からなる眼の形状とに基づいて、眼が開状態である時の眼開度の学習結果である開眼開度値を求める眼開度学習手段と、
前記眼座標と前記開眼開度値とに基づいて眼の縦幅閾値を設定し、前記縦幅閾値に基づいて前記運転者の眼の開閉判定を行う開閉眼判定手段と
を備えていることを特徴とする請求項1に記載の直射光検出装置。
The opening / closing eye determination means includes
Eye opening learning means for obtaining an eye opening value that is a learning result of the eye opening when the eye is in an open state based on a plurality of eye openings and an eye shape composed of a plurality of eye coordinates;
Opening / closing eye determination means for setting an eye vertical width threshold value based on the eye coordinates and the eye opening degree value, and performing opening / closing determination of the driver's eye based on the vertical width threshold value. The direct light detection device according to claim 1, characterized in that:
前記眼付近領域測光手段は、前記運転者の右眼及び左眼のそれぞれについての前記眼座標に基づいて設定される領域内の平均画素値に、前記撮像条件取得手段によって取得された前記撮像手段のシャタースピードの逆数を乗じた値を演算し、当該演算した値の予め設定された所定期間の平均値を前記光量として算出することを特徴とする請求項1に記載の直射光検出装置。   The near-eye area photometric means is the imaging means acquired by the imaging condition acquisition means at an average pixel value in an area set based on the eye coordinates for each of the driver's right eye and left eye. The direct light detection device according to claim 1, wherein a value obtained by multiplying a reciprocal of the shutter speed is calculated, and an average value of the calculated value for a predetermined period set in advance is calculated as the light amount. 前記開閉眼判定手段は、前記直射光検出手段によって前記運転者の眼に直射光が当たっていると判定されたときの開眼開度値に応じて、前記縦幅閾値を補正することを特徴とする請求項3に記載の直射光検出装置。   The open / close eye determination means corrects the vertical width threshold according to an eye opening degree value when the direct light detection means determines that the driver's eyes are exposed to direct light. The direct light detection device according to claim 3. 前記運転者が運転する車両の現在位置及び進行方向を含む走行状態と日時とを取得する車両環境取得手段を更に備え、
前記直射光検出手段は、前記車両環境取得手段により取得された情報に基づいて、現在太陽が位置する方向に前記車両が向かって走行していると判定した場合に、前記運転者の眼に直射光が当たっているか否かの判定を行うことを特徴とする請求項1に記載の直射光検出装置。
Vehicle environment acquisition means for acquiring the driving state and date and time including the current position and traveling direction of the vehicle driven by the driver;
The direct light detection means directly hits the driver's eyes when it is determined based on the information acquired by the vehicle environment acquisition means that the vehicle is currently traveling in the direction in which the sun is positioned. The direct light detection device according to claim 1, wherein it is determined whether or not the light is hit.
前記顔画像と前記眼座標とに基づいて、前記運転者の鼻位置を示す鼻座標を検出する鼻座標取得手段と、
前記顔画像と前記鼻座標とに基づいて、前記顔画像のうちの前記運転者の鼻付近領域の光量を測光する鼻付近領域測光手段と、
前記鼻付近領域の光量に基づいて、前記運転者の鼻に直射光が当たっているか否かを判定する鼻直射光検出手段とを更に備え、
前記直射光検出手段は、前記眼座標と、前記鼻座標と、前記運転者の眼に直射光が当たっているか否かの判定結果と、前記鼻直射光検出手段による判定結果とに基づいて、前記運転者の眼に直射光が当たっているか否かを判定することを特徴とする請求項1に記載の直射光検出装置。
Nose coordinate acquisition means for detecting nose coordinates indicating the driver's nose position based on the face image and the eye coordinates;
Based on the face image and the nose coordinates, a nose vicinity region photometry means for measuring the amount of light in the driver's nose vicinity region of the face image;
Further comprising nose direct light detection means for determining whether the driver's nose is exposed to direct light based on the amount of light in the vicinity of the nose,
The direct light detection means is based on the eye coordinates, the nose coordinates, the determination result of whether or not the driver's eyes are exposed to direct light, and the determination result by the nose direct light detection means, The direct light detection device according to claim 1, wherein it is determined whether or not the driver's eyes are exposed to direct light.
撮像手段から出力された映像信号に含まれる運転者の顔画像を取得すると共に、当該顔画像に基づいて、前記運転者の眼位置を示す眼座標を検出して、当該眼座標の追跡を行い、当該眼座標と前記顔画像とに基づいて前記運転者の眼開度を演算して、当該眼開度から運転者の眼の開閉状態を判定しているときに、
前記眼座標及び前記撮像手段の撮像条件に基づいて、前記顔画像のうちの前記運転者の眼付近領域の光量を測光して、当該光量と眼開度とに基づいて、前記運転者の眼に直射光が当たっているか否かを判定することを特徴とする直射光検出装置。
Acquiring the driver's face image included in the video signal output from the imaging means, and detecting eye coordinates indicating the driver's eye position based on the face image, and tracking the eye coordinates The eye opening of the driver is calculated based on the eye coordinates and the face image, and the opening / closing state of the driver's eyes is determined from the eye opening.
Based on the eye coordinates and the imaging conditions of the imaging means, photometrically measure the amount of light in the vicinity of the driver's eyes in the face image, and based on the amount of light and the eye opening, the driver's eyes A direct light detection device, wherein it is determined whether or not direct light hits the light.
JP2005064504A 2005-03-08 2005-03-08 Direct light detector Expired - Fee Related JP4687150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005064504A JP4687150B2 (en) 2005-03-08 2005-03-08 Direct light detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005064504A JP4687150B2 (en) 2005-03-08 2005-03-08 Direct light detector

Publications (2)

Publication Number Publication Date
JP2006251926A true JP2006251926A (en) 2006-09-21
JP4687150B2 JP4687150B2 (en) 2011-05-25

Family

ID=37092388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005064504A Expired - Fee Related JP4687150B2 (en) 2005-03-08 2005-03-08 Direct light detector

Country Status (1)

Country Link
JP (1) JP4687150B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008113902A (en) * 2006-11-06 2008-05-22 Toyota Motor Corp Apparatus and method for detecting eye opening degree
JP2010022601A (en) * 2008-07-18 2010-02-04 Omron Corp Monitoring device, method, and program
JP2010029537A (en) * 2008-07-30 2010-02-12 Toyota Motor Corp Wakefulness level determining apparatus
JP2010067137A (en) * 2008-09-12 2010-03-25 Toyota Central R&D Labs Inc Device for determining open/closed eye, and device for estimating degree of eye opening
CN103158505A (en) * 2011-12-12 2013-06-19 现代自动车株式会社 Apparatus and method for detecting driver's dazzling and system and method for blocking dazzling using the same
US8571322B2 (en) 2007-04-16 2013-10-29 Fujitsu Limited Image processing method, image processing apparatus, image processing system and computer for recognizing shape change of a facial part
WO2014162654A1 (en) * 2013-04-03 2014-10-09 株式会社デンソー Monitoring system
US9177202B2 (en) 2011-07-11 2015-11-03 Toyota Jidosha Kabushiki Kaisha Red-eye detection device
KR101745261B1 (en) * 2016-04-20 2017-06-20 현대자동차주식회사 Sun visor control apparatus and method
CN107403554A (en) * 2017-09-01 2017-11-28 北京壹卡行科技有限公司 Binocular integrated driving person's behavioural analysis apparatus and method for
JP2018018401A (en) * 2016-07-29 2018-02-01 東芝アルパイン・オートモティブテクノロジー株式会社 Eyelid opening/closing detector and eyelid opening/closing detection method
JP2018024276A (en) * 2016-08-08 2018-02-15 矢崎総業株式会社 Anti-glare system
WO2019053809A1 (en) * 2017-09-13 2019-03-21 三菱電機株式会社 Driver state determination device and driver state determination method
WO2020059835A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicular monitoring device
JP2020047088A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
CN111178225A (en) * 2019-12-25 2020-05-19 恒大新能源汽车科技(广东)有限公司 Light screen control method, light screen control system and device
CN111210406A (en) * 2019-12-27 2020-05-29 中国航空工业集团公司西安飞机设计研究所 Method for calculating position of glare source of cockpit
WO2020188689A1 (en) * 2019-03-18 2020-09-24 三菱電機株式会社 Driver state monitoring device and driver state monitoring method
CN112977013A (en) * 2021-02-24 2021-06-18 东风商用车有限公司 Automatic sensing sunshade method and system for commercial vehicle
JP2022517398A (en) * 2019-02-28 2022-03-08 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye opening / closing state detection method, equipment and devices
CN115771387A (en) * 2021-09-06 2023-03-10 博泰车联网(南京)有限公司 Sun shield control method and device
CN117243562A (en) * 2022-08-31 2023-12-19 广东旭宇光电有限公司 Method, device and equipment for protecting eyes from indoor illumination strong light

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127447A (en) * 1997-07-01 1999-01-29 Olympus Optical Co Ltd Film scanner
JP2000142164A (en) * 1998-11-02 2000-05-23 Nissan Motor Co Ltd Eye condition sensing device and driving-asleep alarm device
JP2000198369A (en) * 1998-12-28 2000-07-18 Niles Parts Co Ltd Eye state detecting device and doze-driving alarm device
JP2001225666A (en) * 2000-02-15 2001-08-21 Niles Parts Co Ltd Detector for detecting state of eye
JP2002279410A (en) * 2001-03-22 2002-09-27 Nissan Motor Co Ltd Detector for dozing
JP2003242491A (en) * 2002-02-14 2003-08-29 Omron Corp Image discriminating device and personal authentication device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127447A (en) * 1997-07-01 1999-01-29 Olympus Optical Co Ltd Film scanner
JP2000142164A (en) * 1998-11-02 2000-05-23 Nissan Motor Co Ltd Eye condition sensing device and driving-asleep alarm device
JP2000198369A (en) * 1998-12-28 2000-07-18 Niles Parts Co Ltd Eye state detecting device and doze-driving alarm device
JP2001225666A (en) * 2000-02-15 2001-08-21 Niles Parts Co Ltd Detector for detecting state of eye
JP2002279410A (en) * 2001-03-22 2002-09-27 Nissan Motor Co Ltd Detector for dozing
JP2003242491A (en) * 2002-02-14 2003-08-29 Omron Corp Image discriminating device and personal authentication device

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8435188B2 (en) 2006-11-06 2013-05-07 Toyota Jidosha Kabushiki Kaisha Eye opening detection system and method of detecting eye opening
JP2008113902A (en) * 2006-11-06 2008-05-22 Toyota Motor Corp Apparatus and method for detecting eye opening degree
US8571322B2 (en) 2007-04-16 2013-10-29 Fujitsu Limited Image processing method, image processing apparatus, image processing system and computer for recognizing shape change of a facial part
JP2010022601A (en) * 2008-07-18 2010-02-04 Omron Corp Monitoring device, method, and program
JP2010029537A (en) * 2008-07-30 2010-02-12 Toyota Motor Corp Wakefulness level determining apparatus
JP2010067137A (en) * 2008-09-12 2010-03-25 Toyota Central R&D Labs Inc Device for determining open/closed eye, and device for estimating degree of eye opening
US9177202B2 (en) 2011-07-11 2015-11-03 Toyota Jidosha Kabushiki Kaisha Red-eye detection device
US9180756B2 (en) 2011-12-12 2015-11-10 Hyundai Motor Company Apparatus and method for detecting driver's dazzling and system and method for blocking dazzling using the same
KR101283304B1 (en) * 2011-12-12 2013-07-12 기아자동차주식회사 Apparatus and method for detecting dazzle of driver, and anti-dazzling system and method using it
JP2013122756A (en) * 2011-12-12 2013-06-20 Hyundai Motor Co Ltd Glare detection device, glare blocking system, glare detection method and glare blocking method
CN103158505A (en) * 2011-12-12 2013-06-19 现代自动车株式会社 Apparatus and method for detecting driver's dazzling and system and method for blocking dazzling using the same
WO2014162654A1 (en) * 2013-04-03 2014-10-09 株式会社デンソー Monitoring system
KR101745261B1 (en) * 2016-04-20 2017-06-20 현대자동차주식회사 Sun visor control apparatus and method
JP2018018401A (en) * 2016-07-29 2018-02-01 東芝アルパイン・オートモティブテクノロジー株式会社 Eyelid opening/closing detector and eyelid opening/closing detection method
JP2018024276A (en) * 2016-08-08 2018-02-15 矢崎総業株式会社 Anti-glare system
CN107403554B (en) * 2017-09-01 2023-07-11 北京九州安华信息安全技术有限公司 Binocular integrated driver behavior analysis device and method
CN107403554A (en) * 2017-09-01 2017-11-28 北京壹卡行科技有限公司 Binocular integrated driving person's behavioural analysis apparatus and method for
WO2019053809A1 (en) * 2017-09-13 2019-03-21 三菱電機株式会社 Driver state determination device and driver state determination method
JPWO2019053809A1 (en) * 2017-09-13 2019-11-14 三菱電機株式会社 Driver state determination device and driver state determination method
WO2020059835A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicular monitoring device
WO2020059845A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
JP2020047088A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
JP7247499B2 (en) 2018-09-20 2023-03-29 いすゞ自動車株式会社 Vehicle monitoring device
JP2020047086A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
CN112740301A (en) * 2018-09-20 2021-04-30 五十铃自动车株式会社 Monitoring device for vehicle
JP7187918B2 (en) 2018-09-20 2022-12-13 いすゞ自動車株式会社 Vehicle monitoring device
US11443534B2 (en) 2018-09-20 2022-09-13 Isuzu Motors Limited Vehicular monitoring device
JP2022517398A (en) * 2019-02-28 2022-03-08 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye opening / closing state detection method, equipment and devices
JP7227385B2 (en) 2019-02-28 2023-02-21 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye open/close state detection method, apparatus and equipment
WO2020188689A1 (en) * 2019-03-18 2020-09-24 三菱電機株式会社 Driver state monitoring device and driver state monitoring method
JPWO2020188689A1 (en) * 2019-03-18 2021-10-14 三菱電機株式会社 Driver condition monitoring device and driver condition monitoring method
JP7158561B2 (en) 2019-03-18 2022-10-21 三菱電機株式会社 DRIVER'S CONDITION MONITORING DEVICE AND DRIVER'S CONDITION MONITORING METHOD
WO2021129059A1 (en) * 2019-12-25 2021-07-01 恒大新能源汽车投资控股集团有限公司 Sun visor control method, sun visor control system and apparatus
CN111178225A (en) * 2019-12-25 2020-05-19 恒大新能源汽车科技(广东)有限公司 Light screen control method, light screen control system and device
CN111210406A (en) * 2019-12-27 2020-05-29 中国航空工业集团公司西安飞机设计研究所 Method for calculating position of glare source of cockpit
CN112977013A (en) * 2021-02-24 2021-06-18 东风商用车有限公司 Automatic sensing sunshade method and system for commercial vehicle
CN115771387A (en) * 2021-09-06 2023-03-10 博泰车联网(南京)有限公司 Sun shield control method and device
CN117243562A (en) * 2022-08-31 2023-12-19 广东旭宇光电有限公司 Method, device and equipment for protecting eyes from indoor illumination strong light

Also Published As

Publication number Publication date
JP4687150B2 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
JP4687150B2 (en) Direct light detector
JP5366028B2 (en) Face image capturing device
US7916169B2 (en) Face image capture apparatus
JP5045212B2 (en) Face image capturing device
US20160063334A1 (en) In-vehicle imaging device
JP5843898B2 (en) Vehicle illumination environment recognition device and method
CN102104724B (en) Image processing apparatus and image processing method
JP4770385B2 (en) Automatic sun visor
US20110035099A1 (en) Display control device, display control method and computer program product for the same
JP2008246004A (en) Pupil detection method
JP4770218B2 (en) Visual behavior determination device
JP2007025758A (en) Face image extracting method for person, and device therefor
JPH08240833A (en) Exposure controller of camera for vehicle
WO2017204406A1 (en) Device and method for detecting eye position of driver, and imaging device having rolling shutter driving type image sensor and lighting control method therefor
US20170272701A1 (en) Visual perception determination system and method
JP2008171108A (en) Face condition determining device and imaging device
CN114943994B (en) Control method, device, controller and storage medium of palm vein recognition system
JP2004336153A (en) Exposure control method and apparatus for camera type vehicle sensor
US11272086B2 (en) Camera system, vehicle and method for configuring light source of camera system
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program
JP4304610B2 (en) Method and apparatus for adjusting screen brightness in camera-type vehicle detector
JP7212251B2 (en) Eye opening/closing detection device, occupant monitoring device
JPH0732907A (en) Consciousness level detecting device
JP3057996B2 (en) Eye position detection device for vehicle driver

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees