JP4883013B2 - Face image processing device - Google Patents

Face image processing device Download PDF

Info

Publication number
JP4883013B2
JP4883013B2 JP2008008107A JP2008008107A JP4883013B2 JP 4883013 B2 JP4883013 B2 JP 4883013B2 JP 2008008107 A JP2008008107 A JP 2008008107A JP 2008008107 A JP2008008107 A JP 2008008107A JP 4883013 B2 JP4883013 B2 JP 4883013B2
Authority
JP
Japan
Prior art keywords
image
edge image
image processing
edge
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008008107A
Other languages
Japanese (ja)
Other versions
JP2009169740A (en
Inventor
岳史 流石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008008107A priority Critical patent/JP4883013B2/en
Publication of JP2009169740A publication Critical patent/JP2009169740A/en
Application granted granted Critical
Publication of JP4883013B2 publication Critical patent/JP4883013B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両の運転者の顔画像を取得し、取得された顔画像に基づいて画像処理を行う顔画像処理装置に関するものである。   The present invention relates to a face image processing apparatus that acquires a face image of a driver of a vehicle and performs image processing based on the acquired face image.

従来、車両の運転者の顔画像を取得し、取得された顔画像に基づいて画像処理を行い運転者の目を検出する技術が知られている(例えば、特許文献1参照)。このような技術では、運転者がめがねを装着している場合には、めがねのレンズに生じた映り込みによって、レンズに映り込んだエッジ画像を目として誤検出することがある。そこで、運転者に光を照射し、反射位置が移動する反射像を、光沢反射面を持つ物の反射像として取り除くことで、目の検出精度の向上を図っている。
特開2002−352229号公報
2. Description of the Related Art Conventionally, a technique for acquiring a driver's face image of a vehicle and performing image processing based on the acquired face image to detect the driver's eyes is known (for example, see Patent Document 1). In such a technique, when the driver wears glasses, the edge image reflected on the lens may be erroneously detected as an eye due to the reflection on the lens of the glasses. Therefore, the detection accuracy of the eyes is improved by irradiating the driver with light and removing the reflection image in which the reflection position moves as a reflection image of an object having a glossy reflection surface.
JP 2002-352229 A

しかしながら上記従来技術では、反射位置が移動する反射像を目候補から除外しているため、本来検出したい例えばまぶた等を目候補から除外してしまい、目の検出精度が低下するおそれがある。   However, in the above prior art, since the reflection image whose reflection position moves is excluded from the eye candidates, for example, an eyelid or the like to be detected originally is excluded from the eye candidates, and there is a possibility that the eye detection accuracy is lowered.

また、めがねに映り込んだ像を除去して目を検出する技術として、近赤外LED(発光ダイオード)を用いて照明のON/OFFの切り替えを行い、画像差分処理を行うことで、めがねに映り込んだ像を除去するものがある。しかしながら、この技術では、映り込み像を除去するための専用の装置が必要であり、コストが増加するという問題や、新たな装置の設置スペースを確保する必要があるという問題がある。また、画像差分処理などによって、演算負荷が増大してしまうといった問題もある。   In addition, as a technique for detecting the eye by removing the image reflected in the glasses, the near-infrared LED (light emitting diode) is used to switch the illumination ON / OFF, and the image difference processing is performed. There is something that removes the reflected image. However, this technique requires a dedicated device for removing the reflected image, and there is a problem that the cost increases and a space for installing a new device needs to be secured. In addition, there is a problem that calculation load increases due to image difference processing or the like.

また、他の技術として、LED照明を運転者の正面方向に設置し、顔画像上に意図的に赤目反射を発生させ、赤目成分を優先的に抽出することで、めがねに映り込んだ像の影響を低減させるものがある。しかしながら、この技術では、上記技術と同様に、新たな装置が必要であるといった問題や、演算負荷が増大してしまうといった問題がある。   In addition, as another technique, LED lighting is installed in the front direction of the driver, red-eye reflection is intentionally generated on the face image, and the red-eye component is extracted preferentially, so that the image reflected in the glasses is displayed. Some reduce the impact. However, this technique has a problem that a new device is necessary and a calculation load increase as in the above technique.

また、さらに他の技術として、めがねに映り込んだ像の画像データを学習し、学習した画像データに基づいて、めがねに映り込んだ像を除去するものがある。しかしながら、この技術では、新たに専用の学習データを記憶させる必要があるといった問題、映り込み像を除去するための新たな専用のアルゴリズムが必要であるといった問題、演算負荷が増大し、処理時間が増加するといった問題がある。   Further, as another technique, there is a technique that learns image data of an image reflected in glasses and removes an image reflected in glasses based on the learned image data. However, with this technique, there is a problem that it is necessary to newly store dedicated learning data, a problem that a new dedicated algorithm for removing the reflected image is necessary, a calculation load increases, and processing time increases. There is a problem of increasing.

本発明は、このような課題を解決するために成されたものであり、演算負荷の増大を抑えつつ簡素な構成でめがねに映り込んだ画像を検出することが可能な顔画像処理装置を提供することを目的とする。   The present invention has been made to solve such a problem, and provides a face image processing apparatus capable of detecting an image reflected in glasses with a simple configuration while suppressing an increase in calculation load. The purpose is to do.

本発明による顔画像処理装置は、車両の運転者の顔画像を取得して、取得された顔画像に基づいて画像処理を行い運転者の目を検出する画像処理手段を備えた画像処理装置において、車両の移動に関する情報を取得する移動情報取得手段と、移動情報取得手段によって取得された車両の移動に関する情報に基づいて、運転者に装着されためがねレンズに写り込むエッジ画像の移動状態を推定する推定手段と、推定手段によって推定されたエッジ画像の移動状態に基づいて、めがねレンズに映り込んだエッジ画像である映り込みエッジ画像を検出する映り込み検出手段と、を備えることを特徴としている。また、画像処理手段は、映り込み検出手段によって検出された映り込みエッジ画像を、前記目を検出する際に、前記目の候補としないことを特徴とする。   A face image processing apparatus according to the present invention is an image processing apparatus including an image processing unit that acquires a face image of a driver of a vehicle, performs image processing based on the acquired face image, and detects a driver's eyes. Based on the information on the movement of the vehicle acquired by the movement information acquisition means, the movement information acquisition means for acquiring the information on the movement of the vehicle, and the movement state of the edge image reflected on the glasses lens attached to the driver is estimated And a reflection detection means for detecting a reflection edge image that is an edge image reflected on the eyeglass lens based on the movement state of the edge image estimated by the estimation means. . Further, the image processing means does not use the reflection edge image detected by the reflection detection means as the eye candidate when detecting the eyes.

このような顔画像処理装置によれば、車両の移動に関する情報を取得し、取得された情報に基づいて、運転者のめがねレンズに写り込むエッジ画像の移動状態を推定し、推定されたエッジ画像の移動状態に基づいて、実際にめがねレンズに映り込んだエッジ画像を検出する。車外の風景に起因するエッジ画像は、車両の移動状態に伴って移動するため、車両の移動状態に基づいて、めがねレンズに写り込むエッジ画像の移動状態を推定することができる。これにより、推定された移動状態と同様に位置変化するエッジ画像を、不要なエッジとして、目を検出する際の候補(以下、「目候補」という)から除外することができ、目の検出精度を向上させることができる。また、新たに専用の装置を追加することなく、簡素な構成でめがねレンズに映り込んだ不要なエッジ画像を検出、除去することができる。なお、「めがねレンズ」は、めがねのレンズ、サングラスのガラスなど、目の正面に配置された透明体、半透明体を含むものとする。また、「めがねレンズに映り込んだエッジ画像」とは、めがねレンズに投影された物体の線状部分(端など)に起因する画像を含むものとする。また、「目」を検出するとは、上まぶた、下まぶた、瞳孔を認識することを含むものとする。   According to such a face image processing device, the information about the movement of the vehicle is acquired, and based on the acquired information, the movement state of the edge image reflected in the driver's eyeglass lens is estimated, and the estimated edge image The edge image actually reflected on the eyeglass lens is detected on the basis of the movement state of. Since the edge image resulting from the scenery outside the vehicle moves with the moving state of the vehicle, the moving state of the edge image reflected on the eyeglass lens can be estimated based on the moving state of the vehicle. As a result, an edge image whose position changes in the same manner as the estimated movement state can be excluded as an unnecessary edge from candidates for eye detection (hereinafter referred to as “eye candidates”), and the eye detection accuracy Can be improved. Further, an unnecessary edge image reflected on the eyeglass lens can be detected and removed with a simple configuration without newly adding a dedicated device. The “eyeglass lens” includes a transparent body and a translucent body disposed in front of the eye, such as a lens for glasses and a glass for sunglasses. Further, the “edge image reflected on the eyeglass lens” includes an image caused by a linear portion (such as an end) of the object projected on the eyeglass lens. The detection of “eyes” includes recognition of the upper eyelid, the lower eyelid, and the pupil.

また、エッジ画像の移動状態は、エッジ画像の移動方向を含むことが好ましい。これにより、推定されたエッジ画像の移動方向と同一方向に移動するエッジ画像を、めがねレンズに映り込んだ不要なエッジ画像と設定して、目候補から除外することができる。   Moreover, it is preferable that the moving state of the edge image includes the moving direction of the edge image. Accordingly, an edge image that moves in the same direction as the estimated movement direction of the edge image can be set as an unnecessary edge image reflected on the eyeglass lens and excluded from the eye candidates.

また、エッジ画像の移動状態は、エッジ画像の単位時間あたりの移動量を含むことが好ましい。これにより、推定されたエッジ画像の移動方向及び単位時間あたりの移動量と同様に移動するエッジ画像を、めがねレンズに映り込んだ不要なエッジ画像と設定して、目候補から除外することができる。   Moreover, it is preferable that the movement state of the edge image includes an amount of movement of the edge image per unit time. As a result, an edge image that moves in the same manner as the estimated movement direction of the edge image and the amount of movement per unit time can be set as an unnecessary edge image reflected on the eyeglass lens and excluded from the eye candidates. .

また、映り込み検出手段は、下方に移動するエッジ画像を映り込みエッジ画像として検出しないことが好ましい。車両が前進する場合には、映り込みエッジ画像は、車両の移動方向に応じてめがねレンズ上で上方に移動するため、下方に移動するエッジ画像は、めがねレンズに映り込んだエッジ画像である可能性は低く、逆に、目(上まぶた、下まぶた)である可能性が高い。そのため、下方に移動するエッジ画像を、めがねレンズに映り込んだエッジ画像と設定しないことで、目の検出精度を向上させる。   Further, it is preferable that the reflection detection means does not detect an edge image moving downward as a reflection edge image. When the vehicle moves forward, the reflected edge image moves upward on the eyeglass lens in accordance with the moving direction of the vehicle, so the edge image that moves downward can be an edge image reflected on the eyeglass lens. The nature is low, and conversely, there is a high possibility that the eye (upper eyelid, lower eyelid). For this reason, eye detection accuracy is improved by not setting the edge image that moves downward as the edge image reflected on the eyeglass lens.

また、映り込み検出手段は、所定時間内に上下方向に移動するエッジ画像を映り込みエッジ画像として検出しないことが好ましい。車両が前進する場合には、映り込みエッジ画像は、車両の移動方向に応じてめがねレンズ上で上方に移動するため、所定時間内に上下方向に移動するエッジ画像は、めがねレンズに映り込んだエッジ画像である可能性は極めて低く、逆に、目である可能性が高い。そのため、所定時間内に上下方向に移動するエッジ画像を、めがねレンズに映り込んだエッジ画像と設定しないことで、目の検出精度を向上させる。   Further, it is preferable that the reflection detection means does not detect an edge image that moves in the vertical direction within a predetermined time as a reflection edge image. When the vehicle moves forward, the reflected edge image moves upward on the eyeglass lens in accordance with the moving direction of the vehicle, so the edge image that moves up and down within a predetermined time is reflected on the eyeglass lens. The possibility of being an edge image is extremely low, and conversely, the possibility of being an eye is high. Therefore, the eye detection accuracy is improved by not setting the edge image that moves up and down within a predetermined time as the edge image reflected on the eyeglass lens.

本発明によれば、演算負荷の増大を抑えつつ簡素な構成でめがねに映り込んだ画像を検出することが可能な顔画像処理装置を提供することができる。   According to the present invention, it is possible to provide a face image processing apparatus capable of detecting an image reflected in glasses with a simple configuration while suppressing an increase in calculation load.

以下、本発明の好適な実施形態について図面を参照しながら説明する。なお、図面の説明において同一または相当要素には同一の符号を付し、重複する説明は省略する。図1は、本発明の実施形態に係る顔画像処理装置を示す構成図である。   Preferred embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or corresponding elements are denoted by the same reference numerals, and redundant description is omitted. FIG. 1 is a configuration diagram illustrating a face image processing apparatus according to an embodiment of the present invention.

図1に示す顔画像処理装置10は、車両(以下、「自車両」という)に搭載され運転者Dの顔画像を取得するものである。この顔画像処理装置10は、運転者Dの顔画像を撮像する顔画像撮像カメラ12、この顔画像撮像カメラ12からの画像信号に基づいて画像処理を行う顔画像処理電子制御ユニット(以下、「顔画像処理ECU」という)14を備えている。   A face image processing apparatus 10 shown in FIG. 1 is mounted on a vehicle (hereinafter referred to as “own vehicle”) and acquires a face image of the driver D. The face image processing apparatus 10 includes a face image capturing camera 12 that captures a face image of the driver D, and a face image processing electronic control unit (hereinafter, “ 14 ”(referred to as“ face image processing ECU ”).

顔画像撮像カメラ12は、例えばコラムカバー16の上面に設置され、運転者Dの顔画像を取得する。顔画像撮像カメラ12は、例えば近赤外線カメラであり、近赤外線投射装置(不図示)から照射された近赤外線光が物体(運転者Dの顔)に反射した反射光を受光することによって、運転者Dの顔を撮像する。顔画像撮像カメラ12では、例えば、毎秒30フレームの画像を取得することができる。そして、顔画像撮像カメラ12によって取得された運転者Dの顔画像に関する画像信号は、顔画像処理ECU14に送信される。   The face image capturing camera 12 is installed on the upper surface of the column cover 16, for example, and acquires the face image of the driver D. The face image capturing camera 12 is, for example, a near-infrared camera, and receives near-infrared light irradiated from a near-infrared projection device (not shown) and receives reflected light reflected from an object (the face of the driver D), thereby driving. The face of the person D is imaged. For example, the face image capturing camera 12 can acquire an image of 30 frames per second. Then, the image signal regarding the face image of the driver D acquired by the face image capturing camera 12 is transmitted to the face image processing ECU 14.

顔画像処理ECU14は、演算処理を行うCPU、記憶部となるROM及びRAM、入力信号回路、出力信号回路、電源回路などにより構成され、入力された画像信号について画像処理を行い運転者Dの顔画像を検出する。検出された顔画像は、例えば、運転者Dの開眼度判定(覚醒度判定)、脇見判定等に利用される。   The face image processing ECU 14 includes a CPU that performs arithmetic processing, a ROM and a RAM that serve as a storage unit, an input signal circuit, an output signal circuit, a power supply circuit, and the like. The face image processing ECU 14 performs image processing on the input image signal and performs the face of the driver D Detect images. The detected face image is used for, for example, eye opening degree determination (awakening degree determination), aside look determination of the driver D and the like.

ここで、本発明の顔画像処理装置10は、自車両の移動に関する情報を取得して、この取得された情報に基づいて、運転者Dのめがねレンズに映り込んだ映り込みエッジ画像を検出し、不要な映り込みエッジ画像を目候補から除外する機能を有している。   Here, the face image processing apparatus 10 of the present invention acquires information related to the movement of the host vehicle, and detects a reflected edge image reflected on the eyeglass lens of the driver D based on the acquired information. And a function of excluding unnecessary reflection edge images from the eye candidates.

顔画像処理ECU14には、自車速を検出する車速センサ18、ウィンカ(方向指示器)による指示方向を検出するウィンカセンサ20、ステアリング操作した時の操舵方向及び操舵角度を検出するステアリングセンサ22が電気的に接続されている。そして、これらの車速センサ18、ウィンカセンサ20、及びステアリングセンサ22は、自車両の移動に関する情報を取得する本発明の移動情報取得手段として機能するものである。   The face image processing ECU 14 includes a vehicle speed sensor 18 that detects the host vehicle speed, a winker sensor 20 that detects a direction indicated by a winker (direction indicator), and a steering sensor 22 that detects a steering direction and a steering angle when the steering operation is performed. Connected. The vehicle speed sensor 18, the blinker sensor 20, and the steering sensor 22 function as movement information acquisition means of the present invention that acquires information related to the movement of the host vehicle.

顔画像処理ECU14のCPUでは、記憶部に記憶されているプログラムを実行することで、顔特徴点抽出部24、顔向き角度検出部26、エッジ移動方向推定部28、映り込みエッジ検出部30、目検出部32が構成される。   The CPU of the face image processing ECU 14 executes a program stored in the storage unit, whereby a face feature point extraction unit 24, a face orientation angle detection unit 26, an edge movement direction estimation unit 28, a reflection edge detection unit 30, An eye detection unit 32 is configured.

顔画像処理ECU14の記憶部には、CPUを作動させるためのプログラムのほかに、複数の3次元顔モデルが記憶されている。また、記憶部は、撮像された画像データ、顔特徴点に関するデータを記憶する記憶手段として機能する。また、記憶部に、運転者Dのめがねレンズに関するデータ(例えば、レンズの形状、大きさ、曲率等)を予め記憶させておいてもよい。   The storage unit of the face image processing ECU 14 stores a plurality of three-dimensional face models in addition to a program for operating the CPU. The storage unit functions as a storage unit that stores captured image data and data related to facial feature points. In addition, data related to the eyeglass lens of the driver D (for example, the shape, size, curvature, etc. of the lens) may be stored in advance in the storage unit.

顔特徴点抽出部24は、入力された画像信号に基づいて画像処理を行い、鼻、口を認識すると共に、例えば、エッジベース手法、パターン認識手法等を用いて、顔の横幅X、顔中心位置(軸)Yを検出する。例えば、顔中心位置Yは、鼻、口の位置に基づいて検出される。また、顔特徴点抽出部24は、目周辺の画像に基づいてエッジ処理を行い、目周辺の水平エッジ画像を検出する。「水平エッジ画像」は、顔の横方向に延在する線状の画像であり、目(上まぶた、下まぶた)候補となるものである。   The face feature point extraction unit 24 performs image processing based on the input image signal, recognizes the nose and mouth, and uses, for example, an edge-based method, a pattern recognition method, etc. The position (axis) Y is detected. For example, the face center position Y is detected based on the positions of the nose and mouth. Further, the face feature point extraction unit 24 performs edge processing based on the image around the eyes and detects a horizontal edge image around the eyes. The “horizontal edge image” is a linear image extending in the lateral direction of the face, and is a candidate for eyes (upper eyelid, lower eyelid).

顔向き角度検出部26は、運転者Dの顔向き角度を検出する。ここでは、顔特徴点抽出部24で検出された顔の横幅X、顔中心位置Yとの相対位置関係から顔向き角度を算出する。なお、顔向き角度の算出は、既存の技術であり、そのほかの手法を用いて、顔向き角度を検出しても良い。「顔向き角度」としては、運転者Dが車両正面を向いている状態を基準とし、この基準に対する角度が挙げられる。   The face angle detection unit 26 detects the face angle of the driver D. Here, the face orientation angle is calculated from the relative positional relationship between the face width X detected by the face feature point extraction unit 24 and the face center position Y. The calculation of the face orientation angle is an existing technique, and the face orientation angle may be detected using other methods. As the “face-facing angle”, an angle with respect to the reference is given with the driver D facing the front of the vehicle as a reference.

エッジ移動方向推定部28は、車速センサ18から入力された自車速、ウィンカセンサ20から入力された指示方向、ステアリングセンサ22から入力された操舵方向及び操舵角度に基づいて、自車両の移動状態を把握し、自車両の移動状態、及び顔向き角度に基づいて、めがねレンズ上に映り込む映り込みエッジ画像(水平エッジ画像)の移動状態を推定する。ここでは、めがねレンズ上に映り込んだ映り込みエッジ画像の移動方向、移動速度を推定する。「移動状態」としては、移動方向、移動速度、移動量が挙げられる。   The edge movement direction estimation unit 28 determines the movement state of the host vehicle based on the host vehicle speed input from the vehicle speed sensor 18, the indication direction input from the turn signal sensor 20, the steering direction and the steering angle input from the steering sensor 22. The movement state of the reflection edge image (horizontal edge image) reflected on the spectacle lens is estimated based on the movement state of the host vehicle and the face orientation angle. Here, the moving direction and moving speed of the reflected edge image reflected on the spectacle lens are estimated. Examples of the “movement state” include a movement direction, a movement speed, and a movement amount.

図2は、目周辺の画像の時間変化を示す概略図であり、めがねレンズに映り込んだ映り込みエッジ画像の位置変化を示すものである。図2に示すように、めがねレンズ40上には、水平方向(顔の横方向)に延在するエッジ画像E1を認識することができる。図2では、上(A)から下(C)へ時間の経過を示し、図2に示す場合では、時間の経過に併せて、エッジ画像E1がめがねレンズ40上を上方へ移動する様子を示している。   FIG. 2 is a schematic diagram showing a temporal change of an image around the eye, and shows a positional change of a reflected edge image reflected on the spectacle lens. As shown in FIG. 2, an edge image E <b> 1 extending in the horizontal direction (lateral direction of the face) can be recognized on the eyeglass lens 40. FIG. 2 shows the passage of time from the top (A) to the bottom (C). In the case shown in FIG. 2, the edge image E1 moves upward on the eyeglass lens 40 with the passage of time. ing.

例えば、自車両が直前進している場合には、車外の風景に起因し、めがねレンズ40に映り込む映り込みエッジ画像は、めがねレンズ40上を上方へ移動する。また、画像は、等時間ごとに(例えば、毎秒30フレーム)取得され、連続するフレームを比較することで、エッジ画像E1の単位時間あたりの移動量(移動速度)が分かる。   For example, when the host vehicle is moving forward, the reflection edge image reflected on the eyeglass lens 40 due to the scenery outside the vehicle moves upward on the eyeglass lens 40. Images are acquired at regular time intervals (for example, 30 frames per second), and the amount of movement (moving speed) per unit time of the edge image E1 can be determined by comparing consecutive frames.

映り込みエッジ検出部30は、めがねレンズ40上の水平エッジ画像を探索し、エッジ移動方向推定部28によって算出された移動方向及び移動速度と合致するエッジ画像E1を、めがねレンズ40上に映り込んだ映り込みエッジ画像として検出する。   The reflection edge detection unit 30 searches for a horizontal edge image on the eyeglass lens 40, and an edge image E1 that matches the movement direction and movement speed calculated by the edge movement direction estimation unit 28 is reflected on the eyeglass lens 40. Detected as a reflection edge image.

また、映り込みエッジ検出部30では、検出された水平エッジ画像が下方に移動する場合には、この水平エッジ画像を映り込みエッジ画像として検出しないこととしている。これは、下方に移動するエッジ画像は、上まぶたや、下まぶたに起因するエッジ画像である可能性が高いため、めがねレンズ40上を下方に移動するものは、映り込みエッジ画像として検出しないようにしている。   The reflection edge detection unit 30 does not detect the horizontal edge image as a reflection edge image when the detected horizontal edge image moves downward. This is because an edge image that moves downward is likely to be an upper eyelid or an edge image caused by the lower eyelid, so that an object that moves downward on the eyeglass lens 40 is not detected as a reflected edge image. I have to.

また、映り込みエッジ検出部30では、検出された水平エッジ画像が所定時間内に上下方向に移動する場合には、この水平エッジ画像を映り込みエッジ画像として検出しないこととしている。これには、単位時間に上下方向に移動するエッジ画像は、上まぶたや、下まぶたに起因するエッジ画像である可能性が高いため、めがねレンズ40上を下方に移動するものは、映り込みエッジ画像として検出しないようにしている。   The reflection edge detection unit 30 does not detect the horizontal edge image as a reflection edge image when the detected horizontal edge image moves up and down within a predetermined time. This is because the edge image that moves in the vertical direction per unit time is likely to be an edge image due to the upper eyelid or the lower eyelid, so that what moves downward on the eyeglass lens 40 is a reflection edge. The image is not detected.

目検出部32は、映り込みエッジ検出部30によって検出された映り込みエッジを、目候補から除外し、目候補の中から適合値の高い(尤もらしい)ものを目として検出する目検出処理を行い、運転者Dの目(上まぶた、下まぶた、瞳孔など)を認識する。例えば、記憶部に記憶された3次元顔モデルを参照して、目候補な中で尤もらしいものを目として認識する。   The eye detection unit 32 excludes the reflection edge detected by the reflection edge detection unit 30 from the eye candidates, and performs eye detection processing for detecting, from the eye candidates, those having a high fitness value (probable). And recognize the eyes of the driver D (upper eyelid, lower eyelid, pupil, etc.). For example, by referring to a three-dimensional face model stored in the storage unit, a likely eye candidate is recognized as an eye.

次に、このように構成された顔画像処理装置10の作用について説明する。図3は、本発明の第1実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。まず、顔画像処理ECU14では、顔画像撮像カメラ12から画像信号を入力し、運転者Dの顔の特徴を検出する(S1)。ここでは、顔画像処理ECU14は、例えば、既存技術を用いて、運転者Dの顔の横幅Xを検出すると共に、鼻、口の位置から顔の中心位置Yを検出する。   Next, the operation of the face image processing apparatus 10 configured as described above will be described. FIG. 3 is a flowchart showing a processing procedure executed by the face image processing ECU according to the first embodiment of the present invention. First, the face image processing ECU 14 receives an image signal from the face image capturing camera 12, and detects the facial features of the driver D (S1). Here, the face image processing ECU 14 detects, for example, the width X of the face of the driver D and the center position Y of the face from the positions of the nose and mouth using existing technology.

次に、顔画像処理ECU14は、検出された運転者Dの顔の横幅X、顔の中心位置Yの相対位置に基づいて、運転者Dの顔向き角度を算出する(S2)。続いて、顔画像処理ECU14は、車速センサ18からの信号に基づいて、自車速を検出し、ウィンカセンサ20からの信号に基づいて、自車両の進路変更、右左折を検出し、ステアリングセンサ22からの信号に基づいて、自車両の操舵方向及び操舵角度を検出する(S3)。   Next, the face image processing ECU 14 calculates the face angle of the driver D based on the detected relative position of the width X of the face of the driver D and the center position Y of the face (S2). Subsequently, the face image processing ECU 14 detects the host vehicle speed based on the signal from the vehicle speed sensor 18, detects the course change of the host vehicle, and turns right and left based on the signal from the blinker sensor 20, and the steering sensor 22. The steering direction and steering angle of the host vehicle are detected based on the signal from (S3).

次に、顔画像処理ECU14は、検出された顔向き角度、自車速、自車両の進路変更及び右左折、自車両の操舵方向及び操舵角度に基づいて、めがねレンズ上の水平エッジ画像の流れる方向(移動方向)、及び移動量を左右のレンズごとに推定する(S4)。例えば、めがねレンズ上で、一連の映り込みエッジ画像が何回検出可能であるかを推定してもよい。   Next, the face image processing ECU 14 determines the flow direction of the horizontal edge image on the eyeglass lens based on the detected face orientation angle, the own vehicle speed, the course change and right / left turn of the own vehicle, the steering direction and the steering angle of the own vehicle. (Moving direction) and the moving amount are estimated for each of the left and right lenses (S4). For example, it may be estimated how many times a series of reflection edge images can be detected on a spectacle lens.

続いて、顔画像処理ECU14は、認識された鼻、口の位置に基づいて、目周辺の探索範囲を設定し、例えばsobelフィルタなどの手法を用いて、目周辺の水平エッジ画像を検出する(S5)。このとき、実際の目に起因するエッジ画像、車外の風景に起因し、めがねレンズ上に映り込んだエッジ画像等が水平エッジとして検出される。   Subsequently, the face image processing ECU 14 sets a search range around the eyes based on the recognized position of the nose and mouth, and detects a horizontal edge image around the eyes using a method such as a sobel filter (for example). S5). At this time, an edge image caused by the actual eye, an edge image reflected on the eyeglass lens due to the scenery outside the vehicle, and the like are detected as horizontal edges.

次に、顔画像処理ECU14は、検出された水平エッジ画像を時系列に探索し、ステップ4で推定された映り込みエッジ画像の移動方向及び移動量と合致する水平エッジ画像の時系列の組合せを、映り込みエッジ画像候補の時系列の組合せ(以下、「映り込みエッジ画像候補」ともいう)として抽出する(S6)。主に、エッジ画像は上方に動くので、ノイズ要因などで下まぶたに相当するエッジも検出してしまう可能性がある。   Next, the face image processing ECU 14 searches the detected horizontal edge image in time series, and finds a time series combination of horizontal edge images that matches the moving direction and moving amount of the reflected edge image estimated in step 4. Then, it is extracted as a time-series combination of reflection edge image candidates (hereinafter also referred to as “reflection edge image candidates”) (S6). Since the edge image mainly moves upward, there is a possibility that an edge corresponding to the lower eyelid may be detected due to a noise factor or the like.

続いて、顔画像処理ECU14は、時系列で瞬きしているか否かを判定し、瞬きしていると判定された水平エッジ画像の時系列の組合せを、上まぶたに起因するエッジ画像候補の時系列の組合せとして抽出する(S7)。例えば、所定時間内に上下方向に移動する水平エッジ画像候補の時系列の組合せは、時系列で瞬きしていると判定する。なお、「所定時間」とは、任意の時間であり、その時間内の水平エッジ画像の移動を観察することで、瞬きであると判定可能な時間である。   Subsequently, the face image processing ECU 14 determines whether or not it blinks in time series, and the combination of the time series of the horizontal edge images determined to be blinking is the edge image candidate attributed to the upper eyelid. Extracted as a combination of series (S7). For example, it is determined that a time-series combination of horizontal edge image candidates that move vertically within a predetermined time is blinking in time series. The “predetermined time” is an arbitrary time and is a time that can be determined to be blinking by observing the movement of the horizontal edge image within that time.

次に、顔画像処理ECU14は、ステップ6において抽出された映り込みエッジ画像候補の時系列の組合せの中に、ステップ7において、抽出された上まぶたに起因するエッジ候補と対になる下まぶたに起因するエッジ画像候補が存在するか否かを判定し、これらの上下まぶたに起因するエッジ画像候補を映り込みエッジ画像候補から除外する(S8)。例えば、左右の上まぶたに起因するエッジ画像候補の動きと連動し、且つ、平行性が保たれているエッジ画像候補を、下まぶたに起因するエッジ画像候補として抽出して、映り込みエッジ画像候補から除外する。   Next, the face image processing ECU 14 adds the time series combination of the reflected edge image candidates extracted in step 6 to the lower eyelid paired with the edge candidate caused by the extracted upper eyelid in step 7. It is determined whether or not there is a resulting edge image candidate, and the edge image candidates resulting from these upper and lower eyelids are excluded from the reflected edge image candidates (S8). For example, an edge image candidate that is linked to the motion of the edge image candidate caused by the left and right upper eyelids and that maintains parallelism is extracted as an edge image candidate caused by the lower eyelid, and is a reflected edge image candidate. Exclude from

続いて、顔画像処理ECU14は、映り込みエッジ画像候補として残った水平エッジ画像を、めがねレンズに映り込んだエッジ画像として設定(検出)し、目候補(上まぶた候補、下まぶた候補)から除外する(S9)。そして、この後に実行される目検出処理では、目候補の中から、例えば、最も適合値が高い目候補が目として検出される。   Subsequently, the face image processing ECU 14 sets (detects) the horizontal edge image remaining as the reflection edge image candidate as the edge image reflected on the eyeglass lens, and excludes it from the eye candidates (upper eyelid candidate, lower eyelid candidate). (S9). In the eye detection process executed thereafter, for example, the eye candidate having the highest fitness value is detected as an eye from among the eye candidates.

このような顔画像処理装置10によれば、取得された自車両の移動状態に基づいて、めがねレンズに投影された映り込みエッジの移動方向及び移動量を推定し、推定された映り込みエッジの移動方向及び移動量と合致する水平エッジを目候補から除外することで、目の検出精度が向上されている。   According to the face image processing apparatus 10 as described above, the movement direction and the movement amount of the reflection edge projected on the eyeglass lens are estimated based on the acquired movement state of the host vehicle, and the estimated reflection edge is estimated. By excluding the horizontal edge that matches the movement direction and movement amount from the eye candidates, the eye detection accuracy is improved.

このような顔画像処理装置10によれば、車両の移動に関する情報を取得し、取得された情報に基づいて、運転者Dのめがねレンズに写り込むエッジ画像の移動状態を推定し、推定されたエッジ画像の移動状態に基づいて、実際にめがねレンズに映り込んだエッジ画像を検出する。車外の風景に起因するエッジ画像は、車両の移動状態に伴って移動するため、車両の移動状態に基づいて、めがねレンズに写り込むエッジ画像の移動状態を推定することができる。これにより、推定された移動状態と同様に位置変化するエッジ画像を、不要なエッジとして、目を検出する際の候補から除外することができ、目の検出精度を向上させることができる。また、新たに専用の装置を追加することなく、従前の顔画像処理装置のハードを用い、簡素な構成でめがねレンズに映り込んだ不要なエッジ画像を検出、除去することができる。   According to such a face image processing apparatus 10, information on the movement of the vehicle is acquired, and based on the acquired information, the movement state of the edge image reflected on the eyeglass lens of the driver D is estimated and estimated. Based on the movement state of the edge image, the edge image actually reflected on the eyeglass lens is detected. Since the edge image resulting from the scenery outside the vehicle moves with the moving state of the vehicle, the moving state of the edge image reflected on the eyeglass lens can be estimated based on the moving state of the vehicle. As a result, an edge image whose position changes in the same manner as the estimated movement state can be excluded as an unnecessary edge from the candidates for detecting the eye, and the eye detection accuracy can be improved. Further, it is possible to detect and remove an unnecessary edge image reflected on the eyeglass lens with a simple configuration by using the hardware of the conventional face image processing device without adding a new dedicated device.

また、顔画像処理装置10では、所定時間内に上下方向に移動するエッジ画像を映り込みエッジ画像として検出しないこととしている。車両が直前進する場合には、映り込みエッジ画像は、車両の移動方向に応じてめがねレンズ上で上方に移動するため、所定時間内に上下方向に移動するエッジ画像は、めがねレンズに映り込んだエッジ画像である可能性は極めて低く、逆に、目である可能性が高い。そのため、所定時間内に上下方向に移動するエッジ画像を、めがねレンズに映り込んだエッジ画像と設定しないことで、目の検出精度を向上させることができる。   In addition, the face image processing apparatus 10 does not detect an edge image that moves up and down within a predetermined time as a reflected edge image. When the vehicle moves forward, the reflected edge image moves upward on the eyeglass lens in accordance with the moving direction of the vehicle, so the edge image that moves up and down within a predetermined time is reflected on the eyeglass lens. The possibility of being an edge image is extremely low, and conversely, the possibility of being an eye is high. Therefore, the eye detection accuracy can be improved by not setting the edge image that moves up and down within a predetermined time as the edge image reflected on the eyeglass lens.

次に、本発明の第2実施形態に係る顔画像処理装置について図4を参照して説明する。図4は、本発明の第2実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。第2実施形態の顔画像処理装置が第1実施形態の顔画像処理装置10と違う点は、顔画像処理ECUで実行される処理手順が異なる点であり、具体的には、ステップ3とステップ4との間で、新たなステップ10の処理を実行する点である。なお、第2実施形態に係る顔画像処理装置の装置構成は、第1実施形態の顔画像処理装置10と同一である。   Next, a face image processing apparatus according to a second embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing a processing procedure executed by the face image processing ECU according to the second embodiment of the present invention. The difference between the face image processing apparatus of the second embodiment and the face image processing apparatus 10 of the first embodiment is that the processing procedure executed by the face image processing ECU is different. Specifically, step 3 and step 4, the process of a new step 10 is executed. The device configuration of the face image processing device according to the second embodiment is the same as that of the face image processing device 10 of the first embodiment.

ステップ1〜9の処理は、第1実施形態の顔画像処理ECU14で実行される処理手順と同一であるため、新たに追加されたステップ10の処理について説明する。ステップ10では、顔画像処理ECUは、鼻、口の位置に基づいて、めがねレンズを検出し、その種類を識別する。ここでは、例えば、撮像された画像情報に基づいて、めがねレンズの種類、形状(大きさ、曲率等)を検出する。なお、記憶部に記憶されたデータベースを参照することで、めがねレンズの種類、形状を認識する構成としてもよい。   Since the processing of steps 1 to 9 is the same as the processing procedure executed by the face image processing ECU 14 of the first embodiment, the newly added processing of step 10 will be described. In step 10, the face image processing ECU detects the spectacle lens based on the positions of the nose and mouth and identifies the type. Here, for example, the type and shape (size, curvature, etc.) of the spectacle lens are detected based on the captured image information. In addition, it is good also as a structure which recognizes the kind and shape of a spectacle lens by referring the database memorize | stored in the memory | storage part.

このような第2実施形態の顔画像処理装置にあっても、第1実施形態の顔画像処理装置10と同様の作用、効果を得ることができる。また、第2実施形態の顔画像処理装置では、めがねレンズの種類、形状を認識することができるため、めがねレンズの種類、形状に応じて補正することで、映り込みエッジ画像の移動状態の推定精度を向上させることが可能となる。例えば、映り込みエッジ画像の移動方向は、めがねレンズの曲率によって異なることがある。また、めがねレンズの大きさが異なれば、時間変化に応じた一連のエッジ画像の検出回数も異なる。そのため、めがねレンズの種類、形状を考慮して、映り込みエッジ画像の移動状態を補正することで、映り込み画像の検出精度を向上させることが可能となり、目の検出精度を一層向上させることができる。   Even in such a face image processing apparatus of the second embodiment, the same operations and effects as the face image processing apparatus 10 of the first embodiment can be obtained. In addition, since the type and shape of the spectacle lens can be recognized in the face image processing apparatus of the second embodiment, the movement state of the reflection edge image is estimated by correcting according to the type and shape of the spectacle lens. The accuracy can be improved. For example, the moving direction of the reflection edge image may differ depending on the curvature of the spectacle lens. Further, when the size of the spectacle lens is different, the number of times of detection of a series of edge images corresponding to a change with time is also different. Therefore, it is possible to improve the detection accuracy of the reflected image by correcting the moving state of the reflected edge image in consideration of the type and shape of the spectacle lens, and to further improve the eye detection accuracy. it can.

次に、本発明の第3実施形態に係る顔画像処理装置について図5を参照して説明する。図5は、本発明の第3実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。第3実施形態の顔画像処理装置が第1実施形態の顔画像処理装置10と違う点は、顔画像処理ECUで実行される処理手順が異なる点であり、具体的には、ステップ9の後に、新たなステップ11,12を実行する点である。なお、第3実施形態に係る顔画像処理装置の装置構成は、第1実施形態の顔画像処理装置10と同一である。   Next, a face image processing apparatus according to a third embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure executed by the face image processing ECU according to the third embodiment of the present invention. The face image processing device of the third embodiment is different from the face image processing device 10 of the first embodiment in that the processing procedure executed by the face image processing ECU is different. The new steps 11 and 12 are executed. The device configuration of the face image processing device according to the third embodiment is the same as that of the face image processing device 10 of the first embodiment.

ステップ1〜9の処理は、第1実施形態の顔画像処理ECUで実行される処理手順と同一であるため、新たに追加されたステップ11,12の処理について説明する。ステップ11では、顔画像処理ECUは、上まぶたに起因するエッジ画像候補、及び/又は、下まぶたに起因するエッジ画像候補(以下、「上下まぶた画像候補」という)となる水平エッジ画像が検出されているか否かを判定する。上下まぶた画像候補となる水平エッジ画像が検出されていない場合には、ステップ12に進み、上下まぶた画像候補となる水平エッジ画像が検出されている場合には、処理を終了する。   Since the processing of steps 1 to 9 is the same as the processing procedure executed by the face image processing ECU of the first embodiment, the newly added processing of steps 11 and 12 will be described. In step 11, the face image processing ECU detects a horizontal edge image that becomes an edge image candidate caused by the upper eyelid and / or an edge image candidate caused by the lower eyelid (hereinafter referred to as “upper and lower eyelid image candidate”). It is determined whether or not. If the horizontal edge image that is the upper and lower eyelid image candidate has not been detected, the process proceeds to step 12. If the horizontal edge image that is the upper and lower eyelid image candidate has been detected, the process ends.

ステップ12では、顔画像処理ECUは、後段の目検出処理で、目(上下まぶた)を検出することができなかった状態である未検出状態として処理するように設定する。これにより、後段の目検出処理において未検出状態による不具合を回避することができる。   In step 12, the face image processing ECU is set to process as an undetected state in which the eyes (upper and lower eyelids) could not be detected in the subsequent eye detection process. Thereby, the malfunction by an undetected state can be avoided in the latter eye detection process.

次に、本発明の第4実施形態に係る顔画像処理装置について図6を参照して説明する。図6は、本発明の第4実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。第4実施形態の顔画像処理装置が第1実施形態の顔画像処理装置10と違う点は、顔画像処理ECUで実行される処理手順が異なる点であり、具体的には、ステップ9の後に、新たなステップ13,14を実行する点である。なお、第4実施形態に係る顔画像処理装置の装置構成は、第1実施形態の顔画像処理装置10と同一である。   Next, a face image processing apparatus according to a fourth embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing a processing procedure executed by the face image processing ECU according to the fourth embodiment of the present invention. The difference between the face image processing apparatus according to the fourth embodiment and the face image processing apparatus 10 according to the first embodiment is that the processing procedure executed by the face image processing ECU is different. The new steps 13 and 14 are executed. The device configuration of the face image processing device according to the fourth embodiment is the same as that of the face image processing device 10 of the first embodiment.

ステップ1〜9の処理は、第1実施形態の顔画像処理ECU14で実行される処理手順と同一であるため、新たに追加されたステップ13,14の処理について説明する。ステップ13では、顔画像処理ECUは、映り込みエッジ画像が瞳孔と重なる位置で検出されたか否かを判定する。ここでは、例えば、運転者の顔画像に基づいて、運転者Dの瞳孔の位置を検出し、この瞳孔の位置と、水平エッジ画像とが重なる位置で検出されたか否かを判定する。映り込みエッジ画像が瞳孔と重なる位置で検出された場合には、ステップ14に進み、映り込みエッジ画像が瞳孔と重なる位置で検出されなかった場合には、処理を終了する。   Since the processing of Steps 1 to 9 is the same as the processing procedure executed by the face image processing ECU 14 of the first embodiment, the newly added processing of Steps 13 and 14 will be described. In step 13, the face image processing ECU determines whether or not the reflected edge image is detected at a position overlapping the pupil. Here, for example, the position of the pupil of the driver D is detected based on the face image of the driver, and it is determined whether or not the position of the pupil is detected at a position where the horizontal edge image overlaps. If the reflected edge image is detected at a position overlapping the pupil, the process proceeds to step 14, and if the reflected edge image is not detected at the position overlapping the pupil, the process is terminated.

ステップ14では、顔画像処理ECUは、後段で実行される瞳孔検出処理で、瞳孔を検出することができなかった状態である未検出状態として処理するように設定する。これにより、後段の瞳孔検出処理において、未検出状態に不具合を回避することができる。瞳孔の位置を映り込みエッジ画像の位置が重なった場合には、両者の検出精度が低下するおそれがあるため、両者が重なった位置に存在する場合には、未検出状態として処理を終了することで、検出精度の低下を回避することができる。   In step 14, the face image processing ECU is set to process as an undetected state in which the pupil cannot be detected in the pupil detection process executed in the subsequent stage. As a result, it is possible to avoid problems in the undetected state in the subsequent pupil detection process. If the position of the edge image that reflects the position of the pupil overlaps, there is a possibility that the detection accuracy of both may be reduced, so if both are present at the position where they overlap, the process is terminated as an undetected state. Thus, a decrease in detection accuracy can be avoided.

以上、本発明をその実施形態に基づき具体的に説明したが、本発明は、上記実施形態に限定されるもではない。例えば、顔特徴点を検出する技術、顔向き角度を検出する技術、目を検出する技術は、その他の技術を用いてもよい。要は、車両の移動状態に基づいて、映り込みエッジ画像の移動状態を推定し、推定された移動状態に基づいて、めがねレンズに映り込んだエッジ画像を検出可能であればよい。   As mentioned above, although this invention was concretely demonstrated based on the embodiment, this invention is not limited to the said embodiment. For example, other techniques may be used as the technique for detecting facial feature points, the technique for detecting the face orientation angle, and the technique for detecting eyes. In short, it is only necessary to estimate the moving state of the reflected edge image based on the moving state of the vehicle and to detect the edge image reflected on the eyeglass lens based on the estimated moving state.

また、上記実施形態では、「所定時間内に上下方向に移動するエッジ画像」を映り込みエッジ画像として検出しない構成としているが、「下方に移動するエッジ画像」を映り込みエッジ画像として検出しない構成としてもよい。また、上記実施形態において、ステップ7、8の処理を実行しなくてもよい。   In the above-described embodiment, the “edge image moving in the vertical direction within a predetermined time” is not detected as a reflection edge image, but the “edge image moving downward” is not detected as a reflection edge image. It is good. Moreover, in the said embodiment, the process of step 7 and 8 does not need to be performed.

また、上記実施形態では、顔画像処理装置10は、本発明の移動情報取得手段として、車速センサ18、ウィンカセンサ20、ステアリングセンサ22を備える構成としているが、その他のセンサ、コンピュータからの情報に基づいて、自車両の移動状態を取得する構成としてもよい。また、例えば、車速センサ18のみによって、移動情報を取得してもよい。   Moreover, in the said embodiment, although the face image processing apparatus 10 is set as the structure provided with the vehicle speed sensor 18, the blinker sensor 20, and the steering sensor 22 as a movement information acquisition means of this invention, it is set as the information from another sensor and a computer. Based on this, the moving state of the host vehicle may be acquired. Further, for example, the movement information may be acquired only by the vehicle speed sensor 18.

また、上記第3,4実施形態において、ステップ10を実行しても良く、ステップ11〜14を実行してもよい。   In the third and fourth embodiments, step 10 may be executed, or steps 11 to 14 may be executed.

本発明の実施形態に係る顔画像処理装置を示す構成図である。It is a block diagram which shows the face image processing apparatus which concerns on embodiment of this invention. 目周辺の画像の時間変化を示す概略図であり、めがねレンズに映り込んだ映り込みエッジ画像の位置変化を示すものである。It is the schematic which shows the time change of the image around an eye, and shows the position change of the reflection edge image reflected on the spectacles lens. 本発明の第1実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。It is a flowchart which shows the process sequence performed by face image process ECU which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。It is a flowchart which shows the process sequence performed by face image process ECU which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。It is a flowchart which shows the process sequence performed by face image process ECU which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る顔画像処理ECUで実行される処理手順を示すフローチャートである。It is a flowchart which shows the process sequence performed by face image process ECU which concerns on 4th Embodiment of this invention.

符号の説明Explanation of symbols

10…顔画像処理装置、12…顔画像撮像カメラ、14…顔画像処理ECU、16…コラムカバー、18…車速センサ、20…ウィンカセンサ、22…ステアリングセンサ、24…顔特徴点抽出部、26…顔向き角度検出部、28…エッジ移動方向推定部、30…映り込みエッジ検出部、32…目検出部、40…めがねレンズ。   DESCRIPTION OF SYMBOLS 10 ... Face image processing apparatus, 12 ... Face image pick-up camera, 14 ... Face image processing ECU, 16 ... Column cover, 18 ... Vehicle speed sensor, 20 ... Winker sensor, 22 ... Steering sensor, 24 ... Face feature point extraction part, 26 ... face orientation angle detection unit, 28 ... edge movement direction estimation unit, 30 ... reflection edge detection unit, 32 ... eye detection unit, 40 ... spectacle lens.

Claims (2)

車両の運転者の顔画像を取得して、取得された前記顔画像に基づいて画像処理を行い前記運転者の目を検出する画像処理手段を備えた画像処理装置において、
前記車両の移動に関する情報を取得する移動情報取得手段と、
前記移動情報取得手段によって取得された前記車両の移動に関する情報に基づいて、前記運転者に装着されためがねレンズに写り込むエッジ画像の移動状態を推定する推定手段と、
前記推定手段によって推定されたエッジ画像の移動状態に基づいて、前記めがねレンズに映り込んだエッジ画像である映り込みエッジ画像を検出する映り込み検出手段と、
を備え
前記画像処理手段は、前記映り込み検出手段によって検出された前記映り込みエッジ画像を目候補から除外し、
前記映り込み検出手段は、下方に移動するエッジ画像を前記映り込みエッジ画像として検出しないことを特徴とする顔画像処理装置。
In an image processing apparatus including an image processing unit that acquires a face image of a driver of a vehicle, performs image processing based on the acquired face image, and detects the eyes of the driver.
Movement information acquisition means for acquiring information relating to movement of the vehicle;
Estimating means for estimating a moving state of an edge image reflected on a spectacle lens attached to the driver based on information on movement of the vehicle acquired by the movement information acquiring means;
Reflection detection means for detecting a reflection edge image that is an edge image reflected on the eyeglass lens based on the movement state of the edge image estimated by the estimation means;
Equipped with a,
The image processing means excludes the reflection edge image detected by the reflection detection means from eye candidates,
The face image processing device, wherein the reflection detection means does not detect an edge image moving downward as the reflection edge image .
車両の運転者の顔画像を取得して、取得された前記顔画像に基づいて画像処理を行い前記運転者の目を検出する画像処理手段を備えた画像処理装置において、
前記車両の移動に関する情報を取得する移動情報取得手段と、
前記移動情報取得手段によって取得された前記車両の移動に関する情報に基づいて、前記運転者に装着されためがねレンズに写り込むエッジ画像の移動状態を推定する推定手段と、
前記推定手段によって推定されたエッジ画像の移動状態に基づいて、前記めがねレンズに映り込んだエッジ画像である映り込みエッジ画像を検出する映り込み検出手段と、
を備え
前記画像処理手段は、前記映り込み検出手段によって検出された前記映り込みエッジ画像を目候補から除外し、
前記映り込み検出手段は、所定時間内に上下方向に移動するエッジ画像を前記映り込みエッジ画像として検出しないことを特徴とする顔画像処理装置。
In an image processing apparatus including an image processing unit that acquires a face image of a driver of a vehicle, performs image processing based on the acquired face image, and detects the eyes of the driver.
Movement information acquisition means for acquiring information relating to movement of the vehicle;
Estimating means for estimating a moving state of an edge image reflected on a spectacle lens attached to the driver based on information on movement of the vehicle acquired by the movement information acquiring means;
Reflection detection means for detecting a reflection edge image that is an edge image reflected on the eyeglass lens based on the movement state of the edge image estimated by the estimation means;
Equipped with a,
The image processing means excludes the reflection edge image detected by the reflection detection means from eye candidates,
The face image processing device, wherein the reflection detection means does not detect an edge image that moves in a vertical direction within a predetermined time as the reflection edge image .
JP2008008107A 2008-01-17 2008-01-17 Face image processing device Expired - Fee Related JP4883013B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008008107A JP4883013B2 (en) 2008-01-17 2008-01-17 Face image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008008107A JP4883013B2 (en) 2008-01-17 2008-01-17 Face image processing device

Publications (2)

Publication Number Publication Date
JP2009169740A JP2009169740A (en) 2009-07-30
JP4883013B2 true JP4883013B2 (en) 2012-02-22

Family

ID=40970822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008008107A Expired - Fee Related JP4883013B2 (en) 2008-01-17 2008-01-17 Face image processing device

Country Status (1)

Country Link
JP (1) JP4883013B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8659751B2 (en) 2010-06-17 2014-02-25 Panasonic Corporation External light glare assessment device, line of sight detection device and external light glare assessment method
JP6102213B2 (en) * 2012-11-22 2017-03-29 富士通株式会社 Image processing apparatus, image processing method, and image processing program
JP6698966B2 (en) * 2018-02-13 2020-05-27 三菱電機株式会社 False detection determination device and false detection determination method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016694B2 (en) * 2002-04-02 2007-12-05 日産自動車株式会社 Face state detection apparatus and method
JP4151341B2 (en) * 2002-08-02 2008-09-17 日産自動車株式会社 Face condition detection device

Also Published As

Publication number Publication date
JP2009169740A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
US10796171B2 (en) Object recognition apparatus, object recognition method, and object recognition program
EP2975997B1 (en) System and method for on-axis eye gaze tracking
JP5790762B2 (en) 瞼 Detection device
US11524578B2 (en) Control method and control device for vehicle display device
CN105286802B (en) Driver Fatigue Detection based on video information
US9298995B2 (en) Red-eye determination device
US8983147B2 (en) Eyelid detection device
JPWO2010140578A1 (en) Image processing apparatus, image processing method, and image processing program
JP4770218B2 (en) Visual behavior determination device
JP4883013B2 (en) Face image processing device
KR20200092739A (en) Driver status monitor method and apparatus
JP2010244156A (en) Image feature amount detection device and view line direction detection device using the same
JP2009279186A (en) Face detecting device and method
JP4696571B2 (en) Eye position detection device
JP2017165345A (en) Object recognition device, object recognition method and object recognition program
JP5035139B2 (en) Eye image processing device
JP5376254B2 (en) Subject recognition device
JP5742676B2 (en) Lane boundary recognition device
JP6572841B2 (en) Information processing apparatus and program
JP5024161B2 (en) Face position estimation device
JP6698966B2 (en) False detection determination device and false detection determination method
JP3980341B2 (en) Eye position tracking method, eye position tracking device and program therefor
JP2011095827A (en) Eye detector
Horak et al. Human eyes localization for driver inattention monitoring system
CN117442156A (en) Cornea reflection image determining device and sight line detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4883013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees