JP2009025894A - Face image detection method and face image processor - Google Patents

Face image detection method and face image processor Download PDF

Info

Publication number
JP2009025894A
JP2009025894A JP2007185967A JP2007185967A JP2009025894A JP 2009025894 A JP2009025894 A JP 2009025894A JP 2007185967 A JP2007185967 A JP 2007185967A JP 2007185967 A JP2007185967 A JP 2007185967A JP 2009025894 A JP2009025894 A JP 2009025894A
Authority
JP
Japan
Prior art keywords
luminance
luminance value
region
face image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007185967A
Other languages
Japanese (ja)
Inventor
Tomonori Akiyama
知範 秋山
Takeshi Sasuga
岳史 流石
Futoshi Tsuda
太司 津田
Takehiko Tanaka
勇彦 田中
Akira Kadoya
明 角屋
Fumio Sugaya
文男 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007185967A priority Critical patent/JP2009025894A/en
Publication of JP2009025894A publication Critical patent/JP2009025894A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face image detection method and a face image processor for improving the detecting precision of a face image. <P>SOLUTION: The unidirectional luminance distribution B<SB>n</SB>of a pickup image is generated, and a first region G<SB>n</SB>whose luminance value correction is not executed and a second region H<SB>n</SB>whose luminance value is lower than that of the first region G<SB>n</SB>, and whose luminance value correction is not executed are decided based on the generated luminance distribution B<SB>n</SB>. Then, a predicted luminance distribution J<SB>n</SB>as the distribution of predicted luminance values in the second region H<SB>n</SB>is calculated based on the luminance value of the first region G<SB>n</SB>, and the luminance value (actual luminance value) S<SB>n</SB>and a predicted luminance value T<SB>n</SB>at the representative point Pn of the second region are compared, and the luminance value of the second region H<SB>n</SB>is corrected based on this comparison. Thus, it is possible to execute the luminance value correction based on the luminance value of a portion (first region) of the face. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、人物の顔を検出する顔画像検出方法及び顔画像処理装置に関する。   The present invention relates to a face image detection method and a face image processing apparatus for detecting a human face.

従来、このような分野では、例えば近赤外線カメラを用いて人物の顔を撮像し、撮像された画像データに基づいて画像処理を行って顔画像を検出している。具体的には、撮像された画像中において、周囲と比較して明るい領域を顔であるとしている。このような技術において、例えば外乱光の入射等により顔の半分側が暗い場合には、顔の中心軸を境界として左右両側の輝度を比較してコントラストの高低を判断し、コントラストの高い側の輝度値をコントラストの低い側の輝度値として顔の中心軸を基点に折り返すことで、輝度値の補正を実行していた(例えば、特許文献1参照)。
特開2005−49979号公報
Conventionally, in such a field, for example, a human face is imaged using a near-infrared camera, and a face image is detected by performing image processing based on the captured image data. Specifically, in the captured image, a bright area compared to the surrounding area is assumed to be a face. In such a technique, for example, when the half of the face is dark due to the incidence of ambient light, etc., the brightness on the left and right sides of the face is compared with the center axis of the face as a boundary to determine the level of contrast, and the brightness on the higher contrast side The luminance value is corrected by turning the value as the luminance value on the low contrast side and turning back the center axis of the face (see, for example, Patent Document 1).
JP 2005-49979 A

しかしながら、上記特許文献1に記載の従来技術では、顔の中心軸を境界として左右対称に折り返すことで、輝度値の補正を実行しているため、外乱光の入射位置が変化して、コントラストの高低の境界が顔の中心軸からずれた場合には、補正後の顔画像を正確に検出することできないという問題があった。   However, in the prior art described in Patent Document 1, since the luminance value is corrected by folding back symmetrically with the center axis of the face as a boundary, the incident position of the disturbance light changes, and the contrast When the high and low boundaries deviate from the center axis of the face, there is a problem that the corrected face image cannot be detected accurately.

本発明は、このような課題を解決するために成されたものであり、顔画像の検出精度の向上を図った顔画像検出方法及び顔画像処理装置を提供することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a face image detection method and a face image processing apparatus that improve the detection accuracy of face images.

本発明による顔画像検出方法は、撮像された画像に基づいて顔画像を検出する顔画像検出方法において、画像の一方向の輝度分布を生成する輝度分布生成工程と、輝度分布に基づいて、輝度値の補正を実行しない第1の領域及び第1の領域より輝度値が低く輝度値の補正を実行する第2の領域を判定する補正領域判定工程と、第1の領域における輝度分布に基づいて予想された予想輝度値の分布である予想輝度分布を演算する予想輝度分布演算工程と、第2の領域の所定位置における輝度値及び予測輝度値を比較する輝度値比較工程と、輝度値比較工程による比較結果に基づいて、第2の領域の輝度値を補正する輝度値補正工程と、を備えることを特徴としている。   The face image detection method according to the present invention is a face image detection method for detecting a face image based on a captured image, a luminance distribution generation step for generating a luminance distribution in one direction of the image, and a luminance based on the luminance distribution. A correction area determination step of determining a first area in which the correction of the value is not performed and a second area in which the luminance value is lower than that of the first area and in which the correction of the luminance value is performed, and the luminance distribution in the first area An expected luminance distribution calculating step for calculating an expected luminance distribution that is an expected luminance value distribution, a luminance value comparing step for comparing the luminance value and the predicted luminance value at a predetermined position in the second region, and a luminance value comparing step And a luminance value correction step of correcting the luminance value of the second region based on the comparison result of (2).

また、本発明による顔画像処理装置は、撮像された画像に基づいて顔画像を検出する顔画像処理装置において、画像の一方向の輝度分布を生成する輝度分布生成手段と、輝度分布に基づいて、輝度値の補正を実行しない第1の領域及び第1の領域より輝度値が低く輝度値の補正を実行する第2の領域を判定する補正領域判定手段と、第1の領域における輝度分布に基づいて予想された予想輝度値の分布である予想輝度分布を演算する予想輝度分布演算手段と、第2の領域の所定位置における輝度値及び予想輝度値を比較する輝度値比較手段と、輝度値比較手段による比較結果に基づいて、第2の領域の輝度値を補正する輝度値補正手段と、を備えることを特徴としている。   In addition, a face image processing apparatus according to the present invention is a face image processing apparatus that detects a face image based on a captured image, based on the luminance distribution generating means for generating a luminance distribution in one direction of the image, and the luminance distribution. A correction area determination means for determining a first area where the luminance value is not corrected and a second area where the luminance value is lower than the first area and where the luminance value is corrected; and the luminance distribution in the first area A predicted luminance distribution calculating unit that calculates a predicted luminance distribution that is a predicted luminance value distribution based on the predicted luminance value, a luminance value comparing unit that compares the luminance value and the predicted luminance value at a predetermined position in the second region, and a luminance value And a luminance value correcting unit that corrects the luminance value of the second region based on a comparison result by the comparing unit.

このような顔画像検出方法及び顔画像処理装置によれば、撮像された画像の一方向の輝度分布を生成し、生成された輝度分布に基づいて、輝度値補正を実行しない第1の領域及びこの第1の領域より輝度値が低く輝度値補正を実行する第2の領域を判定する。そして、第1の領域の輝度値に基づいて、第2の領域における予想輝度値の分布である予想輝度分布を演算し、第2の領域の代表点における輝度値(実輝度値)及び予想輝度値を比較して、この比較に基づいて、第2の領域の輝度値を補正する。これにより、補正を実行しない第1の領域の輝度値に基づいて、予想輝度分布を生成し、第2の領域の代表点の予想輝度値及び輝度値(実測値)を比較して、第2の領域の輝度値補正を実行するため、顔の一部分(第1の領域)の輝度値に基づいて、輝度値補正を実行することが可能となる。そのため、コントラストの境界が顔の中心軸に沿っていない場合であっても、精度良く輝度値の補正を実行することができる。   According to such a face image detection method and a face image processing apparatus, a first region that generates a luminance distribution in one direction of a captured image, and that does not perform luminance value correction based on the generated luminance distribution, and A second region having a luminance value lower than that of the first region and performing luminance value correction is determined. Based on the luminance value of the first area, an expected luminance distribution that is a distribution of the expected luminance value in the second area is calculated, and the luminance value (actual luminance value) and the expected luminance at the representative point of the second area are calculated. The values are compared, and the luminance value of the second region is corrected based on the comparison. As a result, an expected luminance distribution is generated based on the luminance value of the first region where correction is not performed, and the predicted luminance value and the luminance value (actually measured value) of the representative point of the second region are compared with each other. Therefore, it is possible to execute the luminance value correction based on the luminance value of a part of the face (first region). Therefore, even when the contrast boundary is not along the center axis of the face, the luminance value can be corrected with high accuracy.

ここで、代表点は、第2の領域内における最大輝度値が検出された位置であることが好ましい。最大輝度値が検出された位置は、第2の領域内で最も精度良く輝度値が検出された位置であると想定することができる。これにより、最大輝度値が検出された位置を代表点として、この代表点における予想輝度値及び輝度値を比較し、この比較結果に基づいて、第2領域の輝度値を補正することが可能となる。そのため、顔の検出精度を向上させることができる。   Here, the representative point is preferably a position where the maximum luminance value is detected in the second region. It can be assumed that the position where the maximum luminance value is detected is the position where the luminance value is detected with the highest accuracy in the second region. As a result, the position where the maximum luminance value is detected is used as a representative point, the expected luminance value and the luminance value at this representative point are compared, and the luminance value of the second region can be corrected based on the comparison result. Become. Therefore, the face detection accuracy can be improved.

本発明の顔画像検出方法及び顔画像処理装置によれば、顔の一部分の輝度値に基づいて、予想輝度値を算出し、この予想輝度値と実測された輝度値との比較に基づいて、輝度値補正を実行することで、コントラストの境界が顔の中心軸に沿っていない場合であっても、輝度値補正を精度良く実行することが可能となり、顔の検出精度を向上させることができる。   According to the face image detection method and the face image processing apparatus of the present invention, an expected brightness value is calculated based on the brightness value of a part of the face, and based on a comparison between the expected brightness value and the actually measured brightness value, By executing the brightness value correction, it is possible to execute the brightness value correction accurately even when the contrast boundary is not along the center axis of the face, and the face detection accuracy can be improved. .

以下、本発明の好適な実施形態について図面を参照しながら説明する。なお、図面の説明において、同一または相当要素には同一の符号を付し、重複する説明は省略する。図1は、本発明の実施形態に係る顔画像処理装置を示すブロック図、図2は、顔画像撮像カメラによって撮像された顔画像の一例を示すものであり、輝度補正実行前の顔画像を示す図である。   Preferred embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or corresponding elements are denoted by the same reference numerals, and redundant description is omitted. FIG. 1 is a block diagram illustrating a face image processing apparatus according to an embodiment of the present invention, and FIG. 2 illustrates an example of a face image captured by a face image capturing camera. FIG.

図1に示す顔画像処理装置10は、車両等に搭載され運転者Dの顔画像を検出するものである。この顔画像処理装置10は、運転者Dの顔画像を撮像する顔画像撮像カメラ12、顔画像撮像カメラ12からの画像信号に基づいて画像処理を行う顔画像処理電子制御ユニット(以下、「顔画像処理ECU」という)14を備えている。   A face image processing apparatus 10 shown in FIG. 1 is mounted on a vehicle or the like and detects a face image of a driver D. The face image processing apparatus 10 includes a face image capturing camera 12 that captures a face image of the driver D, and a face image processing electronic control unit (hereinafter referred to as “face”) that performs image processing based on image signals from the face image capturing camera 12. 14) (referred to as “image processing ECU”).

顔画像撮像カメラ12は、例えばコラムカバー16の上面に設定され、運転者Dの顔画像を取得するものである。顔画像撮像カメラ12は、例えば、近赤外線カメラであり、近赤外線投射装置(不図示)から照射した近赤外線光が物体(運転者Dの顔)に反射した反射光を受光することによって、運転者Dの顔を撮像する。顔画像撮像カメラ12では、例えば、毎秒30フレームの画像を取得することができる。   The face image capturing camera 12 is set on, for example, the upper surface of the column cover 16 and acquires the face image of the driver D. The face image capturing camera 12 is, for example, a near-infrared camera, and receives near-infrared light irradiated from a near-infrared projection device (not shown) and receives reflected light reflected on an object (a face of the driver D). The face of the person D is imaged. For example, the face image capturing camera 12 can acquire an image of 30 frames per second.

顔画像処理ECU14は、演算処理を行うCPU、記憶部18となるROM及びRAM、入力信号回路、出力信号回路、電源回路などにより構成され、入力された画像信号について画像処理を行い運転者Dの顔画像を検出する。検出された顔画像は、例えば、運転者Dの覚醒度判定、脇見判定等に利用される。   The face image processing ECU 14 includes a CPU that performs arithmetic processing, a ROM and a RAM that serve as the storage unit 18, an input signal circuit, an output signal circuit, a power supply circuit, and the like. Detect face images. The detected face image is used for, for example, determination of arousal level of driver D, determination of looking aside, and the like.

ここで、本実施形態の顔画像処理装置10は、図2に示すように、例えば、運転者Dの顔の一部の輝度値が低下した場合に、輝度値の補正を実行して、顔画像の検出精度を向上させる機能を有している。そして、顔画像処理ECU14のCPUでは、記憶部18に記憶されているプログラムを実行することで、輝度分布生成部20、補正領域判定部22、予想輝度曲線生成部24、輝度値比較部26、輝度値補正部28、画像処理部30が構成される。また、記憶部18には、CPUを作動させるためのプログラムのほかに、複数の3次元顔モデルが記憶されている。また、記憶部18は、撮像された画像データを一時記憶する記憶手段として機能する。   Here, as shown in FIG. 2, the face image processing apparatus 10 according to the present embodiment performs correction of the luminance value when, for example, the luminance value of a part of the face of the driver D decreases, It has a function to improve image detection accuracy. Then, the CPU of the face image processing ECU 14 executes a program stored in the storage unit 18 to thereby execute a luminance distribution generation unit 20, a correction area determination unit 22, an expected luminance curve generation unit 24, a luminance value comparison unit 26, A luminance value correction unit 28 and an image processing unit 30 are configured. In addition to the program for operating the CPU, the storage unit 18 stores a plurality of three-dimensional face models. The storage unit 18 functions as a storage unit that temporarily stores captured image data.

輝度分布生成部20は、顔画像撮像カメラ12にからの入力された画像の各点における輝度値を算出して輝度分布を作成する。輝度分布生成部20では、運転者Dの顔を横方向に延在する複数の列(以下、「横列」という)Aに分割し、横列A毎に輝度分布を作成する。図3は、撮像された顔画像に基づいて生成された輝度分布を示すグラフである。図3では、図2中の横列Aにおける輝度分布Bを示すものであり、横軸に顔の横方向(図示左右方向)の位置を示し、縦軸に輝度値を示している。一点鎖線で示すLは、顔の中心軸Lを示している。顔の中心軸Lは、運転者Dの顔の中心を通り上下方向に延在するものである。顔の中心軸Lは、顔画像の輝度値が十分であり、輝度値補正の必要が無いときに取得された画像に基づいて設定されている。また、破線で示すF,Fは、顔領域を囲むように設定された矩形枠Fの左右両端F,Fを示すものである。矩形枠Fは、顔画像の輝度値が十分であり、輝度値補正の必要が無いときに取得された画像に基づいて設定されている。輝度分布生成部20では、上下方向に配列された横列Aの全てについて輝度分布の生成を行う。 The luminance distribution generation unit 20 calculates a luminance value at each point of the image input from the face image capturing camera 12 and creates a luminance distribution. The luminance distribution generating unit 20, a plurality of rows extending the face of the driver D in the lateral direction (hereinafter, referred to as "row") is divided into A n, to create a luminance distribution for each row A n. FIG. 3 is a graph showing the luminance distribution generated based on the captured face image. In Figure 3, which shows the luminance distribution B n in row A n in FIG. 2, the horizontal axis indicates the position in the lateral direction (horizontal direction) of the face shows the brightness values on the vertical axis. L 0 indicated by the alternate long and short dash line indicates the center axis L 0 of the face. The center axis L 0 of the face passes through the center of the face of the driver D and extends in the vertical direction. The face center axis L 0 is set based on an image acquired when the brightness value of the face image is sufficient and the brightness value correction is not necessary. F 1 and F 2 indicated by broken lines indicate left and right ends F 1 and F 2 of the rectangular frame F set so as to surround the face area. The rectangular frame F is set based on an image acquired when the brightness value of the face image is sufficient and there is no need to correct the brightness value. The luminance distribution generating unit 20, and generates the luminance distribution for all rows A n which are arranged in the vertical direction.

補正領域判定部22は、輝度分布生成部20で生成された輝度分布Bに基づいて、輝度値の補正を必要としない領域(以下、「第1領域」という)Gと、この第1領域Gより輝度値が低く輝度値の補正を必要とする領域(以下、「第2領域」という)Hとを判定する。補正領域設定部22では、輝度分布Bを参照し、輝度値の高低(コントラストの高低)を判定し、輝度値の高い方を第1領域Gと設定し、輝度値の低い方を第2領域Hと設定する。 Based on the luminance distribution Bn generated by the luminance distribution generation unit 20, the correction region determination unit 22 includes a region that does not require correction of luminance values (hereinafter referred to as “first region”) Gn, and the first region luminance value than a region G n requires correction of low luminance value (hereinafter, referred to as "second region") determines and H n. The correction region setting unit 22 refers to the luminance distribution Bn , determines the level of the luminance value (contrast level), sets the higher luminance value as the first region Gn, and sets the lower luminance value to the first region Gn . setting a second region H n.

なお、第1領域G及び第2領域Hの判定は、例えば、過去のデータに基づいて設定された基準値との比較によって行ってもよく、この場合には、輝度値が基準値より高い領域について第1領域と設定し、輝度値が基準値以下の領域について第2領域と設定する。また、補正領域判定部22は、輝度分布Bの変化率(傾き)に基づいて、第1領域G、第2領域Hを設定してもよく、この場合には、変化率の大きい位置を第1領域G及び第2領域Hの境界として設定する。なお、「輝度値の補正を必要としない領域(第1領域)」とは、輝度値が十分であり、輝度値の補正を実行することなく、顔部品(眼、鼻、口)等の特徴点を検出できる領域である。また、「輝度値の補正を必要とする領域(第2領域)」とは、輝度値が不十分であり、顔部品等の特徴点を正確に検出できない領域である。 The determination of the first region G n and the second region H n may be performed, for example, by comparison with a reference value set based on past data. In this case, the luminance value is greater than the reference value. A high region is set as a first region, and a region having a luminance value equal to or lower than a reference value is set as a second region. The correction area determination unit 22 may set the first area G n and the second area H n based on the change rate (gradient) of the luminance distribution B n . In this case, the change rate is large. to set position as the boundary between the first region G n, and the second region H n. It should be noted that the “region that does not require the correction of the luminance value (first region)” has a sufficient luminance value, and features such as facial parts (eyes, nose, mouth), etc., without executing the correction of the luminance value. This is an area where points can be detected. Further, the “region requiring the correction of the luminance value (second region)” is a region where the luminance value is insufficient and a feature point such as a face part cannot be detected accurately.

また、図3に示すデータでは、第1領域Gと第2領域Hとの境界が顔の中心軸Lとなっているが、第1の領域Gと第2領域Hとの境界は、顔の中心軸Lになるとは限らない。例えば、顔の右側の3分の1の範囲の輝度値が基準値より高く、顔の左側の3分の2の範囲の輝度値が基準値以下の場合、顔の右側の3分の1の範囲が、第1領域Gと設定され、顔の左側の3分の2の範囲が、第2領域Hと設定される。 In the data shown in FIG. 3, the boundary between the first region G n and the second region H n is the center axis L 0 of the face, but the first region G n and the second region H n boundaries, not necessarily the center axis L 0 of the face. For example, if the brightness value in the 1/3 range on the right side of the face is higher than the reference value and the brightness value in the 2/3 range on the left side of the face is less than or equal to the reference value, 1/3 of the right side of the face range, is set as the first region G n, 2 ranging thirds of the left face is set as the second region H n.

予想輝度曲線生成部24は、第1領域Gにおける輝度分布Bに基づいて、図4に示す予想輝度曲線(予想輝度分布)Jを生成する。図4は、予想輝度曲線を示すグラフである。予想輝度曲線生成部24では、例えば、輝度分布Bの変化率を算出して、顔領域の端部を示す立ち上がり部Kを検出する。予想輝度曲線生成部24は、この検出された立ち上がり部Kに沿う正規分布(ガウス分布)曲線を設定し、この正規分布曲線を予想輝度曲線Jとして生成する。 Expected brightness curve generating unit 24 based on the luminance distribution B n in the first region G n, and generates a predicted brightness curve (expected luminance distribution) J n shown in FIG. FIG. 4 is a graph showing an expected luminance curve. In the expected luminance curve generating unit 24, for example, by calculating the rate of change in the luminance distribution B n, it detects a rising portion K n indicating the end of the face area. Expected brightness curve generating unit 24 sets the normal distribution (Gaussian distribution) curve along the detected rising portion K n, generates the normal distribution curve as expected brightness curve J n.

輝度値比較部26は、第2領域Hの代表点Pにおける輝度値(実輝度値)S及び予想輝度値Tを比較して、予想輝度比(補正係数)R(=予想輝度値T/輝度値S)を算出する。ここで、代表点Pは、第2領域H内における最大輝度値が検出された位置である。図4では、第2領域H内における最大輝度値Sに対応する顔の横方向の位置が代表点Pとなり、代表点Pにおける予想輝度曲線J上の点が予想輝度値Tとなる。 Luminance value comparison section 26 compares the second region H luminance value at the representative point P n of the n (real luminance value) S n and the expected luminance value T n, the expected luminance ratio (correction coefficient) R n (= expected Luminance value Tn / luminance value Sn ) is calculated. Here, the representative point P n is a position where the maximum luminance value is detected in the second region H n . In FIG. 4, the position in the horizontal direction of the face corresponding to the maximum luminance value S n in the second region H n becomes the representative point P n , and the point on the expected luminance curve J n at the representative point P n is the expected luminance value T n .

輝度値補正部28は、輝度値比較部26による比較結果である予想輝度比Rに基づいて、第2領域の輝度値を補正する。具体的には、輝度分布Bに予想輝度比R乗算することで輝度値の補正を実行する。図5は、予想輝度曲線に基づいて補正された輝度分布を示すグラフである。図5では、図2中の横列Aにおける補正後の輝度分布Cを示すものであり、横軸に顔の横方向の位置を示し、縦軸に輝度値を示している。図5では、第2領域Hの輝度値は、予想輝度比Rによって補正されたものである。例えば予想輝度比Rが「3.0」である場合、輝度分布B(実輝度値)を3倍することで輝度値の補正を実行する。 Luminance value correcting unit 28, based on the expected luminance ratio R n is a comparison result of the luminance value comparing unit 26, corrects the luminance value of the second region. Specifically, to perform the correction of the luminance value by multiplying the expected luminance ratio R n to the luminance distribution B n. FIG. 5 is a graph showing the luminance distribution corrected based on the expected luminance curve. In Figure 5, which shows the luminance distribution C n corrected in row A n in FIG. 2, the horizontal axis indicates the horizontal position of the face shows the brightness values on the vertical axis. In Figure 5, the luminance value of the second region H n are those corrected by expected luminance ratio R n. For example, when the predicted luminance ratio R n is “3.0”, the luminance value is corrected by multiplying the luminance distribution B n (actual luminance value) by three.

図6は、顔画像撮像カメラによって撮像された顔画像の一例を示すものであり、輝度補正実行後の顔画像を示す図である。画像処理部30は、補正後の画像データに基づいて画像処理を行う。補正が実行されなかった場合には、顔画像撮像カメラ12から入力された画像信号に基づいて画像処理を行う。画像処理部30は、画像処理を行い、運転者Dの顔の輪郭線を示す顔輪郭エッジEを抽出すると共に、運転者Dの顔領域Eを検出する。画像処理部30は、周囲より明るい部分を顔領域Eとして検出する。また、画像処理部30は、運転者Dの顔向き角度の算出、及び顔特徴点(例えば、眼、鼻孔、口等)の抽出を行う。 FIG. 6 is a diagram illustrating an example of a face image captured by the face image capturing camera, and is a diagram illustrating the face image after performing the brightness correction. The image processing unit 30 performs image processing based on the corrected image data. When the correction is not executed, image processing is performed based on the image signal input from the face image capturing camera 12. The image processing unit 30 performs image processing, extracts a face contour edge E 1 indicating a contour line of the face of the driver D, and detects a face region E of the driver D. The image processing unit 30 detects a portion brighter than the surroundings as the face region E. In addition, the image processing unit 30 calculates the face orientation angle of the driver D and extracts facial feature points (for example, eyes, nostrils, mouth, etc.).

次に、このように構成された顔画像処理装置10を用いた顔画像検出方法について説明する。図7は、顔画像処理ECUで実行されるメイン処理の動作手順を示すフローチャートである。メイン処理は、顔画像処理装置10の起動中において所定のタイミングで繰り返し実行される。まず、顔画像処理ECU14は、顔画像撮像カメラ12から運転者Dの顔を撮像した画像信号を入力する(S1)。   Next, a face image detection method using the face image processing apparatus 10 configured as described above will be described. FIG. 7 is a flowchart showing an operation procedure of main processing executed by the face image processing ECU. The main process is repeatedly executed at a predetermined timing while the face image processing apparatus 10 is activated. First, the face image processing ECU 14 inputs an image signal obtained by capturing the face of the driver D from the face image capturing camera 12 (S1).

次に、顔画像処理ECU14は、輝度値補正処理(S2)を行う。図8は、顔画像処理ECUで実行される輝度値補正処理の動作手順を示すフローチャートである。輝度値補正処理では、顔画像処理ECU14は、前回に顔領域Eを検出しているか否かを判定する(S11)。前回に顔領域Eを検出していると判定された場合には、ステップS12に進み、前回に顔領域Eを検出していると判定されなかった場合には、輝度値補正処理を終了し、図7に示すメイン処理のステップS3に進む。   Next, the face image processing ECU 14 performs a brightness value correction process (S2). FIG. 8 is a flowchart showing an operation procedure of luminance value correction processing executed by the face image processing ECU. In the luminance value correction process, the face image processing ECU 14 determines whether or not the face area E has been detected last time (S11). If it is determined that the face area E has been detected last time, the process proceeds to step S12. If it is not determined that the face area E has been detected last time, the luminance value correction process is terminated. The process proceeds to step S3 of the main process shown in FIG.

ステップS12では、顔画像処理ECU14は、前回の顔領域Eに関するデータを入力する。次に、顔画像処理ECU14は、入力された顔領域Eに関するデータに基づいて横列A毎に輝度分布Bを生成する(S13、輝度分布生成工程)。 In step S12, the face image processing ECU 14 inputs data related to the previous face area E. Then, the face image processing ECU14 produces a luminance distribution B n for each row A n on the basis of the data related to the input face area E (S13, luminance distribution generating step).

続いて、顔画像処理ECU14は、輝度分布Bに基づいて輝度値の高低を判定し、輝度値の補正を必要としない第1領域Gと、輝度値の補正を必要とする第2領域とを設定し、輝度値の補正を実行する必要があるか否かを判定する(S14、補正領域判定工程)。輝度値の補正を実行する必要がないと判定された場合には、輝度値補正処理を終了し、図7に示すメイン処理のステップS3に進む。輝度値の補正を実行する必要があると判定された場合には、ステップS15に進む。 Subsequently, the face image processing ECU 14 determines the level of the luminance value based on the luminance distribution Bn , and the first region Gn that does not require correction of the luminance value and the second region that requires correction of the luminance value. Is determined, and it is determined whether or not it is necessary to execute correction of the luminance value (S14, correction area determination step). If it is determined that it is not necessary to execute the correction of the brightness value, the brightness value correction process is terminated, and the process proceeds to step S3 of the main process shown in FIG. If it is determined that it is necessary to correct the luminance value, the process proceeds to step S15.

ステップS15では、顔画像処理ECU14は、第1領域Gにおける輝度分布Bに基づいて顔の横方向の予想輝度曲線Jを作成する(S15、予想輝度分布演算工程)。次に、顔画像処理ECU14は、輝度分布Bに基づいて、第2領域H内の最大輝度値Sを抽出し、代表点Pを決定する(S16)。 In step S15, the face image processing ECU14 creates a predicted luminance curve J n in the lateral direction of the face based on the luminance distribution B n in the first region G n (S15, predicted luminance distribution calculation step). Then, the face image processing ECU14, based on the luminance distribution B n, extracts the maximum brightness value S n of the second region H n, determines the representative point P n (S16).

続いて、顔画像処理ECU14は、予想輝度曲線Jを参照して、代表点Pにおける予想輝度値Tを抽出する(S17)。次に、顔画像処理ECU14は、代表点Pにおける予想輝度比Rを算出する(S18、輝度値比較工程)。 Subsequently, the face image processing ECU14 refers to the expected luminance curve J n, extracts the predicted luminance value T n at the representative point P n (S17). Next, the face image processing ECU 14 calculates an expected luminance ratio R n at the representative point P n (S18, luminance value comparison step).

続いて、顔画像処理ECU14は、第2領域Hの輝度値補正を実行する(S19、輝度値補正工程)。具体的には、顔画像処理ECU14は、輝度分布B(実輝度値)に予想輝度比Rを乗算して、補正後の輝度値を算出する。顔画像処理ECU14は、顔の上下方向に隣接する全ての横列A(図2参照)について、輝度値補正処理を実行した後に、メイン処理のステップS3に進む。 Subsequently, the face image processing ECU14 executes the luminance value correction of the second region H n (S19, luminance value correction step). Specifically, the face image processing ECU 14 multiplies the luminance distribution B n (actual luminance value) by the expected luminance ratio R n to calculate a corrected luminance value. The face image processing ECU 14 proceeds to step S3 of the main process after executing the brightness value correction process for all rows A n (see FIG. 2) adjacent in the vertical direction of the face.

顔画像処理ECU14は、図7に示すように、ステップS2の輝度値補正処理の後、輝度値補正後のデータに基づいて、顔輪郭エッジを抽出し(S3)、顔領域を検出する(S4)。次に、顔画像処理ECU14は、運転者Dの顔向き角度を算出し(S5)、顔の特徴点を抽出する(S6)。   As shown in FIG. 7, the face image processing ECU 14 extracts a face contour edge (S3) and detects a face region after the brightness value correction process in step S2 based on the data after the brightness value correction (S3). ). Next, the face image processing ECU 14 calculates the face orientation angle of the driver D (S5), and extracts facial feature points (S6).

このような顔画像処理装置10及び顔画像検出方法によれば、撮像された画像の横列Aに沿って輝度分布Bを生成し、生成された輝度分布Bに基づいて、輝度値補正を実行しない第1領域G及びこの第1領域Gより輝度値が低く輝度値補正を実行する第2領域Hを判定する。そして、第1領域Gの輝度分布Bに沿うように、予想輝度曲線として正規分布を設定し、第2領域Hの代表点Pにおける予想輝度比Rを算出し、この予想輝度比Rに基づいて、第2領域Hの輝度値を補正する。このため、顔の一部分(第1領域)の輝度値に基づいて、輝度値補正を実行している。その結果、コントラストの境界が顔の中心軸に沿っていない場合であっても、精度良く輝度値の補正を実行することができる。 According to such a face image processing apparatus 10 and the face image detecting method, and generates a luminance distribution B n along rows A n of the captured image, based on the generated luminance distribution B n, the luminance value correction the first region G n and the luminance value than the first region G n not run determines second region H n to perform low luminance value correction. Then, along the luminance distribution B n of the first region G n, to set the normal distribution as expected luminance curve, calculate the expected intensity ratio R n at the representative point P n of the second region H n, the expected brightness Based on the ratio R n , the luminance value of the second region H n is corrected. For this reason, luminance value correction is performed based on the luminance value of a part of the face (first region). As a result, even when the contrast boundary is not along the center axis of the face, the luminance value can be corrected with high accuracy.

ここで、第2領域H内における最大輝度値が検出された位置を代表点Pとしているので、顔画像の検出精度が一層向上されている。最大輝度値が検出された位置は、第2領域H内で最も精度良く輝度値が検出された位置であると想定することができるため、最大輝度値が検出された位置を代表点として、この代表点における予想輝度比Rを算出し、この予想輝度比Rに基づいて、第2領域Hの輝度値を補正することで、顔画像の検出精度を一層向上させることができる。 Here, since the maximum luminance value in the second region H n is a representative point P n of the detected position, the detection accuracy of the face image is further improved. Position where the maximum luminance value is detected, because it can most accurately luminance value in the second region H n is assumed to be position detection, the position at which the maximum luminance value is detected as a representative point, By calculating the expected brightness ratio R n at the representative point and correcting the brightness value of the second region H n based on the expected brightness ratio R n , the detection accuracy of the face image can be further improved.

以上、本発明をその実施形態に基づき具体的に説明したが、本発明は、上記実施形態に限定されるものではない。上記実施形態では、車両を操縦する運転者の顔画像を検出しているが、例えば、飛行機、鉄道、プラント、機械等を扱うその他の運転者、操作者の顔画像を検出する場合に、本発明を適用してもよい。また、建造物の入口等に顔画像撮像カメラを設置し、訪問者の顔画像を検出する場合に本発明を適用してもよい。   As mentioned above, although this invention was concretely demonstrated based on the embodiment, this invention is not limited to the said embodiment. In the above embodiment, the face image of the driver who steers the vehicle is detected. For example, when detecting the face image of other drivers and operators who handle airplanes, railways, plants, machines, etc. The invention may be applied. Further, the present invention may be applied to a case where a face image capturing camera is installed at an entrance of a building and the like and a visitor's face image is detected.

また、上記実施形態では、顔の横方向に輝度分布を生成しているが、顔の上下方向や、その他の方向に、輝度分布を生成してもよい。   In the above embodiment, the luminance distribution is generated in the horizontal direction of the face. However, the luminance distribution may be generated in the vertical direction of the face or in other directions.

また、上記実施形態では、代表点Pにおける輝度値(実輝度値)及び予想輝度値の比である予想輝度比Rを算出し、この予想輝度比Rに基づいて、輝度値の補正を実行しているが、予想輝度値と輝度値との差を算出し、算出された差分を加算することで、輝度値の補正を実行してもよい。 In the above embodiment, an expected brightness ratio R n that is a ratio between the brightness value (actual brightness value) at the representative point P n and the expected brightness value is calculated, and the brightness value is corrected based on the expected brightness ratio R n. However, the correction of the luminance value may be executed by calculating the difference between the predicted luminance value and the luminance value and adding the calculated difference.

また、上記実施形態では、第2領域内における最大輝度値が検出された位置を代表点としているが、予想輝度値と輝度値との差に基づいて、代表点を設定してもよい。   In the above embodiment, the position where the maximum luminance value is detected in the second region is used as the representative point. However, the representative point may be set based on the difference between the predicted luminance value and the luminance value.

また、第1領域及び第2領域を複数に分割することで、輝度値の補正を詳細に行うようにしてもよい。   Further, the luminance value may be corrected in detail by dividing the first area and the second area into a plurality of areas.

また、上記実施形態では、横列A毎に予想輝度比R(補正係数)を設定しているが、一つの横列Aの補正係数を用いて、他の横列Anの輝度値補正を実行してもよい。 Further, in the above embodiment, it is set expected luminance ratio R n (correction factor) for each row A n, by using the correction coefficient of one row A n, perform the brightness value correction of other rows An May be.

また、上記実施形態では、正規分布を予想輝度曲線としているが、その他の近似式を用いて、予想輝度分布を算出してもよい。要は、輝度値補正を実行しない第1領域の輝度分布に基づいて、予想輝度分布を生成すればよい。   In the above-described embodiment, the normal distribution is the expected luminance curve, but the predicted luminance distribution may be calculated using another approximate expression. In short, an expected luminance distribution may be generated based on the luminance distribution of the first region where luminance value correction is not performed.

本発明の実施形態に係る顔画像処理装置を示すブロック図である。It is a block diagram which shows the face image processing apparatus which concerns on embodiment of this invention. 顔画像撮像カメラによって撮像された顔画像の一例を示すものであり、輝度補正実行前の顔画像を示す図である。It is a figure which shows an example of the face image imaged with the face image pick-up camera, and shows the face image before luminance correction execution. 撮像された顔画像に基づいて生成された輝度分布を示すグラフである。It is a graph which shows the luminance distribution produced | generated based on the imaged face image. 予想輝度曲線を示すグラフである。It is a graph which shows an estimated brightness | luminance curve. 予想輝度曲線に基づいて補正された輝度分布を示すグラフである。It is a graph which shows the luminance distribution corrected based on the expected luminance curve. 顔画像撮像カメラによって撮像された顔画像の一例を示すものであり、輝度補正実行後の顔画像を示す図である。It is a figure which shows an example of the face image imaged with the face image imaging camera, and shows the face image after brightness correction execution. 顔画像処理ECUで実行されるメイン処理の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the main process performed by face image process ECU. 顔画像処理ECUで実行される輝度値補正処理の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the luminance value correction process performed by face image process ECU.

符号の説明Explanation of symbols

10…顔画像処理装置、12…顔画像撮像カメラ、14…顔画像処理ECU、16…コラムカバー、18…記憶部、20…輝度分布生成部、22…補正領域判定部、24…予想輝度曲線生成部、26…輝度値比較部、28…輝度値補正部、30…画像処理部、A…顔領域の横方向に延在する列、B…輝度分布、C…補正後の輝度分布、D…運転者、E…顔領域、E…顔輪郭エッジ、G…補正を必要としない領域(第1の領域)、H…補正を必要とする領域(第2の領域)、J…予想輝度曲線(予想輝度分布)、K…立ち上がり部、P…代表点、R…予想輝度比(補正係数)、S…代表点における輝度値、T…代表点における予想輝度値。 DESCRIPTION OF SYMBOLS 10 ... Face image processing apparatus, 12 ... Face image pick-up camera, 14 ... Face image processing ECU, 16 ... Column cover, 18 ... Memory | storage part, 20 ... Luminance distribution generation part, 22 ... Correction area | region determination part, 24 ... Expected luminance curve Generation unit 26 ... Luminance value comparison unit 28 ... Luminance value correction unit 30 ... Image processing unit A n ... Column extending in the horizontal direction of the face area, B n ... Luminance distribution, C n ... Luminance after correction distribution, D ... driver, E ... face area, E 1 ... facial contour edges, G n ... areas that do not require correction (first region), the area in need of H n ... correction (second region) , J n ... predicted luminance curve (expected luminance distribution), K n ... rising edge, P n ... representative point, R n ... expected luminance ratio (correction coefficient), S n ... luminance value at representative point, T n ... representative point Expected brightness value at.

Claims (3)

撮像された画像に基づいて顔画像を検出する顔画像検出方法において、
前記画像の一方向の輝度分布を生成する輝度分布生成工程と、
前記輝度分布に基づいて、輝度値の補正を実行しない第1の領域及び前記第1の領域より輝度値が低く輝度値の補正を実行する第2の領域を判定する補正領域判定工程と、
前記第1の領域における輝度分布に基づいて予想された前記一方向の予想輝度値の分布である予想輝度分布を演算する予想輝度分布演算工程と、
前記第2の領域の代表点における輝度値及び予測輝度値を比較する輝度値比較工程と、
前記輝度値比較工程による比較結果に基づいて、前記第2の領域の輝度値を補正する輝度値補正工程と、を備えることを特徴とする顔画像検出方法。
In a face image detection method for detecting a face image based on a captured image,
A luminance distribution generation step for generating a luminance distribution in one direction of the image;
A correction area determination step for determining a first area where the correction of the luminance value is not performed based on the luminance distribution and a second area where the luminance value is lower than that of the first area and where the correction of the luminance value is performed;
An expected luminance distribution calculating step of calculating an expected luminance distribution which is a distribution of expected luminance values in the one direction predicted based on the luminance distribution in the first region;
A luminance value comparison step of comparing a luminance value and a predicted luminance value at a representative point of the second region;
A face image detection method comprising: a brightness value correction step of correcting the brightness value of the second region based on a comparison result in the brightness value comparison step.
前記代表点は、前記第2の領域内における最大輝度値が検出された位置であることを特徴とする請求項1記載の顔画像検出方法。   The face image detection method according to claim 1, wherein the representative point is a position where a maximum luminance value is detected in the second region. 撮像された画像に基づいて顔画像を検出する顔画像処理装置において、
前記画像の一方向の輝度分布を生成する輝度分布生成手段と、
前記輝度分布に基づいて、輝度値の補正を実行しない第1の領域及び前記第1の領域より輝度値が低く輝度値の補正を実行する第2の領域を判定する補正領域判定手段と、
前記第1の領域における輝度分布に基づいて予想された前記一方向の予想輝度値の分布である予想輝度分布を演算する予想輝度分布演算手段と、
前記第2の領域の代表点における輝度値及び予想輝度値を比較する輝度値比較手段と、
前記輝度値比較手段による比較結果に基づいて、前記第2の領域の輝度値を補正する輝度値補正手段と、を備えることを特徴とする顔画像処理装置。
In a face image processing apparatus that detects a face image based on a captured image,
A luminance distribution generating means for generating a luminance distribution in one direction of the image;
A correction area determination unit that determines a first area that does not execute correction of a luminance value based on the luminance distribution and a second area that has a luminance value lower than that of the first area and performs correction of the luminance value;
Expected luminance distribution calculating means for calculating an expected luminance distribution that is a distribution of expected luminance values in one direction predicted based on the luminance distribution in the first region;
A luminance value comparing means for comparing the luminance value at the representative point of the second region and the expected luminance value;
A face image processing apparatus comprising: a brightness value correcting unit that corrects a brightness value of the second region based on a comparison result by the brightness value comparing unit.
JP2007185967A 2007-07-17 2007-07-17 Face image detection method and face image processor Pending JP2009025894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007185967A JP2009025894A (en) 2007-07-17 2007-07-17 Face image detection method and face image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007185967A JP2009025894A (en) 2007-07-17 2007-07-17 Face image detection method and face image processor

Publications (1)

Publication Number Publication Date
JP2009025894A true JP2009025894A (en) 2009-02-05

Family

ID=40397670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007185967A Pending JP2009025894A (en) 2007-07-17 2007-07-17 Face image detection method and face image processor

Country Status (1)

Country Link
JP (1) JP2009025894A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013140824A1 (en) * 2012-03-22 2013-09-26 株式会社日立ソリューションズ Image analysis device, image analysis method and program
WO2018159037A1 (en) * 2017-03-01 2018-09-07 オムロン株式会社 Facial detection device, and control method and program for same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013140824A1 (en) * 2012-03-22 2013-09-26 株式会社日立ソリューションズ Image analysis device, image analysis method and program
US9189877B2 (en) 2012-03-22 2015-11-17 Hitachi Solutions, Ltd. Pixel analysis and image transformation device and method
WO2018159037A1 (en) * 2017-03-01 2018-09-07 オムロン株式会社 Facial detection device, and control method and program for same
JP2018147046A (en) * 2017-03-01 2018-09-20 オムロン株式会社 Face detection device and method for controlling the same

Similar Documents

Publication Publication Date Title
JP2009159496A5 (en)
JP5435307B2 (en) In-vehicle camera device
US8411911B2 (en) Image processing apparatus, image processing method, and storage medium for storing program
WO2010100842A1 (en) Image capturing device, operator monitoring device, method for measuring distance to face, and program
JP5466610B2 (en) Gaze estimation device
JP2009130845A5 (en)
JP2011165050A (en) White line recognition device
JP2013005234A5 (en)
WO2016027408A1 (en) Image processing apparatus, and failure diagnosis method for image processing apparatus
JP2010134490A (en) Detection device and method, and program
US9147115B2 (en) Method and device for detecting an object in an image
CN110199318B (en) Driver state estimation device and driver state estimation method
KR20130090615A (en) Exposure measuring method and apparatus based on the composition for automatic image correction
TWI472989B (en) Image adjusting method and optical navigating apparatus utlizing the image adjusting method
JP2009025894A (en) Face image detection method and face image processor
JP2015018084A5 (en) Imaging apparatus, camera system, and image processing method
JP4871315B2 (en) Compound eye photographing apparatus, control method therefor, and program
JP2008042227A (en) Imaging apparatus
US11575841B2 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP4825737B2 (en) Eye opening degree determination device
JP5004099B2 (en) Cursor movement control method and cursor movement control apparatus
JP5519413B2 (en) Pupil concealed state detection device and in-vehicle camera equipped with the same
JP2009009206A (en) Extraction method of outline inside image and image processor therefor
JP2011118767A (en) Facial expression monitoring method and facial expression monitoring apparatus
JP5145194B2 (en) Face detection system