JP5396298B2 - Face orientation detection device - Google Patents

Face orientation detection device Download PDF

Info

Publication number
JP5396298B2
JP5396298B2 JP2010023530A JP2010023530A JP5396298B2 JP 5396298 B2 JP5396298 B2 JP 5396298B2 JP 2010023530 A JP2010023530 A JP 2010023530A JP 2010023530 A JP2010023530 A JP 2010023530A JP 5396298 B2 JP5396298 B2 JP 5396298B2
Authority
JP
Japan
Prior art keywords
face
search line
search
coordinate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010023530A
Other languages
Japanese (ja)
Other versions
JP2011164711A (en
Inventor
信介 植田
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010023530A priority Critical patent/JP5396298B2/en
Publication of JP2011164711A publication Critical patent/JP2011164711A/en
Application granted granted Critical
Publication of JP5396298B2 publication Critical patent/JP5396298B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、顔向き検知装置に関する。   The present invention relates to a face orientation detection device.

従来、例えばひとの顔の顔画像において縦エッジ検出を行なって顔の左右の仮の輪郭位置を検出し、仮の輪郭位置周辺の画素に基づき輪郭位置の複数の候補位置を決定し、複数の候補位置に対する統計処理によって左右端の輪郭位置を抽出する装置が知られている(例えば、特許文献1参照)。   Conventionally, for example, vertical edge detection is performed on a face image of a human face to detect provisional contour positions on the left and right of the face, and a plurality of candidate positions for the contour position are determined based on pixels around the provisional contour position. An apparatus is known that extracts contour positions at the left and right ends by statistical processing on candidate positions (see, for example, Patent Document 1).

特開2007−139535号公報JP 2007-139535 A

ところで、上記従来技術に係る装置によれば、顔の左右端を検出する際に、先ず、顔画像に対して縦エッジ検出を行なっている。しかしながら、例えばひとの着衣や手などによって顔の一部が覆われている場合には、顔上に縦エッジが検出されることになり、顔の左右端に対応する縦エッジとは異なる縦エッジが誤検出されてしまうことで、左右端の輪郭位置を精度良く抽出することができないという問題が生じる。   By the way, according to the apparatus according to the prior art, when detecting the left and right ends of the face, first, vertical edge detection is performed on the face image. However, for example, when a part of the face is covered by a person's clothes or hands, a vertical edge is detected on the face, and the vertical edge is different from the vertical edges corresponding to the left and right edges of the face. Is erroneously detected, which causes a problem that the contour positions at the left and right ends cannot be accurately extracted.

本発明は上記事情に鑑みてなされたもので、ひとの顔の左右の顔端位置を精度良く検出し、顔向き方向の検知精度を向上させることが可能な顔向き検知装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a face orientation detection device capable of accurately detecting the left and right face edge positions of a human face and improving the detection accuracy of the face orientation. Objective.

上記課題を解決して係る目的を達成するために、本発明の第1態様に係る顔向き検知装置は、ひとの顔を撮像して顔画像を出力する撮像手段(例えば、実施の形態での乗員カメラ12)と、該撮像手段から出力された前記顔画像に基づき前記ひとの顔中心位置及び顔端位置を検出して検出結果を出力する位置検出手段(例えば、実施の形態での顔中心位置検出部22、顔端位置検出部24)と、該位置検出手段から出力された前記検出結果に基づき、前記ひとの顔向き方向を検知する顔向き検知手段(例えば、実施の形態での顔向き検知部25)とを備える顔向き検知装置であって、前記撮像手段から出力された前記顔画像において該顔画像に含まれる前記ひとの顔を横断する複数の探索線を設定する探索線設定手段(例えば、実施の形態での探索線設定部23)を備え、前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線に基づき複数の前記顔端位置を検出して検出結果を出力し、前記顔向き検知手段は、前記位置検出手段から出力された複数の前記検出結果に基づき複数の前記顔向き方向を検知し、該複数の前記顔向き方向の中央値を前記ひとの前記顔向き方向として検知する。   In order to solve the above-described problems and achieve the object, the face orientation detection device according to the first aspect of the present invention is an imaging means that images a human face and outputs a face image (for example, in the embodiment) An occupant camera 12) and position detection means for detecting the face center position and the face edge position of the person based on the face image output from the imaging means and outputting a detection result (for example, the face center in the embodiment) A position detection unit 22 and a face edge position detection unit 24) and a face direction detection unit (for example, a face in the embodiment) that detects the face direction of the person based on the detection result output from the position detection unit. A face direction detection device including a direction detection unit 25), wherein a search line setting for setting a plurality of search lines crossing the human face included in the face image in the face image output from the imaging unit Means (eg in the embodiment A search line setting unit (23), wherein the position detection means detects a plurality of face edge positions based on the plurality of search lines set by the search line setting means and outputs detection results, The detection means detects a plurality of face orientation directions based on the plurality of detection results output from the position detection means, and detects a median value of the plurality of face orientation directions as the face orientation direction of the person. .

さらに、本発明の第2態様に係る顔向き検知装置では、前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線のうち、該探索線の長さが所定範囲内であって、かつ、前記探索線の左端が前記顔中心位置よりも左側に存在し、かつ、前記探索線の右端が前記顔中心位置よりも右側に存在する前記複数の前記探索線に基づき、前記複数の前記顔端位置を検出する。   Furthermore, in the face orientation detection device according to the second aspect of the present invention, the position detection means has a length of the search line within a predetermined range among the plurality of search lines set by the search line setting means. And the left end of the search line is on the left side of the face center position, and the right end of the search line is on the right side of the face center position. A plurality of face edge positions are detected.

本発明の第1態様に係る顔向き検知装置によれば、ひとの顔を横断する複数の探索線毎に検出される顔端位置に基づいて検知される複数の顔向き方向の中央値を、最終的にひとの顔向き方向とすることから、例えば顔の特定箇所や顔の左右の最端位置のみから顔向き方向を検知する場合に比べて、検知精度および検知結果の信頼性を向上させることができる。   According to the face direction detection device according to the first aspect of the present invention, the median values of the plurality of face direction directions detected based on the face edge positions detected for each of the plurality of search lines crossing the human face are obtained. Since the direction of the human face is ultimately set, the detection accuracy and the reliability of the detection result are improved compared to the case where the face direction is detected only from a specific part of the face or the left and right end positions of the face, for example. be able to.

さらに、本発明の第2態様に係る顔向き検知装置によれば、複数の探索線のうちから、長さが所定範囲内かつ左端が顔中心位置よりも左側かつ右端が顔中心位置よりも右側である探索線以外の探索線を除外することにより、複数の探索線毎に検出される顔端位置の検出精度を向上させることができる。   Furthermore, according to the face direction detection device according to the second aspect of the present invention, the length is within a predetermined range, the left end is on the left side of the face center position, and the right end is on the right side of the face center position among the plurality of search lines. By excluding search lines other than the search line, it is possible to improve the detection accuracy of the face edge position detected for each of the plurality of search lines.

本発明の実施の形態に係る顔向き検知装置の構成図である。It is a block diagram of the face direction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る顔画像における複数の探索線を示す図である。It is a figure which shows the several search line in the face image which concerns on embodiment of this invention. 本発明の実施の形態に係る運転席に着座した運転者の正面方向に対する顔向き方向のなす角度θの一例を示す図である。It is a figure which shows an example of angle (theta) which the face direction direction makes | forms with respect to the front direction of the driver | operator who seated on the driver's seat which concerns on embodiment of this invention. 本発明の実施の形態に係る顔向き検知装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the face direction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る各探索線の顔端位置検出の処理を示すフローチャートである。It is a flowchart which shows the process of the face edge position detection of each search line which concerns on embodiment of this invention. 本発明の実施の形態に係る探索線上の輝度マップ作成の処理を示すフローチャートである。It is a flowchart which shows the process of the brightness | luminance map creation on the search line which concerns on embodiment of this invention. 本発明の実施の形態に係る顔左右端検出の処理を示すフローチャートである。It is a flowchart which shows the process of the face left and right edge detection which concerns on embodiment of this invention. 本発明の実施の形態に係る顔左右端検出の処理を示すフローチャートである。It is a flowchart which shows the process of the face left and right edge detection which concerns on embodiment of this invention.

以下、本発明の顔向き検知装置の一実施形態について添付図面を参照しながら説明する。
本実施の形態による顔向き検知装置10は、例えば図1に示すように、撮像制御装置11と、乗員カメラ12と、光源制御装置13と、撮像用光源14と、処理装置15とを備えて構成され、さらに、処理装置15は、両眼検出部21と、顔中心位置検出部22と、探索線設定部23と、顔端位置検出部24と、顔向き検知部25とを備えて構成されている。
Hereinafter, an embodiment of a face direction detection device of the present invention will be described with reference to the accompanying drawings.
As shown in FIG. 1, for example, the face orientation detection device 10 according to the present exemplary embodiment includes an imaging control device 11, an occupant camera 12, a light source control device 13, an imaging light source 14, and a processing device 15. The processing device 15 further includes a binocular detection unit 21, a face center position detection unit 22, a search line setting unit 23, a face edge position detection unit 24, and a face direction detection unit 25. Has been.

撮像制御装置11により制御される乗員カメラ12は、例えば車室内のインスツルメントパネルに配置され、少なくとも車両の運転席に着座した運転者の顔を撮像対象として撮像領域内に含み、例えば可視光領域または赤外線領域にて撮像可能であって、運転者の顔を含む顔画像を出力する。
光源制御装置13により制御される撮像用光源14は、例えば車室内のインスツルメントパネルにおいて乗員カメラ12から左右にずれた位置に配置され、少なくとも車両の運転席に着座した運転者に向かい、例えば可視光線または赤外線などの光を照射可能である。
The occupant camera 12 controlled by the imaging control device 11 is disposed, for example, on an instrument panel in the passenger compartment, and includes at least the face of the driver seated in the driver's seat of the vehicle in the imaging region as an imaging target. The face image including the driver's face can be output in the region or the infrared region.
The imaging light source 14 controlled by the light source control device 13 is disposed, for example, at a position shifted from the occupant camera 12 on the instrument panel in the passenger compartment to the left and right, and faces at least the driver seated in the driver's seat of the vehicle. Light such as visible light or infrared light can be irradiated.

処理装置15の両眼検出部21は、例えば乗員カメラ12から出力された顔画像に対して、例えば運転者の眼球を検知対象物とした特徴量算出および形状判別等の認識処理を行ない、左右の眼の位置(例えば、虹彩の中心位置や、角膜表面における赤外線の反射像であるプルキニエ像の中心位置や、眼球中心位置など)を検出する。   The binocular detection unit 21 of the processing device 15 performs recognition processing such as feature amount calculation and shape determination using, for example, a driver's eyeball as a detection target on the face image output from the occupant camera 12, for example. The position of the eye (for example, the center position of the iris, the center position of the Purkinje image, which is an infrared reflection image on the cornea surface, the center position of the eyeball, etc.) is detected.

顔中心位置検出部22は、例えば図2(A)に示すように、両眼検出部21により検出された運転者の左右の眼の位置EL,ERの中心を算出し、この算出結果を運転者の顔中心位置FCとして出力する。   For example, as shown in FIG. 2A, the face center position detection unit 22 calculates the centers of the left and right eye positions EL and ER of the driver detected by the binocular detection unit 21, and uses the calculated results as driving. Is output as the person's face center position FC.

探索線設定部23は、例えば図2(B)に示すように、乗員カメラ12から出力された顔画像FPにおいて、運転者の顔を横断する複数の探索線SLを設定する。なお、各探索線SLは、例えば、顔画像FPの縦方向の各画素毎に1画素分の縦幅を有して左右方向に伸びる線とされている。なお、各探索線の縦幅は1画素分に限定されず、他の縦幅であってもよい。
また、探索線設定部23は、例えば顔中心位置検出部22により検出された顔中心位置FCを含む所定範囲CA内などの所定の縦方向位置(例えば、眼などが存在することに起因して左右方向での輝度の変動が所定変動以上となる可能性が高い位置など)以外において探索線SLを設定する。
For example, as shown in FIG. 2B, the search line setting unit 23 sets a plurality of search lines SL crossing the driver's face in the face image FP output from the occupant camera 12. Each search line SL is, for example, a line having a vertical width of one pixel for each pixel in the vertical direction of the face image FP and extending in the left-right direction. Note that the vertical width of each search line is not limited to one pixel, and may be other vertical widths.
Further, the search line setting unit 23 is caused by, for example, the presence of a predetermined vertical position (for example, an eye) within a predetermined range CA including the face center position FC detected by the face center position detection unit 22. The search line SL is set at a position other than a position where the luminance variation in the left-right direction is likely to be equal to or greater than the predetermined variation.

顔端位置検出部24は、所定条件を満たさない探索線(例えば、図2(C)に示す探索線SL1,SL2など)は除外しつつ、複数の各探索線毎に顔の左右端(左右の顔端位置)FL,FRを検出する。なお、所定条件は、顔左端が顔中心位置検出部22により検出された顔中心位置FCよりも左側に存在し、顔右端が顔中心位置検出部22により検出された顔中心位置FCよりも右側に存在し、顔左端と顔右端との間の距離が所定範囲内であることなどである。   The face edge position detection unit 24 excludes search lines that do not satisfy the predetermined condition (for example, search lines SL1 and SL2 shown in FIG. 2C), and the left and right edges (left and right) of the face for each of the plurality of search lines. Face end position) FL and FR are detected. The predetermined condition is that the left end of the face is on the left side of the face center position FC detected by the face center position detection unit 22 and the right end of the face is on the right side of the face center position FC detected by the face center position detection unit 22. And the distance between the left end of the face and the right end of the face is within a predetermined range.

顔向き検知部25は、複数の各探索線毎に、顔中心位置検出部22により検出された顔中心位置FCと、顔端位置検出部24により検出された左右の顔端位置FL,FRとに基づき、例えばひとの顔をシリンダー形状に近似して顔向きを算出するシリンダー法などによって、運転者の顔向き方向を検知する。   The face direction detection unit 25 detects the face center position FC detected by the face center position detection unit 22 and the left and right face end positions FL and FR detected by the face end position detection unit 24 for each of a plurality of search lines. Based on the above, the direction of the driver's face is detected by, for example, a cylinder method for calculating the face direction by approximating a human face to a cylinder shape.

顔向き検知部25は、例えば図3に示すように、左右の顔端位置FL,FR間の中央位置COと顔中心位置FCとの間の左右方向での距離を顔中心のずれrとし、左右の顔端位置FL,FR間の距離を顔の幅2Rとし、中央位置COから乗員カメラ12に向かう方向が運転席に着座した運転者の正面方向に対してなす角度αと、顔中心のずれrと顔の幅2Rとに基づき、運転席に着座した運転者の正面方向に対する顔向き方向のなす角度θを算出する。例えば角度β=90−αとして、正弦定理による下記数式(1)を変形して下記数式(2)が得られ、この下記数式(2)から角度θが下記数式(3)に示すように記述される。   For example, as shown in FIG. 3, the face direction detection unit 25 sets the distance in the left-right direction between the center position CO between the left and right face edge positions FL and FR and the face center position FC as a face center shift r, The distance between the left and right face edge positions FL and FR is the face width 2R, and the angle α formed by the direction from the center position CO toward the passenger camera 12 with respect to the front direction of the driver seated in the driver's seat is Based on the shift r and the face width 2R, an angle θ formed by the face direction with respect to the front direction of the driver seated in the driver's seat is calculated. For example, assuming that the angle β = 90−α, the following formula (1) by the sine theorem is modified to obtain the following formula (2), and the angle θ is described from the following formula (2) as shown in the following formula (3). Is done.

Figure 0005396298
Figure 0005396298

Figure 0005396298
Figure 0005396298

Figure 0005396298
Figure 0005396298

そして、顔向き検知部25は、最終的に、複数の顔向き方向に基づき、これらの顔向き方向の中央値を、運転者の顔向き方向として検知する。   Then, the face direction detection unit 25 finally detects the median value of these face direction directions as the driver's face direction direction based on a plurality of face direction directions.

この実施の形態による顔向き検知装置10は上記構成を備えており、次に、この顔向き検知装置10の動作について説明する。   The face orientation detection device 10 according to this embodiment has the above-described configuration. Next, the operation of the face orientation detection device 10 will be described.

先ず、例えば図4に示すステップS01においては、乗員カメラ12から出力された顔画像に基づき、顔中心位置を取得する。
次に、ステップS02においては、顔中心位置を含む周辺の所定範囲内での輝度の中央値を検出する。
次に、ステップS03においては、乗員カメラ12から出力された顔画像において、運転者の顔を横断する複数の探索線を設定するための縦方向位置を設定する。
First, for example, in step S01 shown in FIG. 4, the face center position is acquired based on the face image output from the occupant camera 12.
Next, in step S02, a median luminance is detected within a predetermined range around the face center position.
Next, in step S03, in the face image output from the occupant camera 12, vertical positions for setting a plurality of search lines that cross the driver's face are set.

次に、ステップS04においては、後述する各探索線の顔端位置検出の処理を実行する。
次に、ステップS05においては、各探索線の顔端位置毎に顔向き方向を検知する。
次に、ステップS06においては、複数の顔向き方向に基づき、これらの顔向き方向の中央値を、運転者の顔向き方向として検出し、エンドに進む。
Next, in step S04, processing for detecting the face edge position of each search line, which will be described later, is executed.
Next, in step S05, the face direction is detected for each face end position of each search line.
Next, in step S06, based on a plurality of face direction directions, the median value of these face direction directions is detected as the driver's face direction direction, and the process proceeds to the end.

以下に、上述したステップS04での各探索線の顔端位置検出の処理について説明する。
例えば図5に示すステップS11においては、全ての探索線に対して以下のステップS12〜ステップS15の処理が終了したか否かを判定する。
この判定結果が「YES」の場合には、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS12に進む。
そして、ステップS12においては、後述する探索線上の輝度マップ作成の処理を実行する。
次に、ステップS13においては、顔左右端検出の処理を実行する。
Hereinafter, the process of detecting the face edge position of each search line in step S04 described above will be described.
For example, in step S11 shown in FIG. 5, it is determined whether or not the following steps S12 to S15 have been completed for all search lines.
If this determination is “YES”, the flow proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step S 12.
In step S12, a process for creating a luminance map on the search line, which will be described later, is executed.
Next, in step S13, processing for detecting the left and right edges of the face is executed.

次に、ステップS14においては、顔左右端(左右の顔端位置)が検出されたか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS18に進む。
一方、この判定結果が「NO」の場合には、ステップS15に進む。
そして、ステップS15においては、この時点での輝度閾値を変更する。
そして、ステップS16においては、後述する探索線上の輝度マップ作成の処理を実行する。
次に、ステップS17においては、顔左右端検出の処理を実行する。
そして、ステップS18においては、次の探索線に移動して、上述したステップS11に戻る。
Next, in step S14, it is determined whether the left and right edges of the face (left and right face edge positions) have been detected.
If this determination is “YES”, the flow proceeds to step S 18 described later.
On the other hand, if this determination is “NO”, the flow proceeds to step S15.
In step S15, the brightness threshold at this point is changed.
In step S16, a brightness map creation process on the search line, which will be described later, is executed.
Next, in step S17, processing for detecting the left and right edges of the face is executed.
And in step S18, it moves to the next search line and returns to step S11 mentioned above.

以下に、上述したステップS12での探索線上の輝度マップ作成の処理について説明する。
先ず、例えば図6に示すステップS21においては、画像処理範囲を探索線に設定する。
次に、ステップS22においては、例えばメディアンフィルタなどによりノイズ除去の処理を行なう。

次に、ステップS23においては、例えば上述したステップS02にて算出した輝度の中央値などに基づき、輝度に対して各種処理(例えば、顔左右端検出の処理)の実行可否を示す輝度閾値、つまり運転者の顔であると判定する輝度範囲を示す輝度閾値を設定する。
Hereinafter, the process of creating the luminance map on the search line in step S12 described above will be described.
First, for example, in step S21 shown in FIG. 6, the image processing range is set as a search line.
Next, in step S22, noise removal processing is performed using, for example, a median filter.

Next, in step S23, for example, based on the median luminance calculated in step S02 described above, a luminance threshold indicating whether or not various processes (for example, face left and right edge detection processing) can be performed on the luminance, that is, A luminance threshold value indicating a luminance range determined to be the driver's face is set.

次に、ステップS24においては、探索線上の輝度に対して、輝度閾値に応じた輝度範囲内の輝度を所定値(例えば、255)とし、輝度範囲外の輝度をゼロとする、いわば2値化の処理などにより、輝度を変換する。
次に、ステップS25においては、例えばモルフォロジーフィルタなどにより、探索線上の変換後の輝度の平滑化を行ない、リターンに進む。
Next, in step S24, the luminance within the luminance range corresponding to the luminance threshold is set to a predetermined value (for example, 255) and the luminance outside the luminance range is set to zero with respect to the luminance on the search line. The luminance is converted by the above process.
Next, in step S25, the luminance after conversion on the search line is smoothed by, for example, a morphological filter, and the process proceeds to return.

以下に、上述したステップS13での顔左右端検出の処理について説明する。
先ず、例えば図7に示すステップS31においては、探索線上の左右の横方向の座標Xの値をゼロとして初期化を行なう。
次に、ステップS32においては、座標Xの値が所定の画像幅の値(つまり、顔画像の横幅の値)よりも小さいか否か、つまり座標Xの値が顔画像の右端(画像右端)の座標の値よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS41に進む。
一方、この判定結果が「YES」の場合には、ステップS33に進む。
Hereinafter, the process of detecting the left and right ends of the face in step S13 described above will be described.
First, for example, in step S31 shown in FIG. 7, initialization is performed by setting the value of the horizontal coordinate X on the search line to zero.
Next, in step S32, whether or not the value of the coordinate X is smaller than a predetermined image width value (that is, the width value of the face image), that is, the value of the coordinate X is the right end of the face image (the right end of the image). It is determined whether or not the value is smaller than the coordinate value of.
If this determination is “NO”, the flow proceeds to step S 41 described later.
On the other hand, if the determination is “YES”, the flow proceeds to step S33.

次に、ステップS33においては、顔左端を検出済みであるか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS37に進む。
一方、この判定結果が「NO」の場合には、ステップS34に進む。
次に、ステップS34においては、座標Xの輝度が所定値(つまり、上述したステップS25にて設定される所定値であって、例えば、255)、かつ、座標Xが顔中心位置の座標(つまり横方向の座標)よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS36に進む。
一方、この判定結果が「YES」の場合には、ステップS35に進む。
Next, in step S33, it is determined whether or not the left edge of the face has been detected.
If this determination is “YES”, the flow proceeds to step S 37 described later.
On the other hand, if this determination is “NO”, the flow proceeds to step S 34.
Next, in step S34, the luminance of the coordinate X is a predetermined value (that is, the predetermined value set in step S25 described above, for example, 255), and the coordinate X is the coordinate of the face center position (that is, It is determined whether or not it is smaller than the horizontal coordinate.
If this determination is “NO”, the flow proceeds to step S 36 described later.
On the other hand, if the determination is “YES”, the flow proceeds to step S35.

そして、ステップS35においては、座標Xを顔左端の座標(つまり横方向の座標)として設定する。
そして、ステップS36においては、座標Xに「1」を加算して得た値を、新たに座標Xの値として設定して、上述したステップS32に戻る。
なお、顔画像の左右の横方向の座標の値は、左側から右側に向かい増大するように設定されている。
In step S35, the coordinate X is set as the coordinate of the left end of the face (that is, the horizontal coordinate).
In step S36, a value obtained by adding "1" to the coordinate X is newly set as the value of the coordinate X, and the process returns to the above-described step S32.
Note that the horizontal coordinate values of the face image are set to increase from the left side to the right side.

また、ステップS37においては、座標Xの輝度がゼロ(つまり、上述したステップS25にて設定される値であるゼロ)であるか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS36に戻る。
一方、この判定結果が「YES」の場合には、ステップS38に進む。
次に、ステップS38においては、(座標X−顔左端の座標)が所定の顔幅以下であるか否かを判定する。
この判定結果が「YES」の場合には、ステップS39に進み、このステップS39においては、座標Xを顔右端の座標(つまり横方向の座標)として設定し、ステップS41に進む。
一方、この判定結果が「NO」の場合には、ステップS40に進み、このステップS40においては、顔左端の座標にゼロを設定する初期化を行ない、ステップS41に進む。
In step S37, it is determined whether or not the luminance of the coordinate X is zero (that is, zero which is the value set in step S25 described above).
If this determination is “NO”, the flow returns to step S 36 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S38.
Next, in step S38, it is determined whether (coordinate X−coordinate of the left end of the face) is equal to or smaller than a predetermined face width.
If the determination result is “YES”, the process proceeds to step S39. In this step S39, the coordinate X is set as the coordinate of the right end of the face (that is, the horizontal coordinate), and the process proceeds to step S41.
On the other hand, if this determination is “NO”, the flow proceeds to step S 40, and in this step S 40, initialization is performed to set the coordinate of the left end of the face to zero, and the flow proceeds to step S 41.

そして、ステップS41においては、顔左端のみ検出されているか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS44に進む。
一方、この判定結果が「YES」の場合には、ステップS42に進む。
そして、ステップS42においては、(画像右端の座標−顔左端の座標)が所定の顔幅以下であるか否かを判定する。
この判定結果が「NO」の場合、つまり顔画像において運転者の顔が画像右端で見切れている場合には、後述するステップS44に進む。
一方、この判定結果が「YES」の場合には、ステップS43に進む。
そして、ステップS43においては、画像右端の座標を顔右端の座標として設定し、ステップS44に進む。
In step S41, it is determined whether only the left edge of the face is detected.
If this determination is “NO”, the flow proceeds to step S 44 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S42.
In step S42, it is determined whether or not (coordinate of the right end of the image−coordinate of the left end of the face) is equal to or smaller than a predetermined face width.
If this determination result is “NO”, that is, if the driver's face is completely disregarded at the right end of the face image, the process proceeds to step S44 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S43.
In step S43, the coordinates of the right edge of the image are set as the coordinates of the right edge of the face, and the process proceeds to step S44.

そして、例えば図7に示すステップS44においては、顔右端が検出されているか否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS45に進む。
そして、ステップS45においては、上述したステップS24での輝度の変換前の顔画像において、探索線周辺の所定範囲内の輝度を取得する。
次に、ステップS46においては、座標Xに顔左端の座標を設定する。
Then, for example, in step S44 shown in FIG. 7, it is determined whether or not the right edge of the face has been detected.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S45.
In step S45, the luminance within a predetermined range around the search line is acquired in the face image before the luminance conversion in step S24 described above.
Next, in step S46, the coordinate of the left end of the face is set as the coordinate X.

そして、ステップS47においては、座標Xと、この座標Xの左隣の座標(X−1)との輝度差が所定差以上であるか、または、座標Xの輝度が座標(X−1)の輝度よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS49に進む。
一方、この判定結果が「YES」の場合には、ステップS48に進む。
そして、ステップS48においては、顔右端の座標を座標Xとして設定し、後述するステップS51に進む。
また、ステップS49においては、座標Xの値から「1」を減算して得た値(X−1)を、新たに座標Xとして設定する。
そして、ステップS50においては、座標Xを顔左端の座標として設定し、ステップS47に戻る。
In step S47, the luminance difference between the coordinate X and the coordinate (X-1) adjacent to the left of the coordinate X is equal to or greater than a predetermined difference, or the luminance of the coordinate X is equal to It is determined whether it is smaller than the luminance.
If this determination is “NO”, the flow proceeds to step S 49 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S48.
In step S48, the coordinate of the right end of the face is set as the coordinate X, and the process proceeds to step S51 described later.
In step S49, a value (X-1) obtained by subtracting "1" from the value of coordinate X is newly set as coordinate X.
In step S50, the coordinate X is set as the coordinate of the left end of the face, and the process returns to step S47.

そして、ステップS51においては、座標Xと、この座標Xの右隣の座標(X+1)との輝度差が所定差以上であるか、または、座標Xの輝度が座標(X+1)の輝度よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、ステップS52に進み、このステップS52においては、座標Xの値に「1」を加算して得た値(X+1)を、新たに座標Xとして設定する。
そして、ステップS53においては、座標Xを顔右端の座標として設定し、上述したステップS51に戻る。
In step S51, the luminance difference between the coordinate X and the coordinate (X + 1) to the right of the coordinate X is greater than or equal to a predetermined difference, or the luminance of the coordinate X is smaller than the luminance of the coordinate (X + 1). It is determined whether or not.
If this determination is “NO”, the flow proceeds to step S 52, where a value (X + 1) obtained by adding “1” to the value of the coordinate X is newly set as the coordinate X. .
In step S53, the coordinate X is set as the coordinate of the right end of the face, and the process returns to step S51 described above.

上述したように、本実施の形態による顔向き検知装置10によれば、運転者の顔を横断する複数の探索線毎に検出される顔端位置に基づいて検知される複数の顔向き方向の中央値を、最終的に運転者の顔向き方向とすることから、例えば顔の特定箇所や顔の左右の最端位置のみから顔向き方向を検知する場合に比べて、検知精度および検知結果の信頼性を向上させることができる。
さらに、複数の探索線のうちから、顔左端と顔右端との間の距離が所定範囲内かつ左端が顔中心位置よりも左側かつ右端が顔中心位置よりも右側である探索線以外の探索線を除外することにより、複数の探索線毎に検出される左右の顔端位置の検出精度を向上させることができる。
As described above, according to the face direction detection device 10 according to the present embodiment, a plurality of face direction directions detected based on the face edge positions detected for each of the plurality of search lines crossing the driver's face. Since the median is finally set as the driver's face direction, the detection accuracy and the detection result are higher than when detecting the face direction only from a specific part of the face or the left and right end positions of the face, for example. Reliability can be improved.
Furthermore, a search line other than the search line whose distance between the left end of the face and the right end of the face is within a predetermined range, the left end is on the left side of the face center position, and the right end is on the right side of the face center position among the plurality of search lines. By excluding, the detection accuracy of the left and right face edge positions detected for each of the plurality of search lines can be improved.

10 顔向き検知装置
12 乗員カメラ(撮像手段)
22 顔中心位置検出部(位置検出手段)
23 探索線設定部(探索線設定手段)
24 顔端位置検出部(位置検出手段)
DESCRIPTION OF SYMBOLS 10 Face direction detection apparatus 12 Crew camera (imaging means)
22 Face center position detection unit (position detection means)
23 Search line setting section (search line setting means)
24 face edge position detection unit (position detection means)

Claims (2)

ひとの顔を撮像して顔画像を出力する撮像手段と、該撮像手段から出力された前記顔画像に基づき前記ひとの顔中心位置及び顔端位置を検出して検出結果を出力する位置検出手段と、該位置検出手段から出力された前記検出結果に基づき、前記ひとの顔向き方向を検知する顔向き検知手段とを備える顔向き検知装置であって、
前記撮像手段から出力された前記顔画像において該顔画像に含まれる前記ひとの顔を横断する複数の探索線を設定する探索線設定手段を備え、
前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線に基づき複数の前記顔端位置を検出して検出結果を出力し、
前記顔向き検知手段は、前記位置検出手段から出力された複数の前記検出結果に基づき複数の前記顔向き方向を検知し、該複数の前記顔向き方向の中央値を前記ひとの前記顔向き方向として検知することを特徴とする顔向き検知装置。
Image pickup means for picking up an image of a human face and outputting a face image, and position detection means for detecting a face center position and face edge position of the person based on the face image output from the image pickup means and outputting a detection result And a face orientation detection device for detecting the face orientation direction of the person based on the detection result output from the position detection means,
Search line setting means for setting a plurality of search lines crossing the human face included in the face image in the face image output from the imaging means,
The position detection means detects a plurality of face edge positions based on the plurality of search lines set by the search line setting means, and outputs detection results;
The face orientation detection means detects a plurality of face orientation directions based on a plurality of the detection results output from the position detection means, and determines a median value of the plurality of face orientation directions as the face orientation direction of the person. A face direction detecting device characterized by detecting as follows.
前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線のうち、該探索線の長さが所定範囲内であって、かつ、前記探索線の左端が前記顔中心位置よりも左側に存在し、かつ、前記探索線の右端が前記顔中心位置よりも右側に存在する前記複数の前記探索線に基づき、前記複数の前記顔端位置を検出することを特徴とする請求項1に記載の顔向き検知装置。 The position detection means has a length of the search line within a predetermined range among the plurality of search lines set by the search line setting means, and a left end of the search line is closer to the face center position. 2. The plurality of face edge positions are detected based on the plurality of search lines that exist on the left side and the right end of the search line exists on the right side of the face center position. The face orientation detection device according to 1.
JP2010023530A 2010-02-04 2010-02-04 Face orientation detection device Expired - Fee Related JP5396298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023530A JP5396298B2 (en) 2010-02-04 2010-02-04 Face orientation detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023530A JP5396298B2 (en) 2010-02-04 2010-02-04 Face orientation detection device

Publications (2)

Publication Number Publication Date
JP2011164711A JP2011164711A (en) 2011-08-25
JP5396298B2 true JP5396298B2 (en) 2014-01-22

Family

ID=44595361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023530A Expired - Fee Related JP5396298B2 (en) 2010-02-04 2010-02-04 Face orientation detection device

Country Status (1)

Country Link
JP (1) JP5396298B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5367037B2 (en) * 2011-09-26 2013-12-11 本田技研工業株式会社 Face orientation detection device
JP6722878B2 (en) * 2015-07-30 2020-07-15 パナソニックIpマネジメント株式会社 Face recognition device
JP7472706B2 (en) 2020-07-30 2024-04-23 日本精機株式会社 Viewpoint detection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2677010B2 (en) * 1990-11-07 1997-11-17 日産自動車株式会社 Eye position detection device
JP3849517B2 (en) * 2001-12-14 2006-11-22 ソニー株式会社 Photo booth, image processing method, recording medium, and program
JP4825473B2 (en) * 2005-09-05 2011-11-30 アイシン精機株式会社 Face orientation discrimination device

Also Published As

Publication number Publication date
JP2011164711A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
JP6013884B2 (en) Object detection apparatus and object detection method
JP5251800B2 (en) Object tracking device and program
JP6346525B2 (en) Gaze detection device
JP2009169510A (en) Lane recognition device, lane recognition method, and lane recognition program
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
JP2018060422A (en) Object detection device
JP4853444B2 (en) Moving object detection device
JP5396287B2 (en) Face orientation detection device
JP5396298B2 (en) Face orientation detection device
JP3656056B2 (en) Interrupting vehicle detection device and method
JP6587254B2 (en) Luminance control device, luminance control system, and luminance control method
JP2007011490A (en) Device and method for detecting road parameter
WO2013175603A1 (en) Operation input device, operation input method and operation input program
JP2010286995A (en) Image processing system for vehicle
JP6132807B2 (en) Lane mark recognition device
KR101484170B1 (en) Assessment system and method for image projected from head up display
JP2011076248A (en) Travel lane line detector
JP2005296383A (en) Visual line detector
JP2015215235A (en) Object detection device and object detection method
JP6398294B2 (en) Traveling lane recognition device and traveling lane recognition method
JP4376685B2 (en) Gaze detection device
JP6169446B2 (en) Gaze detection device
JP5742676B2 (en) Lane boundary recognition device
JP4140399B2 (en) Gaze direction detection device and gaze direction detection method
JP5878090B2 (en) Traveling line detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R150 Certificate of patent or registration of utility model

Ref document number: 5396298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees