JP5396298B2 - Face orientation detection device - Google Patents
Face orientation detection device Download PDFInfo
- Publication number
- JP5396298B2 JP5396298B2 JP2010023530A JP2010023530A JP5396298B2 JP 5396298 B2 JP5396298 B2 JP 5396298B2 JP 2010023530 A JP2010023530 A JP 2010023530A JP 2010023530 A JP2010023530 A JP 2010023530A JP 5396298 B2 JP5396298 B2 JP 5396298B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- search line
- search
- coordinate
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、顔向き検知装置に関する。 The present invention relates to a face orientation detection device.
従来、例えばひとの顔の顔画像において縦エッジ検出を行なって顔の左右の仮の輪郭位置を検出し、仮の輪郭位置周辺の画素に基づき輪郭位置の複数の候補位置を決定し、複数の候補位置に対する統計処理によって左右端の輪郭位置を抽出する装置が知られている(例えば、特許文献1参照)。 Conventionally, for example, vertical edge detection is performed on a face image of a human face to detect provisional contour positions on the left and right of the face, and a plurality of candidate positions for the contour position are determined based on pixels around the provisional contour position. An apparatus is known that extracts contour positions at the left and right ends by statistical processing on candidate positions (see, for example, Patent Document 1).
ところで、上記従来技術に係る装置によれば、顔の左右端を検出する際に、先ず、顔画像に対して縦エッジ検出を行なっている。しかしながら、例えばひとの着衣や手などによって顔の一部が覆われている場合には、顔上に縦エッジが検出されることになり、顔の左右端に対応する縦エッジとは異なる縦エッジが誤検出されてしまうことで、左右端の輪郭位置を精度良く抽出することができないという問題が生じる。 By the way, according to the apparatus according to the prior art, when detecting the left and right ends of the face, first, vertical edge detection is performed on the face image. However, for example, when a part of the face is covered by a person's clothes or hands, a vertical edge is detected on the face, and the vertical edge is different from the vertical edges corresponding to the left and right edges of the face. Is erroneously detected, which causes a problem that the contour positions at the left and right ends cannot be accurately extracted.
本発明は上記事情に鑑みてなされたもので、ひとの顔の左右の顔端位置を精度良く検出し、顔向き方向の検知精度を向上させることが可能な顔向き検知装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a face orientation detection device capable of accurately detecting the left and right face edge positions of a human face and improving the detection accuracy of the face orientation. Objective.
上記課題を解決して係る目的を達成するために、本発明の第1態様に係る顔向き検知装置は、ひとの顔を撮像して顔画像を出力する撮像手段(例えば、実施の形態での乗員カメラ12)と、該撮像手段から出力された前記顔画像に基づき前記ひとの顔中心位置及び顔端位置を検出して検出結果を出力する位置検出手段(例えば、実施の形態での顔中心位置検出部22、顔端位置検出部24)と、該位置検出手段から出力された前記検出結果に基づき、前記ひとの顔向き方向を検知する顔向き検知手段(例えば、実施の形態での顔向き検知部25)とを備える顔向き検知装置であって、前記撮像手段から出力された前記顔画像において該顔画像に含まれる前記ひとの顔を横断する複数の探索線を設定する探索線設定手段(例えば、実施の形態での探索線設定部23)を備え、前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線に基づき複数の前記顔端位置を検出して検出結果を出力し、前記顔向き検知手段は、前記位置検出手段から出力された複数の前記検出結果に基づき複数の前記顔向き方向を検知し、該複数の前記顔向き方向の中央値を前記ひとの前記顔向き方向として検知する。
In order to solve the above-described problems and achieve the object, the face orientation detection device according to the first aspect of the present invention is an imaging means that images a human face and outputs a face image (for example, in the embodiment) An occupant camera 12) and position detection means for detecting the face center position and the face edge position of the person based on the face image output from the imaging means and outputting a detection result (for example, the face center in the embodiment) A
さらに、本発明の第2態様に係る顔向き検知装置では、前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線のうち、該探索線の長さが所定範囲内であって、かつ、前記探索線の左端が前記顔中心位置よりも左側に存在し、かつ、前記探索線の右端が前記顔中心位置よりも右側に存在する前記複数の前記探索線に基づき、前記複数の前記顔端位置を検出する。 Furthermore, in the face orientation detection device according to the second aspect of the present invention, the position detection means has a length of the search line within a predetermined range among the plurality of search lines set by the search line setting means. And the left end of the search line is on the left side of the face center position, and the right end of the search line is on the right side of the face center position. A plurality of face edge positions are detected.
本発明の第1態様に係る顔向き検知装置によれば、ひとの顔を横断する複数の探索線毎に検出される顔端位置に基づいて検知される複数の顔向き方向の中央値を、最終的にひとの顔向き方向とすることから、例えば顔の特定箇所や顔の左右の最端位置のみから顔向き方向を検知する場合に比べて、検知精度および検知結果の信頼性を向上させることができる。 According to the face direction detection device according to the first aspect of the present invention, the median values of the plurality of face direction directions detected based on the face edge positions detected for each of the plurality of search lines crossing the human face are obtained. Since the direction of the human face is ultimately set, the detection accuracy and the reliability of the detection result are improved compared to the case where the face direction is detected only from a specific part of the face or the left and right end positions of the face, for example. be able to.
さらに、本発明の第2態様に係る顔向き検知装置によれば、複数の探索線のうちから、長さが所定範囲内かつ左端が顔中心位置よりも左側かつ右端が顔中心位置よりも右側である探索線以外の探索線を除外することにより、複数の探索線毎に検出される顔端位置の検出精度を向上させることができる。 Furthermore, according to the face direction detection device according to the second aspect of the present invention, the length is within a predetermined range, the left end is on the left side of the face center position, and the right end is on the right side of the face center position among the plurality of search lines. By excluding search lines other than the search line, it is possible to improve the detection accuracy of the face edge position detected for each of the plurality of search lines.
以下、本発明の顔向き検知装置の一実施形態について添付図面を参照しながら説明する。
本実施の形態による顔向き検知装置10は、例えば図1に示すように、撮像制御装置11と、乗員カメラ12と、光源制御装置13と、撮像用光源14と、処理装置15とを備えて構成され、さらに、処理装置15は、両眼検出部21と、顔中心位置検出部22と、探索線設定部23と、顔端位置検出部24と、顔向き検知部25とを備えて構成されている。
Hereinafter, an embodiment of a face direction detection device of the present invention will be described with reference to the accompanying drawings.
As shown in FIG. 1, for example, the face
撮像制御装置11により制御される乗員カメラ12は、例えば車室内のインスツルメントパネルに配置され、少なくとも車両の運転席に着座した運転者の顔を撮像対象として撮像領域内に含み、例えば可視光領域または赤外線領域にて撮像可能であって、運転者の顔を含む顔画像を出力する。
光源制御装置13により制御される撮像用光源14は、例えば車室内のインスツルメントパネルにおいて乗員カメラ12から左右にずれた位置に配置され、少なくとも車両の運転席に着座した運転者に向かい、例えば可視光線または赤外線などの光を照射可能である。
The
The
処理装置15の両眼検出部21は、例えば乗員カメラ12から出力された顔画像に対して、例えば運転者の眼球を検知対象物とした特徴量算出および形状判別等の認識処理を行ない、左右の眼の位置(例えば、虹彩の中心位置や、角膜表面における赤外線の反射像であるプルキニエ像の中心位置や、眼球中心位置など)を検出する。
The
顔中心位置検出部22は、例えば図2(A)に示すように、両眼検出部21により検出された運転者の左右の眼の位置EL,ERの中心を算出し、この算出結果を運転者の顔中心位置FCとして出力する。
For example, as shown in FIG. 2A, the face center
探索線設定部23は、例えば図2(B)に示すように、乗員カメラ12から出力された顔画像FPにおいて、運転者の顔を横断する複数の探索線SLを設定する。なお、各探索線SLは、例えば、顔画像FPの縦方向の各画素毎に1画素分の縦幅を有して左右方向に伸びる線とされている。なお、各探索線の縦幅は1画素分に限定されず、他の縦幅であってもよい。
また、探索線設定部23は、例えば顔中心位置検出部22により検出された顔中心位置FCを含む所定範囲CA内などの所定の縦方向位置(例えば、眼などが存在することに起因して左右方向での輝度の変動が所定変動以上となる可能性が高い位置など)以外において探索線SLを設定する。
For example, as shown in FIG. 2B, the search
Further, the search
顔端位置検出部24は、所定条件を満たさない探索線(例えば、図2(C)に示す探索線SL1,SL2など)は除外しつつ、複数の各探索線毎に顔の左右端(左右の顔端位置)FL,FRを検出する。なお、所定条件は、顔左端が顔中心位置検出部22により検出された顔中心位置FCよりも左側に存在し、顔右端が顔中心位置検出部22により検出された顔中心位置FCよりも右側に存在し、顔左端と顔右端との間の距離が所定範囲内であることなどである。
The face edge
顔向き検知部25は、複数の各探索線毎に、顔中心位置検出部22により検出された顔中心位置FCと、顔端位置検出部24により検出された左右の顔端位置FL,FRとに基づき、例えばひとの顔をシリンダー形状に近似して顔向きを算出するシリンダー法などによって、運転者の顔向き方向を検知する。
The face
顔向き検知部25は、例えば図3に示すように、左右の顔端位置FL,FR間の中央位置COと顔中心位置FCとの間の左右方向での距離を顔中心のずれrとし、左右の顔端位置FL,FR間の距離を顔の幅2Rとし、中央位置COから乗員カメラ12に向かう方向が運転席に着座した運転者の正面方向に対してなす角度αと、顔中心のずれrと顔の幅2Rとに基づき、運転席に着座した運転者の正面方向に対する顔向き方向のなす角度θを算出する。例えば角度β=90−αとして、正弦定理による下記数式(1)を変形して下記数式(2)が得られ、この下記数式(2)から角度θが下記数式(3)に示すように記述される。
For example, as shown in FIG. 3, the face
そして、顔向き検知部25は、最終的に、複数の顔向き方向に基づき、これらの顔向き方向の中央値を、運転者の顔向き方向として検知する。
Then, the face
この実施の形態による顔向き検知装置10は上記構成を備えており、次に、この顔向き検知装置10の動作について説明する。
The face
先ず、例えば図4に示すステップS01においては、乗員カメラ12から出力された顔画像に基づき、顔中心位置を取得する。
次に、ステップS02においては、顔中心位置を含む周辺の所定範囲内での輝度の中央値を検出する。
次に、ステップS03においては、乗員カメラ12から出力された顔画像において、運転者の顔を横断する複数の探索線を設定するための縦方向位置を設定する。
First, for example, in step S01 shown in FIG. 4, the face center position is acquired based on the face image output from the
Next, in step S02, a median luminance is detected within a predetermined range around the face center position.
Next, in step S03, in the face image output from the
次に、ステップS04においては、後述する各探索線の顔端位置検出の処理を実行する。
次に、ステップS05においては、各探索線の顔端位置毎に顔向き方向を検知する。
次に、ステップS06においては、複数の顔向き方向に基づき、これらの顔向き方向の中央値を、運転者の顔向き方向として検出し、エンドに進む。
Next, in step S04, processing for detecting the face edge position of each search line, which will be described later, is executed.
Next, in step S05, the face direction is detected for each face end position of each search line.
Next, in step S06, based on a plurality of face direction directions, the median value of these face direction directions is detected as the driver's face direction direction, and the process proceeds to the end.
以下に、上述したステップS04での各探索線の顔端位置検出の処理について説明する。
例えば図5に示すステップS11においては、全ての探索線に対して以下のステップS12〜ステップS15の処理が終了したか否かを判定する。
この判定結果が「YES」の場合には、リターンに進む。
一方、この判定結果が「NO」の場合には、ステップS12に進む。
そして、ステップS12においては、後述する探索線上の輝度マップ作成の処理を実行する。
次に、ステップS13においては、顔左右端検出の処理を実行する。
Hereinafter, the process of detecting the face edge position of each search line in step S04 described above will be described.
For example, in step S11 shown in FIG. 5, it is determined whether or not the following steps S12 to S15 have been completed for all search lines.
If this determination is “YES”, the flow proceeds to return.
On the other hand, if this determination is “NO”, the flow proceeds to step
In step S12, a process for creating a luminance map on the search line, which will be described later, is executed.
Next, in step S13, processing for detecting the left and right edges of the face is executed.
次に、ステップS14においては、顔左右端(左右の顔端位置)が検出されたか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS18に進む。
一方、この判定結果が「NO」の場合には、ステップS15に進む。
そして、ステップS15においては、この時点での輝度閾値を変更する。
そして、ステップS16においては、後述する探索線上の輝度マップ作成の処理を実行する。
次に、ステップS17においては、顔左右端検出の処理を実行する。
そして、ステップS18においては、次の探索線に移動して、上述したステップS11に戻る。
Next, in step S14, it is determined whether the left and right edges of the face (left and right face edge positions) have been detected.
If this determination is “YES”, the flow proceeds to step S 18 described later.
On the other hand, if this determination is “NO”, the flow proceeds to step S15.
In step S15, the brightness threshold at this point is changed.
In step S16, a brightness map creation process on the search line, which will be described later, is executed.
Next, in step S17, processing for detecting the left and right edges of the face is executed.
And in step S18, it moves to the next search line and returns to step S11 mentioned above.
以下に、上述したステップS12での探索線上の輝度マップ作成の処理について説明する。
先ず、例えば図6に示すステップS21においては、画像処理範囲を探索線に設定する。
次に、ステップS22においては、例えばメディアンフィルタなどによりノイズ除去の処理を行なう。
次に、ステップS23においては、例えば上述したステップS02にて算出した輝度の中央値などに基づき、輝度に対して各種処理(例えば、顔左右端検出の処理)の実行可否を示す輝度閾値、つまり運転者の顔であると判定する輝度範囲を示す輝度閾値を設定する。
Hereinafter, the process of creating the luminance map on the search line in step S12 described above will be described.
First, for example, in step S21 shown in FIG. 6, the image processing range is set as a search line.
Next, in step S22, noise removal processing is performed using, for example, a median filter.
Next, in step S23, for example, based on the median luminance calculated in step S02 described above, a luminance threshold indicating whether or not various processes (for example, face left and right edge detection processing) can be performed on the luminance, that is, A luminance threshold value indicating a luminance range determined to be the driver's face is set.
次に、ステップS24においては、探索線上の輝度に対して、輝度閾値に応じた輝度範囲内の輝度を所定値(例えば、255)とし、輝度範囲外の輝度をゼロとする、いわば2値化の処理などにより、輝度を変換する。
次に、ステップS25においては、例えばモルフォロジーフィルタなどにより、探索線上の変換後の輝度の平滑化を行ない、リターンに進む。
Next, in step S24, the luminance within the luminance range corresponding to the luminance threshold is set to a predetermined value (for example, 255) and the luminance outside the luminance range is set to zero with respect to the luminance on the search line. The luminance is converted by the above process.
Next, in step S25, the luminance after conversion on the search line is smoothed by, for example, a morphological filter, and the process proceeds to return.
以下に、上述したステップS13での顔左右端検出の処理について説明する。
先ず、例えば図7に示すステップS31においては、探索線上の左右の横方向の座標Xの値をゼロとして初期化を行なう。
次に、ステップS32においては、座標Xの値が所定の画像幅の値(つまり、顔画像の横幅の値)よりも小さいか否か、つまり座標Xの値が顔画像の右端(画像右端)の座標の値よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS41に進む。
一方、この判定結果が「YES」の場合には、ステップS33に進む。
Hereinafter, the process of detecting the left and right ends of the face in step S13 described above will be described.
First, for example, in step S31 shown in FIG. 7, initialization is performed by setting the value of the horizontal coordinate X on the search line to zero.
Next, in step S32, whether or not the value of the coordinate X is smaller than a predetermined image width value (that is, the width value of the face image), that is, the value of the coordinate X is the right end of the face image (the right end of the image). It is determined whether or not the value is smaller than the coordinate value of.
If this determination is “NO”, the flow proceeds to step S 41 described later.
On the other hand, if the determination is “YES”, the flow proceeds to step S33.
次に、ステップS33においては、顔左端を検出済みであるか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS37に進む。
一方、この判定結果が「NO」の場合には、ステップS34に進む。
次に、ステップS34においては、座標Xの輝度が所定値(つまり、上述したステップS25にて設定される所定値であって、例えば、255)、かつ、座標Xが顔中心位置の座標(つまり横方向の座標)よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS36に進む。
一方、この判定結果が「YES」の場合には、ステップS35に進む。
Next, in step S33, it is determined whether or not the left edge of the face has been detected.
If this determination is “YES”, the flow proceeds to step S 37 described later.
On the other hand, if this determination is “NO”, the flow proceeds to step S 34.
Next, in step S34, the luminance of the coordinate X is a predetermined value (that is, the predetermined value set in step S25 described above, for example, 255), and the coordinate X is the coordinate of the face center position (that is, It is determined whether or not it is smaller than the horizontal coordinate.
If this determination is “NO”, the flow proceeds to step S 36 described later.
On the other hand, if the determination is “YES”, the flow proceeds to step S35.
そして、ステップS35においては、座標Xを顔左端の座標(つまり横方向の座標)として設定する。
そして、ステップS36においては、座標Xに「1」を加算して得た値を、新たに座標Xの値として設定して、上述したステップS32に戻る。
なお、顔画像の左右の横方向の座標の値は、左側から右側に向かい増大するように設定されている。
In step S35, the coordinate X is set as the coordinate of the left end of the face (that is, the horizontal coordinate).
In step S36, a value obtained by adding "1" to the coordinate X is newly set as the value of the coordinate X, and the process returns to the above-described step S32.
Note that the horizontal coordinate values of the face image are set to increase from the left side to the right side.
また、ステップS37においては、座標Xの輝度がゼロ(つまり、上述したステップS25にて設定される値であるゼロ)であるか否かを判定する。
この判定結果が「NO」の場合には、上述したステップS36に戻る。
一方、この判定結果が「YES」の場合には、ステップS38に進む。
次に、ステップS38においては、(座標X−顔左端の座標)が所定の顔幅以下であるか否かを判定する。
この判定結果が「YES」の場合には、ステップS39に進み、このステップS39においては、座標Xを顔右端の座標(つまり横方向の座標)として設定し、ステップS41に進む。
一方、この判定結果が「NO」の場合には、ステップS40に進み、このステップS40においては、顔左端の座標にゼロを設定する初期化を行ない、ステップS41に進む。
In step S37, it is determined whether or not the luminance of the coordinate X is zero (that is, zero which is the value set in step S25 described above).
If this determination is “NO”, the flow returns to step S 36 described above.
On the other hand, if this determination is “YES”, the flow proceeds to step S38.
Next, in step S38, it is determined whether (coordinate X−coordinate of the left end of the face) is equal to or smaller than a predetermined face width.
If the determination result is “YES”, the process proceeds to step S39. In this step S39, the coordinate X is set as the coordinate of the right end of the face (that is, the horizontal coordinate), and the process proceeds to step S41.
On the other hand, if this determination is “NO”, the flow proceeds to step S 40, and in this step S 40, initialization is performed to set the coordinate of the left end of the face to zero, and the flow proceeds to step S 41.
そして、ステップS41においては、顔左端のみ検出されているか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS44に進む。
一方、この判定結果が「YES」の場合には、ステップS42に進む。
そして、ステップS42においては、(画像右端の座標−顔左端の座標)が所定の顔幅以下であるか否かを判定する。
この判定結果が「NO」の場合、つまり顔画像において運転者の顔が画像右端で見切れている場合には、後述するステップS44に進む。
一方、この判定結果が「YES」の場合には、ステップS43に進む。
そして、ステップS43においては、画像右端の座標を顔右端の座標として設定し、ステップS44に進む。
In step S41, it is determined whether only the left edge of the face is detected.
If this determination is “NO”, the flow proceeds to step S 44 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S42.
In step S42, it is determined whether or not (coordinate of the right end of the image−coordinate of the left end of the face) is equal to or smaller than a predetermined face width.
If this determination result is “NO”, that is, if the driver's face is completely disregarded at the right end of the face image, the process proceeds to step S44 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S43.
In step S43, the coordinates of the right edge of the image are set as the coordinates of the right edge of the face, and the process proceeds to step S44.
そして、例えば図7に示すステップS44においては、顔右端が検出されているか否かを判定する。
この判定結果が「NO」の場合には、リターンに進む。
一方、この判定結果が「YES」の場合には、ステップS45に進む。
そして、ステップS45においては、上述したステップS24での輝度の変換前の顔画像において、探索線周辺の所定範囲内の輝度を取得する。
次に、ステップS46においては、座標Xに顔左端の座標を設定する。
Then, for example, in step S44 shown in FIG. 7, it is determined whether or not the right edge of the face has been detected.
If this determination is “NO”, the flow proceeds to return.
On the other hand, if this determination is “YES”, the flow proceeds to step S45.
In step S45, the luminance within a predetermined range around the search line is acquired in the face image before the luminance conversion in step S24 described above.
Next, in step S46, the coordinate of the left end of the face is set as the coordinate X.
そして、ステップS47においては、座標Xと、この座標Xの左隣の座標(X−1)との輝度差が所定差以上であるか、または、座標Xの輝度が座標(X−1)の輝度よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS49に進む。
一方、この判定結果が「YES」の場合には、ステップS48に進む。
そして、ステップS48においては、顔右端の座標を座標Xとして設定し、後述するステップS51に進む。
また、ステップS49においては、座標Xの値から「1」を減算して得た値(X−1)を、新たに座標Xとして設定する。
そして、ステップS50においては、座標Xを顔左端の座標として設定し、ステップS47に戻る。
In step S47, the luminance difference between the coordinate X and the coordinate (X-1) adjacent to the left of the coordinate X is equal to or greater than a predetermined difference, or the luminance of the coordinate X is equal to It is determined whether it is smaller than the luminance.
If this determination is “NO”, the flow proceeds to step S 49 described later.
On the other hand, if this determination is “YES”, the flow proceeds to step S48.
In step S48, the coordinate of the right end of the face is set as the coordinate X, and the process proceeds to step S51 described later.
In step S49, a value (X-1) obtained by subtracting "1" from the value of coordinate X is newly set as coordinate X.
In step S50, the coordinate X is set as the coordinate of the left end of the face, and the process returns to step S47.
そして、ステップS51においては、座標Xと、この座標Xの右隣の座標(X+1)との輝度差が所定差以上であるか、または、座標Xの輝度が座標(X+1)の輝度よりも小さいか否かを判定する。
この判定結果が「NO」の場合には、ステップS52に進み、このステップS52においては、座標Xの値に「1」を加算して得た値(X+1)を、新たに座標Xとして設定する。
そして、ステップS53においては、座標Xを顔右端の座標として設定し、上述したステップS51に戻る。
In step S51, the luminance difference between the coordinate X and the coordinate (X + 1) to the right of the coordinate X is greater than or equal to a predetermined difference, or the luminance of the coordinate X is smaller than the luminance of the coordinate (X + 1). It is determined whether or not.
If this determination is “NO”, the flow proceeds to step S 52, where a value (X + 1) obtained by adding “1” to the value of the coordinate X is newly set as the coordinate X. .
In step S53, the coordinate X is set as the coordinate of the right end of the face, and the process returns to step S51 described above.
上述したように、本実施の形態による顔向き検知装置10によれば、運転者の顔を横断する複数の探索線毎に検出される顔端位置に基づいて検知される複数の顔向き方向の中央値を、最終的に運転者の顔向き方向とすることから、例えば顔の特定箇所や顔の左右の最端位置のみから顔向き方向を検知する場合に比べて、検知精度および検知結果の信頼性を向上させることができる。
さらに、複数の探索線のうちから、顔左端と顔右端との間の距離が所定範囲内かつ左端が顔中心位置よりも左側かつ右端が顔中心位置よりも右側である探索線以外の探索線を除外することにより、複数の探索線毎に検出される左右の顔端位置の検出精度を向上させることができる。
As described above, according to the face
Furthermore, a search line other than the search line whose distance between the left end of the face and the right end of the face is within a predetermined range, the left end is on the left side of the face center position, and the right end is on the right side of the face center position among the plurality of search lines. By excluding, the detection accuracy of the left and right face edge positions detected for each of the plurality of search lines can be improved.
10 顔向き検知装置
12 乗員カメラ(撮像手段)
22 顔中心位置検出部(位置検出手段)
23 探索線設定部(探索線設定手段)
24 顔端位置検出部(位置検出手段)
DESCRIPTION OF
22 Face center position detection unit (position detection means)
23 Search line setting section (search line setting means)
24 face edge position detection unit (position detection means)
Claims (2)
前記撮像手段から出力された前記顔画像において該顔画像に含まれる前記ひとの顔を横断する複数の探索線を設定する探索線設定手段を備え、
前記位置検出手段は、前記探索線設定手段により設定された前記複数の探索線に基づき複数の前記顔端位置を検出して検出結果を出力し、
前記顔向き検知手段は、前記位置検出手段から出力された複数の前記検出結果に基づき複数の前記顔向き方向を検知し、該複数の前記顔向き方向の中央値を前記ひとの前記顔向き方向として検知することを特徴とする顔向き検知装置。 Image pickup means for picking up an image of a human face and outputting a face image, and position detection means for detecting a face center position and face edge position of the person based on the face image output from the image pickup means and outputting a detection result And a face orientation detection device for detecting the face orientation direction of the person based on the detection result output from the position detection means,
Search line setting means for setting a plurality of search lines crossing the human face included in the face image in the face image output from the imaging means,
The position detection means detects a plurality of face edge positions based on the plurality of search lines set by the search line setting means, and outputs detection results;
The face orientation detection means detects a plurality of face orientation directions based on a plurality of the detection results output from the position detection means, and determines a median value of the plurality of face orientation directions as the face orientation direction of the person. A face direction detecting device characterized by detecting as follows.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023530A JP5396298B2 (en) | 2010-02-04 | 2010-02-04 | Face orientation detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023530A JP5396298B2 (en) | 2010-02-04 | 2010-02-04 | Face orientation detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011164711A JP2011164711A (en) | 2011-08-25 |
JP5396298B2 true JP5396298B2 (en) | 2014-01-22 |
Family
ID=44595361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010023530A Expired - Fee Related JP5396298B2 (en) | 2010-02-04 | 2010-02-04 | Face orientation detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5396298B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5367037B2 (en) * | 2011-09-26 | 2013-12-11 | 本田技研工業株式会社 | Face orientation detection device |
JP6722878B2 (en) * | 2015-07-30 | 2020-07-15 | パナソニックIpマネジメント株式会社 | Face recognition device |
JP7472706B2 (en) | 2020-07-30 | 2024-04-23 | 日本精機株式会社 | Viewpoint detection system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2677010B2 (en) * | 1990-11-07 | 1997-11-17 | 日産自動車株式会社 | Eye position detection device |
JP3849517B2 (en) * | 2001-12-14 | 2006-11-22 | ソニー株式会社 | Photo booth, image processing method, recording medium, and program |
JP4825473B2 (en) * | 2005-09-05 | 2011-11-30 | アイシン精機株式会社 | Face orientation discrimination device |
-
2010
- 2010-02-04 JP JP2010023530A patent/JP5396298B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011164711A (en) | 2011-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6013884B2 (en) | Object detection apparatus and object detection method | |
JP5251800B2 (en) | Object tracking device and program | |
JP6346525B2 (en) | Gaze detection device | |
JP2009169510A (en) | Lane recognition device, lane recognition method, and lane recognition program | |
JP6840697B2 (en) | Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program | |
JP2018060422A (en) | Object detection device | |
JP4853444B2 (en) | Moving object detection device | |
JP5396287B2 (en) | Face orientation detection device | |
JP5396298B2 (en) | Face orientation detection device | |
JP3656056B2 (en) | Interrupting vehicle detection device and method | |
JP6587254B2 (en) | Luminance control device, luminance control system, and luminance control method | |
JP2007011490A (en) | Device and method for detecting road parameter | |
WO2013175603A1 (en) | Operation input device, operation input method and operation input program | |
JP2010286995A (en) | Image processing system for vehicle | |
JP6132807B2 (en) | Lane mark recognition device | |
KR101484170B1 (en) | Assessment system and method for image projected from head up display | |
JP2011076248A (en) | Travel lane line detector | |
JP2005296383A (en) | Visual line detector | |
JP2015215235A (en) | Object detection device and object detection method | |
JP6398294B2 (en) | Traveling lane recognition device and traveling lane recognition method | |
JP4376685B2 (en) | Gaze detection device | |
JP6169446B2 (en) | Gaze detection device | |
JP5742676B2 (en) | Lane boundary recognition device | |
JP4140399B2 (en) | Gaze direction detection device and gaze direction detection method | |
JP5878090B2 (en) | Traveling line detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5396298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |