JP2007257322A - Face portion detecting method and its device - Google Patents

Face portion detecting method and its device Download PDF

Info

Publication number
JP2007257322A
JP2007257322A JP2006081139A JP2006081139A JP2007257322A JP 2007257322 A JP2007257322 A JP 2007257322A JP 2006081139 A JP2006081139 A JP 2006081139A JP 2006081139 A JP2006081139 A JP 2006081139A JP 2007257322 A JP2007257322 A JP 2007257322A
Authority
JP
Japan
Prior art keywords
face
detected
contour
image
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006081139A
Other languages
Japanese (ja)
Inventor
Kinya Iwamoto
欣也 岩本
Tomoharu Nakano
智晴 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006081139A priority Critical patent/JP2007257322A/en
Publication of JP2007257322A publication Critical patent/JP2007257322A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face portion detecting method and its device capable of improving detection accuracy of ears by positively determining existence or nonexistence of the ears from profile lines on both widthwise sides of a face of a person to be detected. <P>SOLUTION: The face of the person to be detected is shot from the front to detect a profile of the face of the person to be detected from the shot image. Then a portion wherein the profile of the face becomes discontinued in a width direction is detected, and an area surrounded by the detected discontinuous points is considered as an ear area. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、被検出者の顔の輪郭から顔の向きを検出可能な顔部位検出方法及びその装置に関するものである。   The present invention relates to a face part detection method and apparatus capable of detecting the face direction from the face contour of a person to be detected.

従来、例えば車両等の乗物においては、運転者(被検出者)の顔をTVカメラ(撮像手段)で撮像して、この撮像した顔画像を画像処理して顔の眼、耳、鼻等の顔部位を求めることにより、この顔部位を運転者の顔の特徴量として検出する顔の特徴量検出装置が知られている。この特徴両検出装置では、検出された顔部位に基づいて、顔の向きや覚醒等の運転者状態を把握することが可能となる。   2. Description of the Related Art Conventionally, in a vehicle such as a vehicle, a driver's (detected person) 's face is imaged by a TV camera (imaging means), and the captured face image is image-processed to obtain facial eyes, ears, noses, and the like. 2. Description of the Related Art There is known a face feature amount detection apparatus that detects a face portion as a feature amount of a driver's face by obtaining the face portion. With this feature detection apparatus, it is possible to grasp the driver state such as the face orientation and arousal based on the detected face part.

このような顔の特徴量検出装置には、TVカメラで撮像された顔画像の幅方向の最外部を耳とする画像処理をするようにしたものも知られている(例えば、特許文献1参照)。
特開2004−78749号公報
As such a face feature amount detection apparatus, there is also known one that performs image processing using the outermost portion in the width direction of a face image captured by a TV camera as an ear (for example, see Patent Document 1). ).
JP 2004-78749 A

ところで、このような顔の特徴量検出装置においては、運転者がTVカメラの正面を向いている場合、顔画像の左右の耳を検出可能である。このような耳の位置から運転者の顔の向きを検出して、運転者状態を把握することが考えられる。   By the way, in such a facial feature amount detection device, when the driver is facing the front of the TV camera, the left and right ears of the face image can be detected. It is conceivable to detect the driver's face direction from such an ear position and grasp the driver state.

しかしながら、運転者の顔がTVカメラに対して横方向を向いた場合、片側の耳、或いは両方の耳について誤検出することが考えられる。   However, when the driver's face is directed laterally with respect to the TV camera, it is conceivable that a false detection is performed on one or both ears.

そこで、この発明は、被検出者の顔の幅方向両側の輪郭線から耳の存在の有無を確実に求めて、耳の検出精度を向上させることができる顔部位検出方法及びその装置を提供することを目的とするものである。   Therefore, the present invention provides a face part detection method and apparatus capable of improving the detection accuracy of the ear by surely determining the presence or absence of the ear from the contour lines on both sides of the face of the detection subject. It is for the purpose.

この目的を達成するため、この発明は、画像上のある領域から顔部位を検出する顔部位検出方法及びその装置であって、被検出者の顔を前方から撮像して、この撮像された画像から被検出者の顔の輪郭を検出した後、この顔の輪郭が幅方向に不連続となる箇所を検出し、この検出された不連続点に囲まれた領域を耳領域とすることを特徴とする。   In order to achieve this object, the present invention provides a face part detection method and apparatus for detecting a face part from a certain region on an image, and images the face of the person to be detected from the front, After detecting the contour of the face of the person to be detected, a portion where the contour of the face is discontinuous in the width direction is detected, and an area surrounded by the detected discontinuous point is used as an ear region And

このれらの発明によれば、被検出者の顔の幅方向両側の輪郭線から耳の存在の有無を確実に求めて、耳の検出精度を向上させることができる。   According to these inventions, the presence / absence of an ear can be reliably determined from the contour lines on both sides in the width direction of the face of the detected person, and the detection accuracy of the ear can be improved.

以下、本発明の実施形態を図面に基づいて説明する。
<第1の実施形態>
[システムブロック図]
図1は、本発明を適用した顔部位検出装置の、第1の実施形態の構成を示すブロック図である。同図に示すように顔部位検出装置は、被検出者である検出対象者(例えば、車両の運転者)の顔を撮像して顔画像データを出力する顔画像撮像手段CL1と、顔画像撮像手段CL1で撮像された検出対象者の顔部位検出手段CL2を有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
[System block diagram]
FIG. 1 is a block diagram showing a configuration of a first embodiment of a face part detection apparatus to which the present invention is applied. As shown in the figure, the face part detection device includes a face image capturing unit CL1 that captures an image of a face of a detection target person (for example, a driver of a vehicle) and outputs face image data. It has face part detection means CL2 of the person to be detected imaged by means CL1.

顔画像撮像手段CL1は、検出対象者の顔を時系列的に連続的に撮像して動画像の映像信号を出力する。   The face image capturing means CL1 continuously captures the face of the person to be detected in time series and outputs a video signal of a moving image.

顔部位検出手段CL2は、顔画像撮像手段CL1から出力された顔画像データを処理して画像内で顔が移っている領域を検出する顔領域検出手段CL3と、顔領域検出手段CL3により検出された運転者の顔の輪郭を検出する輪郭検出手段CL4と、輪郭検出手段CL4によって検出された検出対象者の顔の輪郭が幅方向に不連続となる箇所を検出する不連続点検出手段CL5と、不連続点検出手段CL5で検出された不連続点から耳領域を設定する耳領域設定手段CL6を備えている。   The face part detection means CL2 is detected by the face area detection means CL3 that processes the face image data output from the face image imaging means CL1 and detects the area where the face has moved in the image, and the face area detection means CL3. Contour detecting means CL4 for detecting the contour of the driver's face, and discontinuous point detecting means CL5 for detecting a location where the contour of the detection subject's face detected by the contour detecting means CL4 is discontinuous in the width direction; The ear region setting means CL6 for setting the ear region from the discontinuous points detected by the discontinuous point detecting means CL5 is provided.

輪郭検出手段CL4は、顔幅中心線規定手段CL41と、濃度変化点検出手段CL42を備えている。   The contour detecting means CL4 includes a face width center line defining means CL41 and a density change point detecting means CL42.

顔幅中心線規定手段CL41は、顔画像撮像手段CL1によって撮像された顔画像から眼もしくは眉といった顔の左右にほぼ対称の位置に存在する顔部位を検出する左右対称顔部位検出手段CL411を備えている。そして、この顔幅中心線規定手段CL41は、左右対称顔部位検出手段CL411によって検出された眼もしくは眉といった顔の左右にほぼ対称の位置に存在する顔部位を結んだ顔部位間線分の垂直二等分線を顔幅中心線と規定する。   The face width center line defining means CL41 includes a left and right symmetric face part detecting means CL411 for detecting a face part that is present at a substantially symmetrical position on the left and right sides of the face such as the eye or eyebrow from the face image picked up by the face image pickup means CL1. ing. The face width center line defining means CL41 is a vertical line segment between face parts that connects face parts that exist at substantially symmetrical positions on the left and right sides of the face such as the eyes or eyebrows detected by the left and right symmetrical face part detection means CL411. The bisector is defined as the face width center line.

また、濃度変化点検出手段CL42は顔幅中心線規定手段CL41によって規定された顔幅中心線から顔幅方向に外側に向かって画像濃度の変化をみて白方向から黒方向に濃度値が変化する点を見つける。しかも、輪郭検出手段CL4は、顔の高さ方向に順次、濃度変化点検出手段CL42によって濃度変化点を見つけていき、連続する濃度変化点の集合を顔の輪郭とする。   The density change point detecting means CL42 changes the density value from the white direction to the black direction by looking at the change in the image density from the face width center line defined by the face width center line defining means CL41 outward in the face width direction. Find a spot. In addition, the contour detection means CL4 sequentially finds density change points by the density change point detection means CL42 in the face height direction, and sets a set of continuous density change points as the face contour.

更に、不連続点検出手段CL5は、顔の高さ方向で一方向に輪郭線を追跡したときに輪郭線がとぎれる切断点を検出する輪郭切断点検出手段CL51と、輪郭切断点検出手段CL51によって検出された輪郭切断点を中心に顔幅方向に隔たった位置に顔の高さ方向に伸びる別の輪郭線の有無を検出する他輪郭線検出手段CL52とを備えている。しかも、不連続点検出手段CL5は、他輪郭線検出手段CL52によって輪郭線が検出された場合、輪郭切断点検出手段CL51によって検出された輪郭切断点を不連続点とする。   Further, the discontinuous point detecting means CL5 includes a contour cutting point detecting means CL51 for detecting a cutting point where the contour line is broken when the contour line is traced in one direction in the height direction of the face, and a contour cutting point detecting means CL51. Other contour detection means CL52 for detecting the presence or absence of another contour extending in the height direction of the face at a position separated in the face width direction around the detected contour cut point. Moreover, when the contour line is detected by the other contour detection unit CL52, the discontinuous point detection unit CL5 sets the contour cutting point detected by the contour cutting point detection unit CL51 as a discontinuous point.

耳領域設定手段CL6は、不連続点検出手段CL5によって検出された不連続点に囲まれた領域を耳領域とし、耳領域の重心位置を顔の耳の位置とする。   The ear region setting unit CL6 sets the region surrounded by the discontinuous points detected by the discontinuous point detection unit CL5 as the ear region, and sets the center of gravity of the ear region as the position of the ear of the face.

この装置は、自動車、鉄道車両等の運転者の顔の輪郭を検出するのに用いることができるものであるが、以下に示す全ての実施形態で、自動車の運転者に適用した場合で説明する。
[機器の配置]
図2は、本発明の機器の配置図である。顔画像撮像手段CL1としてカメラ1が、自動車のインストルメント上で検出対象者(被検出者)である運転者Dの顔Dfを略正面下側(左右方向の略正面で、水平位置よりも下側)から撮像できる位置に設置され、運転者の顔Dfを撮影する。
This device can be used to detect the contour of a driver's face such as an automobile or a railway vehicle, but will be described in the case where it is applied to a driver of an automobile in all the embodiments described below. .
[Device layout]
FIG. 2 is a layout diagram of the device of the present invention. The camera 1 serving as the face image capturing means CL1 has a face Df of a driver D, who is a person to be detected (a person to be detected), on the instrument of the car. It is installed at a position where it can be imaged from the side) and photographs the driver's face Df.

カメラ1を、検出対象者の略正面下側から撮像できるように設置するのは、検出対象者の顔の左右の動きを、左右どちらについても同等に捕捉し、且つ、顔の構造物の状態を正確に捉えるためである。   The camera 1 is installed so as to be able to capture an image from a substantially lower front side of the person to be detected, so that the left and right movements of the face of the person to be detected are equally captured in both the right and left, and the state of the structure of the face Is to accurately capture

カメラ1には、CCD(Charge Coupled Device)やCMOS(complement Metal Oxide Semicondutor)等の撮像素子からなる動画を撮像可能なカメラが用いられる。、本実施形態では、例えば横方向(X軸方向)640画素、縦方向(Y軸方向)480画素からなるCCDがカメラ1として用いられている。そして、このカメラ1は、マイクロコンピュータ2への入力画像を撮像する。このカメラ1で撮像された入力画像は、インストルメント裏側等、車体内部に設置されたマイクロコンピュータ2に画像データとして入力される。   As the camera 1, a camera that can capture a moving image including an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used. In this embodiment, a CCD having, for example, 640 pixels in the horizontal direction (X-axis direction) and 480 pixels in the vertical direction (Y-axis direction) is used as the camera 1. The camera 1 captures an input image to the microcomputer 2. The input image captured by the camera 1 is input as image data to the microcomputer 2 installed inside the vehicle body, such as the back side of the instrument.

このマイクロコンピュータ2には、図1に示した顔部位検出手段CL2がプログラミングされている。このマイクロコンピュータ2は、顔部位検出手段CL2のプログラミングに従って以下の処理を実行する。
[システム全体の処理]
次に、システムの処理状況について説明する。図3は、システムの全体の処理の流れを示すフローチャートである。まず、図示しないイグニッションキーによりキーシリンダがIG(イグニッション位置)からスタート位置にキー操作されて、エンジンが稼働すると、図3に示す処理が開始される。この処理が開始されると、顔画像の撮像処理ステップS1(以下、「ステップS」は単に「S」と表す)で、カメラ1で検出対象者である運転者Dの顔Dfを含む画像を撮像し、マイクロコンピュータ2に画像データとして入力し、S2に移行する。
The microcomputer 2 is programmed with the face part detecting means CL2 shown in FIG. The microcomputer 2 executes the following processing according to the programming of the facial part detection means CL2.
[System-wide processing]
Next, the processing status of the system will be described. FIG. 3 is a flowchart showing the overall processing flow of the system. First, when the key cylinder is operated from the ignition key (IG) to the start position by an ignition key (not shown) and the engine is operated, the processing shown in FIG. 3 is started. When this process is started, an image including the face Df of the driver D who is the detection target person is detected by the camera 1 in the face image capturing process step S1 (hereinafter, “step S” is simply referred to as “S”). An image is taken and input as image data to the microcomputer 2, and the process proceeds to S2.

S2の、顔領域検出処理では、撮像処理S1で撮像された画像から顔領域を検出する。尚、顔領域の検出処理については、従来周知の方法を用いることができるので、その詳細な説明は省略する。   In the face area detection process of S2, the face area is detected from the image captured in the imaging process S1. Note that a known method can be used for the face area detection process, and a detailed description thereof will be omitted.

S3では、S2の顔領域検出処理の検出結果をもとに、顔領域が検出できたかどうかを判断する。S2で顔領域が検出できている場合、S3ではYESとなり、S4の顔幅中心線規定処理に移行する。また、S2で顔領域が検出できない場合は、S3でNOなり、S1の顔画像の撮像処理へ処理を戻し、顔領域が検出できるまで、S2の顔領域検出処理を繰り返す。   In S3, it is determined whether or not the face area has been detected based on the detection result of the face area detection process in S2. If the face area can be detected in S2, YES is determined in S3, and the process proceeds to the face width centerline defining process in S4. If the face area cannot be detected in S2, NO in S3, the process returns to the face image capturing process in S1, and the face area detection process in S2 is repeated until the face area can be detected.

S4の顔幅中心線規定処理では、S2の顔領域検出処理で検出された顔領域の顔幅中心線Lを図4〜図7に示したように求め、S5の画像濃度変化点検出処理に移行する。尚、図4,図6は正面を向いている状態を示し、図5,図7は左側を見ている状態を示す。そして、図4,図6では左右の耳が見えており、図5,図7では右の耳のみが見えている状態となっている。   In the face width center line defining process in S4, the face width center line L of the face area detected in the face area detecting process in S2 is obtained as shown in FIGS. 4 to 7, and the image density change point detecting process in S5 is performed. Transition. 4 and 6 show the state of facing the front, and FIGS. 5 and 7 show the state of looking at the left side. 4 and 6, the left and right ears are visible, and in FIGS. 5 and 7, only the right ear is visible.

ところで、S4の顔幅中心線Lを求める方法としては例えば次のような方法がある。   By the way, as a method for obtaining the face width center line L in S4, for example, there is the following method.

まず、第一の方法としては、図4,図5に示したように、S2で検出された顔画像3がカメラ1で撮像された画像4の略中央に位置していると判断できるような場合、或いはS2で検出された顔画像3がカメラ1で撮像された画像4の略全体にあるような場合、顔幅中心線規定手段CL41により画像4の左右方向中央を顔画像3の顔幅中心線とする方法がある。この顔幅中心線の設定方法は、運転者(ドライバー)は運転している時はほとんど顔の位置が動かないから顔幅中心線を固定してしまってもいいという考えに基づくものである。   First, as shown in FIG. 4 and FIG. 5, as the first method, it can be determined that the face image 3 detected in S <b> 2 is positioned substantially at the center of the image 4 captured by the camera 1. In the case where the face image 3 detected in S2 is substantially in the entire image 4 captured by the camera 1, the face width center line defining means CL41 sets the center of the image 4 in the left-right direction to the face width of the face image 3. There is a method of using the center line. This face width center line setting method is based on the idea that the driver (driver) may fix the face width center line because the face position hardly moves while driving.

また、第二の方法としては、図5,図6に示した様に運転者の左右の眼5L,5Rを検出して、左右の眼5L,5R間の中心Oを通り且つ左右の眼5L,5Rの中心5Lc,5Rc間を結ぶ線6に対して垂直な線を顔幅中心線規定手段CL41により顔幅中心線Lとする方法がある。尚、眼の位置を求める方法としては従来周知の画像処理方法を用いることができるので、その詳細な説明は省略する。   As a second method, as shown in FIGS. 5 and 6, the left and right eyes 5L and 5R of the driver are detected, and the left and right eyes 5L pass through the center O between the left and right eyes 5L and 5R. , 5R, a line perpendicular to the line 6 connecting 5Rc and 5Rc is used as the face width center line L by the face width center line defining means CL41. As a method for obtaining the eye position, a conventionally known image processing method can be used, and thus detailed description thereof is omitted.

S5の画像濃度変化点検出処理では、顔幅中心線Lから顔幅方向の外側に向かって画像濃度の変化をみて白方向から黒方向に濃度値が変化する点を濃度変化点検出手段CL42により検出し、S6の切断点検出処理に移行する。例えば、図8(a)に示した眼5L,5Rより僅かに下方の水平線7における顔からの反射光量を見てみると、図8(b)に示したように反射光量が変化する。この図8(b)において、x1〜x2の範囲は右側の髪の毛の部分の明るさの変化を示し、x2〜x3の範囲は顔の部分の明るさの変化を示し、x3〜x4は左側の髪の毛の明るさの変化を示す。   In the image density change point detection process of S5, the density change point detection means CL42 detects the point where the density value changes from the white direction to the black direction by looking at the change in the image density from the face width center line L to the outside in the face width direction. Then, the process proceeds to the cutting point detection process of S6. For example, when looking at the amount of light reflected from the face on the horizontal line 7 slightly below the eyes 5L and 5R shown in FIG. 8A, the amount of reflected light changes as shown in FIG. 8B. In FIG. 8B, the range of x1 to x2 indicates the change in brightness of the right hair part, the range of x2 to x3 indicates the change of brightness of the face part, and x3 to x4 indicate the change in brightness on the left side. Shows changes in hair brightness.

従って、白方向から黒方向に濃度値が変化する濃度変化点x2,x3を検出する。このような検出は縦方向全体にわたって所定間隔毎に実行して、図9に示したように顔の高さ方向に濃度変化点x2,x3を順次検出していき、この検出した高さ方向の濃度変化点x2,x3の集合を縦方向に繋いで顔の輪郭とし、S6の顔の輪郭切断点検出処理に移行する。図10では左側の顔の輪郭FL1,FL2,FL3と右側の顔の輪郭FR1,FR2,FR3が検出されている。また、図11では左側の顔の輪郭FL1と右側の顔の輪郭FR1,FR2,FR3が検出されている。尚、図9に示す眼、鼻、口等における濃度変化点Ep,Np,Mpは、高さ方向(縦方向)にたくさん並ぶように集合していないので、顔の輪郭を構成する濃度変化点x2,x3ではない(ノイズ)と判断する。   Accordingly, density change points x2 and x3 where the density value changes from the white direction to the black direction are detected. Such detection is performed at predetermined intervals over the entire vertical direction, and the density change points x2 and x3 are sequentially detected in the height direction of the face as shown in FIG. 9, and the detected height direction is detected. The set of density change points x2 and x3 is connected in the vertical direction to form a face outline, and the process proceeds to the face outline cut point detection process in S6. In FIG. 10, the left face contours FL1, FL2, FL3 and the right face contours FR1, FR2, FR3 are detected. Further, in FIG. 11, the left face outline FL1 and the right face outline FR1, FR2, FR3 are detected. It should be noted that the density change points Ep, Np, Mp in the eyes, nose, mouth, etc. shown in FIG. 9 are not gathered so as to be lined up in the height direction (vertical direction). It is determined that it is not x2 or x3 (noise).

S6の切断点検出処理では、顔の高さ方向で一方向に輪郭線を追跡したときに輪郭線がとぎれる切断点を輪郭切断点検出手段CL51で検出して、S7の他輪郭検出処理に移行する。図12では輪郭線FL1,FL2,FL3の切断点Lc11,LC12,Lc21,LC22,Lc31,Lc32、輪郭線FR1,FR2,FR3の切断点Rc11,Rc12,Rc21,Rc22,Rc31,Rc32を検出する。また、図13では左の輪郭線FL1の切断点Lc11,Lc12を検出すると共に、右側の顔の輪郭線FR1,FR2,FR3の切断点Rc11,Rc12,Rc21,Rc22,Rc31,Rc32を検出する。   In the cutting point detection process of S6, the cutting point where the contour line is broken when the contour line is traced in one direction in the height direction of the face is detected by the contour cutting point detection means CL51, and the process proceeds to the other contour detection process of S7. To do. In FIG. 12, cutting points Lc11, LC12, Lc21, LC22, Lc31, Lc32 of the contour lines FL1, FL2, FL3, and cutting points Rc11, Rc12, Rc21, Rc22, Rc31, Rc32 of the contour lines FR1, FR2, FR3 are detected. Further, in FIG. 13, the cut points Lc11 and Lc12 of the left contour line FL1 are detected, and the cut points Rc11, Rc12, Rc21, Rc22, Rc31 and Rc32 of the right face contour lines FR1, FR2 and FR3 are detected.

S7の他輪郭検出処理では、輪郭線FL1,FL2,FL3や輪郭線FR1,FR2,FR3がそれぞれ他の輪郭であることを他輪郭線検出手段CL52で検出し、S8の不連続点検出処理に移行する。   In the other contour detection process in S7, the contour lines FL1, FL2, FL3 and the contour lines FR1, FR2, FR3 are detected as other contours by the other contour line detection means CL52, and the discontinuous point detection process in S8 is performed. Transition.

この他輪郭検出処理の例を、例えば図14に示したように顔の左側の輪郭線FR1,FR2,FR3について説明する。この図14において、輪郭線FR1の切断点Rc12を中心に例えば左右30〜50画素、上下に5〜10画素の探査領域8を設定する。そして、他輪郭線検出手段CL52は、探査領域8内に水平方向(左右)に乖離した輪郭線FR1,FR2があるか否かを判断して、乖離した輪郭線FR1,FR2がある場合、輪郭線FR2は輪郭線FR1に対して他輪郭として検出する。   An example of this other contour detection process will be described with reference to contour lines FR1, FR2, FR3 on the left side of the face as shown in FIG. 14, for example. In FIG. 14, an exploration area 8 having, for example, 30 to 50 pixels on the left and right and 5 to 10 pixels on the upper and lower sides is set around the cutting point Rc12 of the outline FR1. Then, the other contour detection means CL52 determines whether or not there are contour lines FR1 and FR2 deviated in the horizontal direction (left and right) in the exploration area 8, and if there are deviated contour lines FR1 and FR2, The line FR2 is detected as another outline with respect to the outline FR1.

この探査領域8は、図15に示したように切断点Rc11,Rc21,Rc22,Rc31,Rc32にそれぞれ設定し、輪郭線FR1,FR2,FR3がそれぞれ他輪郭であることを検出する。輪郭線FL1,FL2,FL3についても同様にしてそれぞれ他輪郭であることが検出できる。   As shown in FIG. 15, the search area 8 is set at the cutting points Rc11, Rc21, Rc22, Rc31, Rc32, respectively, and detects that the contour lines FR1, FR2, FR3 are other contours. Similarly, the contour lines FL1, FL2, and FL3 can be detected as other contours.

S8の不連続点検出処理では、S7で検出した輪郭線FR1,FR2,FR3がそれぞれ他輪郭線であるので、切断点Rc12,Rc21,Rc22,Rc31を輪郭線FR1,FR2,FR3の不連続点として検出する。即ち、この不連続点の検出でも上述した探査領域8を用いる。例えば図14において、探査領域8内に水平方向(左右)に乖離した輪郭線FR1,FR2がある場合、輪郭線FR1,FR2が連続していないので、探査領域8の中心の切断点Rc12は輪郭線FR2に対し不連続点として検出される。切断点Lc12,Lc21,Lc22,Lc31や切断点Rc21,Rc22,Rc31についても同様にして不連続点として検出できる。この結果、図12〜図15の切断点Rc11,Rc32は不連続点ではないとして検出でき、図13の切断点Lc11,Lc12は不連続点はないとして検出できる。   In the discontinuous point detection process of S8, the contour lines FR1, FR2, FR3 detected in S7 are other contour lines, and therefore, the cutting points Rc12, Rc21, Rc22, Rc31 are discontinuous points of the contour lines FR1, FR2, FR3. Detect as. That is, the above-described search area 8 is also used for detecting the discontinuous points. For example, in FIG. 14, when there are contour lines FR1 and FR2 that are separated in the horizontal direction (left and right) in the exploration area 8, the contour lines FR1 and FR2 are not continuous. It is detected as a discontinuous point with respect to the line FR2. The cutting points Lc12, Lc21, Lc22, Lc31 and the cutting points Rc21, Rc22, Rc31 can be detected as discontinuous points in the same manner. As a result, the cutting points Rc11 and Rc32 in FIGS. 12 to 15 can be detected as not being discontinuous points, and the cutting points Lc11 and Lc12 in FIG. 13 can be detected as having no discontinuous points.

同様にこのS8では、S7で輪郭線FL1,FL2,FL3や輪郭線FR1,FR2,FR3がそれぞれ他輪郭線であるので、不連続点検出手段CL5がS6で検出した切断点Lc12,Lc21,Lc22,Lc31を輪郭線FL1,FL2,FL3の不連続点として検出し、S9の耳領域検出処理に移行する。この結果、図12の切断点Lc11,Lc32は不連続点ではないとして検出でき、図13の切断点Lc11,Lc12は不連続点でないとして検出できる。   Similarly, in S8, the contour lines FL1, FL2, FL3 and the contour lines FR1, FR2, FR3 are other contour lines in S7, so that the discontinuous point detecting means CL5 detects the cutting points Lc12, Lc21, Lc22 detected in S6. , Lc31 are detected as discontinuous points of the contour lines FL1, FL2, FL3, and the process proceeds to the ear region detection process of S9. As a result, the cut points Lc11 and Lc32 in FIG. 12 can be detected as not being discontinuous points, and the cut points Lc11 and Lc12 in FIG. 13 can be detected as not being discontinuous points.

S9の耳領域検出処理では、耳領域設定手段CL6が不連続点に囲まれた領域を耳領域として、S10の耳位置設定処理に移行する。即ち、図12では、不連続点である切断点Lc12,Lc21,Lc22,Lc31で囲まれた領域を左の耳領域ELとし、不連続点である切断点Rc12,Rc21,Lc22,Rc31で囲まれた領域を右の耳領域ER(図16参照)とする。図13では、不連続点である切断点Rc12,Rc21,Rc22,Rc31で囲まれた領域を右の耳領域ERとする。   In the ear region detection process of S9, the ear region setting means CL6 sets the region surrounded by the discontinuous points as the ear region and proceeds to the ear position setting process of S10. That is, in FIG. 12, the region surrounded by the cut points Lc12, Lc21, Lc22, and Lc31 that are discontinuous points is the left ear region EL, and is surrounded by the cut points Rc12, Rc21, Lc22, and Rc31 that are discontinuous points. This region is defined as the right ear region ER (see FIG. 16). In FIG. 13, a region surrounded by the cutting points Rc12, Rc21, Rc22, and Rc31, which are discontinuous points, is a right ear region ER.

このステップS10の耳位置設定処理では、耳領域設定手段CL6が耳領域ELの重心位置Lg(図12参照)を左の耳位置とし、耳領域設定手段CL6が耳領域ERの重心位置Rgを右の耳位置として、ステップS11に移行する。   In the ear position setting process in step S10, the ear region setting means CL6 sets the center of gravity position Lg of the ear region EL (see FIG. 12) as the left ear position, and the ear region setting means CL6 sets the center of gravity position Rg of the ear region ER to the right. Shift to step S11.

S11(図12,図13参照)では、撮像された運転者の顔画像の左右に耳が検出されているか否か(2つあるか否か)を判断して、左右に耳が検出されている場合にはS1に戻って輪郭検出の処理を繰り返し、左右のいずれか一方でも耳が検出されてない場合にはS12に移行する。   In S11 (see FIGS. 12 and 13), it is determined whether or not the ears are detected on the left and right of the captured driver's face image (whether there are two), and the ears are detected on the left and right. If YES, the process returns to S1 and the contour detection process is repeated. If no ear is detected on either the left or right, the process proceeds to S12.

このS12では、顔が横方向に大きく向いているとして、運転者に運転上のアドバイス等を報知して、ステップS13に移行する。   In S12, it is assumed that the face is greatly turned in the horizontal direction, the driver is informed of driving advice, and the process proceeds to Step S13.

このステップS13では、イグニッションキーがIG位置(イグニッション位置)からACC位置(アクセサリ位置)に回されてエンジンが停止したか否かが判断され、停止していなければS1に戻って輪郭検出の処理を繰り返させ、停止していれば終了する。   In this step S13, it is determined whether or not the engine is stopped by turning the ignition key from the IG position (ignition position) to the ACC position (accessory position). If not, the process returns to S1 to perform contour detection processing. Repeat and stop if stopped.

尚、図9,図10、図12は正面を向いている状態を示し、図11,図13は左側を見ている状態を示す。そして、図9,図10,図12では左右の耳が見えており、図11,図13では右の耳のみが見えている状態となっている。   9, 10, and 12 show the state of facing the front, and FIGS. 11 and 13 show the state of looking at the left side. 9, 10, and 12, the left and right ears are visible, and in FIGS. 11 and 13, only the right ear is visible.

また、上述した例では、画像4の左右方向中央を顔画像3の顔幅中心線とする場合について説明したが、必ずしもこれに限定されるものではない。例えば、カメラ1がセンターコンソール付近に設置され、広角レンズで車室内を広く撮影して運転手のみならず車室内の状況を撮像するようなカメラであれば、画像内のオフセットした場所に顔幅中心線が設定されても良い。
<第2の実施形態>
この第2の実施形態では、顔画像撮像手段CL1から時系列的に連続して出力される動画像から近接した2枚の画像フレームを抽出して、抽出した2枚の画像フレームから差分画像を生成し、この差分画像の画素濃度に基づいて顔の輪郭線を求めるようにしている。
[システムブロック図]
図17は、本発明を適用した顔部位検出装置の、第2の実施形態の構成を示すブロック図である。同図に示すように顔部位検出装置は、被検出者である検出対象者(例えば、車両の運転者)の顔を撮像して顔画像データを出力する顔画像撮像手段CL1と、顔画像撮像手段CL1で撮像された検出対象者の顔部位検出手段CL2aを有する。
Moreover, although the example mentioned above demonstrated the case where the left-right direction center of the image 4 was made into the face width centerline of the face image 3, it is not necessarily limited to this. For example, if the camera 1 is installed in the vicinity of the center console and the camera 1 captures the interior of the vehicle with a wide-angle lens and images the situation inside the vehicle as well as the driver, the face width is set at an offset location in the image. A center line may be set.
<Second Embodiment>
In the second embodiment, two adjacent image frames are extracted from a moving image continuously output in time series from the face image capturing means CL1, and a difference image is extracted from the two extracted image frames. The face contour is generated based on the pixel density of the difference image.
[System block diagram]
FIG. 17 is a block diagram showing the configuration of the second embodiment of the face part detecting apparatus to which the present invention is applied. As shown in the figure, the face part detection device includes a face image capturing unit CL1 that captures an image of a face of a detection target person (for example, a driver of a vehicle) and outputs face image data. It has face part detection means CL2a of the person to be detected imaged by means CL1.

顔画像撮像手段CL1は、検出対象者の顔を時系列的に連続的に撮像して動画像の映像信号を出力し、この動画像の映像信号を顔部位検出手段CL2aに入力する。   The face image capturing means CL1 continuously captures the face of the person to be detected in time series, outputs a video signal of the moving image, and inputs the video signal of the moving image to the face part detecting means CL2a.

顔部位検出手段CL2aは、顔画像撮像手段CL1から出力された顔画像データを処理して画像内で顔が移っている領域を検出する顔領域検出手段CL3と、顔領域検出手段CL3により検出された運転者の顔の輪郭を検出する輪郭検出手段CL4aと、輪郭検出手段CL4aによって検出された検出対象者の顔の輪郭が幅方向に不連続となる箇所を検出する不連続点検出手段CL5を備えている。   The face part detecting means CL2a is detected by the face area detecting means CL3 for processing the face image data output from the face image capturing means CL1 and detecting the area where the face has moved in the image, and the face area detecting means CL3. Contour detecting means CL4a for detecting the contour of the driver's face, and discontinuous point detecting means CL5 for detecting a location where the contour of the face of the person to be detected detected by the contour detecting means CL4a is discontinuous in the width direction. I have.

輪郭検出手段CL4aは、顔画像撮像手段CL1で撮像された運転者の顔の輪郭線を差分画像処理により生成(検出)する差分画像生成手段CL7と、差分画像生成手段CL7により生成された差分画像をから二値化処理画像を生成する二値化画像処理手段CL8と、この二値化処理画像から縦方向に延びる線を検出する縦輪郭線検出手段CL9を備えている。   The contour detection unit CL4a includes a difference image generation unit CL7 that generates (detects) a contour line of the driver's face imaged by the face image imaging unit CL1, and a difference image generated by the difference image generation unit CL7. Binarized image processing means CL8 for generating a binarized image from the image and vertical contour line detecting means CL9 for detecting a line extending in the vertical direction from the binarized image.

差分画像生成手段CL7は、顔画像撮像手段CL1から時系列的に連続して出力される動画像から近接した2枚の画像フレームを抽出して、抽出した2枚の画像フレームから差分画像を生成し、差分画像の画素濃度を図示しないメモリ等に記憶させる。この差分画像の生成は時系列的に順次実行し、この順次生成される差分画像は複数枚が図示しないフレームメモリに時系列的に順次更新しながら記憶される。
[機器の配置]
機器の配置は、第1の実施の形態と同じであるので、図示は省略する。この発明の実施の形態では、図2のマイクロコンピュータ2に図17に示した顔部位検出手段CL2aがプログラミングされる。このマイクロコンピュータ2は、顔部位検出手段CL2aのプログラミングに従って以下の処理を実行する。
[システム全体の処理]
次に、システムの処理状況について説明する。図18は、システムの全体の処理の流れを示すフローチャートである。まず、図示しないイグニッションキーによりキーシリンダがIG(イグニッション位置)からスタート位置にキー操作されて、エンジンが稼働すると、図3に示す処理が開始される。この処理が開始されると、顔画像の撮像処理ステップS20(以下、「ステップS」は単に「S」と表す)で、図2のカメラ1で検出対象者の顔画像を撮像し、マイクロコンピュータ2に画像データとして入力し、S21に移行する。
The difference image generation means CL7 extracts two adjacent image frames from the moving image continuously output in time series from the face image imaging means CL1, and generates a difference image from the extracted two image frames. Then, the pixel density of the difference image is stored in a memory or the like (not shown). The generation of the difference image is sequentially executed in time series, and a plurality of the difference images generated in sequence are stored in a frame memory (not shown) while being sequentially updated in time series.
[Device layout]
Since the arrangement of the devices is the same as in the first embodiment, illustration is omitted. In the embodiment of the present invention, the face part detecting means CL2a shown in FIG. 17 is programmed in the microcomputer 2 shown in FIG. The microcomputer 2 executes the following processing according to the programming of the facial part detection means CL2a.
[System-wide processing]
Next, the processing status of the system will be described. FIG. 18 is a flowchart showing the overall processing flow of the system. First, when the key cylinder is operated from the ignition key (IG) to the start position by an ignition key (not shown) and the engine is operated, the processing shown in FIG. 3 is started. When this processing is started, the face image of the detection target person is picked up by the camera 1 of FIG. 2 in the face image pickup processing step S20 (hereinafter, “step S” is simply expressed as “S”), and the microcomputer 2 is input as image data, and the process proceeds to S21.

S21の、顔領域検出処理では、顔画像の撮像処理S20で撮像された画像(例えば、コントラストや画像内の動きの変化等)から顔領域を検出し、S22に移行する。   In the face area detection process of S21, the face area is detected from the image (for example, change in contrast or movement in the image) captured in the face image capturing process S20, and the process proceeds to S22.

S22では、S21の顔領域検出処理の検出結果をもとに、顔領域が検出できたかどうかを判断する。S21で顔領域が検出できている場合、S22ではYESとなり、S23の差分画像処理に移行する。S21で顔領域が検出できない場合は、S22でNOとなり、S20の顔画像の撮像処理へ処理を戻し、顔領域が検出できるまで、S21の顔領域検出処理を繰り返す。   In S22, it is determined whether the face area has been detected based on the detection result of the face area detection process in S21. If the face area can be detected in S21, YES in S22, and the process proceeds to the differential image processing in S23. If the face area cannot be detected in S21, NO in S22, the process returns to the face image capturing process in S20, and the face area detection process in S21 is repeated until the face area can be detected.

S23の差分画像処理では、図2のカメラ1から時系列的に連続して出力される動画像から近接した2枚の画像フレームを抽出して、抽出した2枚の画像フレームから差分画像生成手段CL7により差分画像を生成し、この差分画像の画素濃度を図示しないフレームメモリ(図示せず)に記憶させ、S24に移行する。即ち、図19(a)の前フレームの画像と図19(b)の現フレームの画像を抽出し、この抽出した2枚の画像フレームの差分画像を図19(c)の如く生成し、S24に移行する。   In the differential image processing of S23, two adjacent image frames are extracted from the moving image continuously output in time series from the camera 1 of FIG. 2, and the differential image generation means is extracted from the extracted two image frames. A difference image is generated by CL7, the pixel density of the difference image is stored in a frame memory (not shown), and the process proceeds to S24. That is, the image of the previous frame in FIG. 19A and the image of the current frame in FIG. 19B are extracted, and a difference image between the two extracted image frames is generated as shown in FIG. Migrate to

尚、この差分画像の生成は時系列的に近接した画像フレームについて順次実行し、この順次生成される差分画像の複数枚を時系列的にフレームメモリに記憶させる。この際、フレームメモリに時系列的に記憶させた複数枚の差分画像は順次更新させて、フレームメモリに記憶されている複数枚の差分画像が順に新しい時系列のものとなるようにする。   The generation of the difference image is sequentially executed for image frames that are close in time series, and a plurality of the sequentially generated difference images are stored in the frame memory in time series. At this time, the plurality of difference images stored in the time series in the frame memory are sequentially updated so that the plurality of difference images stored in the frame memory are sequentially in a new time series.

S24では、差分画像生成手段CL7で生成した差分画像を二値化画像処理手段CL8により二値化処理して、図19(d)に示したような二値化処理画像を生成し、S25の輪郭線検出処理に移行する。   In S24, the difference image generated by the difference image generation means CL7 is binarized by the binarized image processing means CL8 to generate a binarized image as shown in FIG. The process proceeds to contour detection processing.

このS25の輪郭線検出処理では、縦輪郭線検出手段CL9が図20[図19(d)と同じ]の二値化処理画像から、高さ方向に連続する顔の左の縦線であるFL1,FL2,FL3を顔の左の輪郭線として検出し、高さ方向に連続する顔の右の縦線であるFR1,FR2,FR3を顔の右の輪郭線として検出し、S26の切断点検出処理に移行する。   In the contour detection process of S25, the vertical contour detection means CL9 is FL1 which is the left vertical line of the face continuous in the height direction from the binarized image of FIG. 20 [same as FIG. 19 (d)]. , FL2 and FL3 are detected as the left contour line of the face, FR1, FR2 and FR3 which are the right vertical lines of the face continuous in the height direction are detected as the right contour line of the face, and the cut point detection in S26 Transition to processing.

この際、眼において検出される縦線10や鼻において検出される縦線11は、長さが短いので顔の輪郭を構成する変化点ではないと判断する。また、髪の毛と背景との間の縦線12は、耳の部分の縦線に略連なっているので、顔の輪郭線としない。   At this time, since the vertical line 10 detected in the eye and the vertical line 11 detected in the nose are short, it is determined that they are not changing points constituting the contour of the face. Further, since the vertical line 12 between the hair and the background is substantially continuous with the vertical line of the ear portion, it is not used as the face outline.

S26の切断点検出処理では、顔の高さ方向で一方向に輪郭線を追跡したときに輪郭線がとぎれる切断点を輪郭切断点検出手段CL51で検出して、S27の他輪郭検出処理に移行する。図12では輪郭線FL1,FL2,FL3の切断点Lc11,LC12,Lc21,LC22,Lc31,Lc32、輪郭線FR1,FR2,FR3の切断点Rc11,Rc12,Rc21,Rc22,Rc31,Rc32を検出する。また、図13では左の輪郭線FL1の切断点Lc11,Lc12を検出すると共に、右側の顔の輪郭線FR1,FR2,FR3の切断点Rc11,Rc12,Rc21,Rc22,Rc31,Rc32を検出する。   In the cutting point detection process in S26, the cutting point where the contour line is broken when the contour line is traced in one direction in the height direction of the face is detected by the contour cutting point detection means CL51, and the process proceeds to another contour detection process in S27. To do. In FIG. 12, cutting points Lc11, LC12, Lc21, LC22, Lc31, Lc32 of the contour lines FL1, FL2, FL3, and cutting points Rc11, Rc12, Rc21, Rc22, Rc31, Rc32 of the contour lines FR1, FR2, FR3 are detected. Further, in FIG. 13, the cut points Lc11 and Lc12 of the left contour line FL1 are detected, and the cut points Rc11, Rc12, Rc21, Rc22, Rc31 and Rc32 of the right face contour lines FR1, FR2 and FR3 are detected.

S27の他輪郭検出処理では、輪郭線FL1,FL2,FL3や輪郭線FR1,FR2,FR3がそれぞれ他の輪郭であることを他輪郭線検出手段CL52で検出し、S28の不連続点検出処理に移行する。   In the other contour detection process in S27, the contour lines FL1, FL2, FL3 and the contour lines FR1, FR2, FR3 are detected as other contours by the other contour line detection means CL52, and the discontinuous point detection process in S28 is performed. Transition.

この他輪郭検出処理の例を、例えば図14に示したように顔の左側の輪郭線FR1,FR2,FR3について説明する。この図14において、輪郭線FR1の切断点Rc12を中心に例えば左右30〜50画素、上下に5〜10画素の探査領域8を設定する。そして、他輪郭線検出手段CL52は、探査領域8内に水平方向(左右)に乖離した輪郭線FR1,FR2があるか否かを判断して、乖離した輪郭線FR1,FR2がある場合、輪郭線FR2は輪郭線FR1に対して他輪郭として検出する。   An example of this other contour detection process will be described with reference to contour lines FR1, FR2, FR3 on the left side of the face as shown in FIG. 14, for example. In FIG. 14, an exploration area 8 having, for example, 30 to 50 pixels on the left and right and 5 to 10 pixels on the upper and lower sides is set around the cutting point Rc12 of the outline FR1. Then, the other contour detection means CL52 determines whether or not there are contour lines FR1 and FR2 deviated in the horizontal direction (left and right) in the exploration area 8, and if there are deviated contour lines FR1 and FR2, The line FR2 is detected as another outline with respect to the outline FR1.

この探査領域8は、図15に示したように切断点Rc11,Rc21,Rc22,Rc31,Rc32にそれぞれ設定し、輪郭線FR1,FR2,FR3がそれぞれ他輪郭であることを検出する。輪郭線FL1,FL2,FL3についても同様にしてそれぞれ他輪郭であることが検出できる。   As shown in FIG. 15, the search area 8 is set at the cutting points Rc11, Rc21, Rc22, Rc31, Rc32, respectively, and detects that the contour lines FR1, FR2, FR3 are other contours. Similarly, the contour lines FL1, FL2, and FL3 can be detected as other contours.

S28の不連続点検出処理では、S27で検出した輪郭線FR1,FR2,FR3がそれぞれ他輪郭線であるので、切断点Rc12,Rc21,Rc22,Rc31を輪郭線FR1,FR2,FR3の不連続点として検出する。即ち、この不連続点の検出でも上述した探査領域8を用いる。例えば図14において、探査領域8内に水平方向(左右)に乖離した輪郭線FR1,FR2がある場合、輪郭線FR1,FR2が連続していないので、探査領域8の中心の切断点Rc12は輪郭線FR2に対し不連続点として検出される。切断点Lc12,Lc21,Lc22,Lc31や切断点Rc21,Rc22,Rc31についても同様にして不連続点として検出できる。この結果、図12〜図15の切断点Rc11,Rc32は不連続点ではないとして検出でき、図13の切断点Lc11,Lc12は不連続点でないとして検出できる。   In the discontinuous point detection process of S28, since the contour lines FR1, FR2, FR3 detected in S27 are the other contour lines, the cutting points Rc12, Rc21, Rc22, Rc31 are discontinuous points of the contour lines FR1, FR2, FR3. Detect as. That is, the above-described search area 8 is also used for detecting the discontinuous points. For example, in FIG. 14, when there are contour lines FR1 and FR2 that are separated in the horizontal direction (left and right) in the exploration area 8, the contour lines FR1 and FR2 are not continuous. It is detected as a discontinuous point with respect to the line FR2. The cutting points Lc12, Lc21, Lc22, Lc31 and the cutting points Rc21, Rc22, Rc31 can be detected as discontinuous points in the same manner. As a result, the cutting points Rc11 and Rc32 in FIGS. 12 to 15 can be detected as not discontinuous points, and the cutting points Lc11 and Lc12 in FIG. 13 can be detected as not discontinuous points.

同様にこのS28では、S27で輪郭線FL1,FL2,FL3や輪郭線FR1,FR2,FR3がそれぞれ他輪郭線であるので、不連続点検出手段CL5がS26で検出した切断点Lc12,Lc21,Lc22,Lc31を輪郭線FL1,FL2,FL3の不連続点として検出し、S29の耳領域検出処理に移行する。この結果、切断点Lc11,Lc32は不連続点ではないとして検出できる。   Similarly, in S28, the contour lines FL1, FL2, FL3 and contour lines FR1, FR2, FR3 are other contour lines in S27, so that the discontinuous point detecting means CL5 detects the cutting points Lc12, Lc21, Lc22 detected in S26. , Lc31 are detected as discontinuous points of the contour lines FL1, FL2, and FL3, and the process proceeds to the ear region detection process of S29. As a result, the cutting points Lc11 and Lc32 can be detected as not being discontinuous points.

S29の耳領域検出処理では、不連続点に囲まれた領域を耳領域として、S30の耳位置設定処理に移行する。即ち、図12では、不連続点である切断点Lc12,Lc21,Lc22,Lc31で囲まれた領域を左の耳領域ELとし、不連続点である切断点Rc12,Rc21,Lc22,Rc31で囲まれた領域を右の耳領域ER(図16参照)とする。図13では、不連続点である切断点Rc12,Rc21,Rc22,Rc31で囲まれた領域を右の耳領域ERとする。   In the ear region detection process in S29, the region surrounded by the discontinuous points is set as the ear region, and the process proceeds to the ear position setting process in S30. That is, in FIG. 12, the region surrounded by the cut points Lc12, Lc21, Lc22, and Lc31 that are discontinuous points is the left ear region EL, and is surrounded by the cut points Rc12, Rc21, Lc22, and Rc31 that are discontinuous points. This region is defined as the right ear region ER (see FIG. 16). In FIG. 13, a region surrounded by the cutting points Rc12, Rc21, Rc22, and Rc31, which are discontinuous points, is a right ear region ER.

このステップS30の耳位置設定処理では、耳領域設定手段CL6が耳領域ELの重心位置Lg(図12参照)を左の耳位置とし、耳領域設定手段CL6が耳領域ERの重心位置Rgを右の耳位置として、ステップS31に移行する。   In the ear position setting process in step S30, the ear region setting unit CL6 sets the center of gravity position Lg of the ear region EL (see FIG. 12) as the left ear position, and the ear region setting unit CL6 sets the center of gravity position Rg of the ear region ER to the right. Shift to step S31.

S31(図12,図13参照)では、撮像された運転者の顔画像の左右に耳が検出されているか否か(2つあるか否か)を判断して、左右に耳が検出されている場合にはS20に戻って輪郭検出の処理を繰り返し、左右のいずれか一方でも耳が検出されてない場合にはS32に移行する。   In S31 (see FIGS. 12 and 13), it is determined whether or not ears are detected on the left and right of the captured driver's face image (whether there are two), and the ears are detected on the left and right. If YES, the process returns to S20 and repeats the contour detection process. If no ear is detected on either the left or right, the process proceeds to S32.

このS32では、顔が横方向に大きく向いているとして、運転者に運転上のアドバイス等を報知して、S20に戻って輪郭検出の処理を繰り返させる。   In S32, it is assumed that the face is greatly directed in the horizontal direction, the driver is notified of driving advice and the like, and the process returns to S20 to repeat the contour detection process.

このS32では、顔が横方向に大きく向いているとして、運転者に運転上のアドバイス等を報知して、ステップS33に移行する。   In this S32, it is assumed that the face is greatly facing in the horizontal direction, the driver is informed of driving advice, and the process proceeds to step S33.

このステップS33では、イグニッションキーがIG位置(イグニッション位置)からACC位置(アクセサリ位置)に回されてエンジンが停止したか否かが判断され、停止していなければS20に戻って輪郭検出の処理を繰り返させ、停止していれば終了する。   In step S33, it is determined whether or not the engine is stopped by turning the ignition key from the IG position (ignition position) to the ACC position (accessory position). If not, the process returns to S20 to perform the contour detection process. Repeat and stop if stopped.

尚、図9,図10、図12は正面を向いている状態を示し、図11,図13は左側を見ている状態を示す。そして、図9,図10,図12では左右の耳が見えており、図11,図13では右の耳のみが見えている状態となっている。   9, 10, and 12 show the state of facing the front, and FIGS. 11 and 13 show the state of looking at the left side. 9, 10, and 12, the left and right ears are visible, and in FIGS. 11 and 13, only the right ear is visible.

以上説明したように、この発明の実施の形態の顔部位検出方法は、被検出者の顔を前方から撮像して、この撮像された画像から被検出者の顔の輪郭を検出した後、この顔の輪郭が幅方向に不連続となる箇所を検出し、この検出された不連続点に囲まれた領域を領域とするようになっている。   As described above, the face part detection method according to the embodiment of the present invention captures the face of the person to be detected from the front, detects the contour of the face of the person to be detected from the captured image, and then A portion where the contour of the face is discontinuous in the width direction is detected, and a region surrounded by the detected discontinuous point is set as a region.

即ち、この顔部位検出方法は、被検出者の顔を前方から撮像手段(顔画像取得手段CL1,カメラ1)で撮像して、この撮像手段(顔画像取得手段CL1,カメラ1)で撮像された画像から被検出者の顔の輪郭を輪郭検出手段(CL4,CL4a)で検出した後、この顔の輪郭が幅方向に不連続となる箇所を不連続点検出手段CL5で検出し、この検出された不連続点に囲まれた領域を耳領域設定手段CL6で耳領域とするようになっている。   That is, in this face part detection method, the face of the person to be detected is picked up by the image pickup means (face image acquisition means CL1, camera 1) from the front, and is picked up by this image pickup means (face image acquisition means CL1, camera 1). After detecting the contour of the face of the person to be detected from the captured image by the contour detecting means (CL4, CL4a), the discontinuous point detecting means CL5 detects the location where the contour of the face is discontinuous in the width direction. The region surrounded by the discontinuous points is set as the ear region by the ear region setting means CL6.

この方法によれば、被検出者(D)の顔(Df)の幅方向両側の輪郭線から耳の存在を確実に求めることができるので、耳の検出精度を向上させることができる。   According to this method, since the presence of the ear can be reliably obtained from the contour lines on both sides in the width direction of the face (Df) of the person (D) to be detected, the detection accuracy of the ear can be improved.

また、この発明の実施の形態の顔部位検出装置は、被検出者(運転者D)の顔(Df)を前方から撮像する撮像手段(顔画像撮像手段CL1,カメラ1)と、前記撮像手段(顔画像撮像手段CL1,カメラ1)より前記被検出者(D)の顔の輪郭を検出する輪郭検出手段(CL4,CL4a)と、
前記輪郭検出手段(CL4,CL4a)によって検出された前記被検出者(D)の顔(Df)の輪郭が幅方向に不連続となる箇所を検出する不連続点検出手段CL5と、前記不連続点検出手段CL5によって検出された不連続点に囲まれた領域を耳領域(EL,ER)とする耳領域設定手段CL6とを備えている。
In addition, the face part detection device according to the embodiment of the present invention includes an imaging means (face image imaging means CL1, camera 1) for imaging the face (Df) of the detected person (driver D) from the front, and the imaging means. Contour detection means (CL4, CL4a) for detecting the contour of the face of the detected person (D) from (face image imaging means CL1, camera 1);
Discontinuous point detection means CL5 for detecting a point where the contour of the face (Df) of the detected person (D) detected by the contour detection means (CL4, CL4a) is discontinuous in the width direction; and the discontinuity And an ear region setting unit CL6 that uses the region surrounded by the discontinuous points detected by the point detection unit CL5 as an ear region (EL, ER).

この構成によれば、被検出者(D)の顔(Df)の幅方向両側の輪郭線から耳の存在を確実に求めることができるので、耳の検出精度を向上させることができる。   According to this configuration, since the presence of the ear can be reliably obtained from the contour lines on both sides in the width direction of the face (Df) of the person to be detected (D), the detection accuracy of the ear can be improved.

また、この発明の実施の形態の顔部位検出装置の前記不連続点検出手段CL5は、前記被検出者(D)の顔(DF)の高さ方向で一方向に輪郭線(FL1〜FL3,FR1〜FR3)を追跡したときに輪郭線がとぎれる輪郭切断点(切断点Lc12,Lc21,Lc22,Lc31、切断点Rc12,Rc21,Lc22,Rc31)を検出する輪郭切断点検出手段CL51と、前記輪郭切断点検出手段CL51によって検出された前記輪郭切断点(切断点Lc12,Lc21,Lc22,Lc31、切断点Rc12,Rc21,Lc22,Rc31)を中心に顔幅方向に隔たった位置に顔の高さ方向に伸びる別の輪郭線の有無を検出する他輪郭線検出手段CL52とを備えている。しかも、前記不連続点検出手段CL5は、前記他輪郭線検出手段CL52によって輪郭線が検出された場合は前記輪郭切断点検出手段CL51によって検出された前記輪郭切断点を不連続点とするようになっている。   In addition, the discontinuous point detection means CL5 of the face part detection device according to the embodiment of the present invention has contour lines (FL1 to FL3) in one direction in the height direction of the face (DF) of the person (D) to be detected. Contour cutting point detection means CL51 for detecting contour cutting points (cutting points Lc12, Lc21, Lc22, Lc31, cutting points Rc12, Rc21, Lc22, Rc31) where the contour line is cut off when tracking FR1 to FR3); The height direction of the face at a position separated in the face width direction around the contour cutting points (cutting points Lc12, Lc21, Lc22, Lc31, cutting points Rc12, Rc21, Lc22, Rc31) detected by the cutting point detection means CL51 And another contour line detecting means CL52 for detecting the presence or absence of another contour line extending in a straight line. Moreover, the discontinuous point detecting means CL5 makes the contour cut point detected by the contour cut point detecting means CL51 a discontinuous point when a contour line is detected by the other contour line detecting means CL52. It has become.

この構成によれば、被検出者(D)の顔(Df)の幅方向両側、即ち顔画像3の両側に高さ方向に延びる輪郭線を検出した場合において、顔幅方向の各側に複数の高さ方向に延びる輪郭線がそれぞれ他輪郭線としてあるか否かを検出できる。しかも、顔幅方向の各側に複数の高さ方向に延びる輪郭線がそれぞれ他輪郭線としてある場合には、複数の輪郭線と輪郭切断点から輪郭線同士の不連続点を検出できる。そして、この不連続点で囲まれる部分を耳領域とすることができる。   According to this configuration, when contour lines extending in the height direction are detected on both sides in the width direction of the face (Df) of the person (D) to be detected, that is, on both sides of the face image 3, a plurality of lines are provided on each side in the face width direction. It is possible to detect whether or not the contour lines extending in the height direction are other contour lines. In addition, when there are contour lines extending in the plurality of height directions on each side in the face width direction as other contour lines, discontinuous points between the contour lines can be detected from the plurality of contour lines and the contour cutting point. And the part enclosed by this discontinuous point can be made into an ear | edge area | region.

また、この発明の実施の形態の顔部位検出装置の前記輪郭検出手段(CL4,CL4a)は、前記被検出者(D)の顔の顔幅中心線Lを規定する顔幅中心線規定手段CL41と、前記顔幅中心線規定手段CL41によって規定された前記顔幅中心線から顔幅方向に外側に向かって画像濃度の変化をみて白方向から黒方向に濃度値が変化する点を見つける濃度変化点検出手段CL42とを備えている。しかも、前記輪郭検出手段(CL4,CL4a)は、前記被検出者(D)の顔の高さ方向に順次、前記濃度変化点検出手段CL42によって濃度変化点を見つけていき、連続する濃度変化点の集合を前記被検出者(D)の顔(Df)の輪郭とするようになっている。   Further, the contour detecting means (CL4, CL4a) of the face part detecting device according to the embodiment of the present invention is a face width centerline defining means CL41 for defining the face width centerline L of the face of the detected person (D). And a density change for finding a point where the density value changes from the white direction to the black direction by looking at the change in image density from the face width center line defined by the face width center line defining means CL41 outward in the face width direction. Point detection means CL42. In addition, the contour detection means (CL4, CL4a) sequentially finds density change points by the density change point detection means CL42 in the height direction of the face of the person (D) to be detected, and successive density change points. Is a contour of the face (Df) of the person (D) to be detected.

この構成によれば、被検出者(D)の顔幅方向両側の高さ方向に延びる輪郭線を容易に検出できる。   According to this configuration, it is possible to easily detect the contour line extending in the height direction on both sides of the face width direction of the person to be detected (D).

更に、この発明の実施の形態の顔部位検出装置の前記顔幅中心線規定手段CL41は前記撮像手段によって撮像された画像の中心線を顔幅中心線とするようになっている。   Furthermore, the face width center line defining means CL41 of the face part detecting device according to the embodiment of the present invention is configured so that the center line of the image captured by the image capturing means is the face width center line.

この構成によれば、顔画像の中心線の規定が単純で容易であるので、顔画像の中心線を顔画像から求める場合に比べて、画像処理時間を短縮できる。尚、この構成では、被検出者が運転者(ドライバー)である場合、運転しているとき殆ど顔の位置が動かないので、顔画像が撮像手段で撮像された画像の略中心又は画像の略全体にある場合、顔幅中心線を画像の幅方向の中心に固定しても良いからである。   According to this configuration, the definition of the center line of the face image is simple and easy, so that the image processing time can be shortened compared to the case where the center line of the face image is obtained from the face image. In this configuration, when the person to be detected is a driver (driver), the position of the face hardly moves when driving, so that the face image is approximately the center of the image captured by the imaging means or the image approximately. This is because the face width center line may be fixed to the center in the width direction of the image when it is entirely present.

また、この発明の実施の形態の顔部位検出装置の前記顔幅中心線規定手段CL41は、前記撮像手段(顔画像撮像手段CL1,カメラ1)によって撮像された画像から眼もしくは眉といった前記被検出者の顔の左右にほぼ対称の位置に存在する顔部位を検出する左右対称顔部位検出手段CL411を備えている。しかも、前記顔幅中心線規定手段CL41は、前記左右対称顔部位検出手段CL411によって検出された前記眼もしくは前記眉といった前記被検出者の顔の左右にほぼ対称の位置に存在する前記顔部位を結んだ顔部位間線分の垂直二等分線を顔幅中心線Lと規定するようになっている。   In addition, the face width centerline defining means CL41 of the face part detecting device according to the embodiment of the present invention detects the detected object such as an eye or an eyebrow from an image picked up by the image pickup means (face image pickup means CL1, camera 1). A bilaterally symmetric face part detecting means CL411 is provided for detecting a face part that exists at a substantially symmetrical position on the left and right of the person's face. In addition, the face width center line defining means CL41 detects the face part that exists in a substantially symmetrical position on the left or right of the face of the detected person such as the eye or the eyebrow detected by the left-right symmetric face part detection means CL411. The perpendicular bisector between the connected face part line segments is defined as a face width center line L.

この構成によれば、顔画像の顔幅方向の中央部側に位置する左右対称の顔部位を検出するようにしているので、耳の画像の一方が顔画像にないような場合でも顔幅中心線Lを確実に求めて、顔幅方向両側において高さ方向に延びる輪郭線を求めることができる。   According to this configuration, since a symmetrical face part located on the center side in the face width direction of the face image is detected, the center of the face width can be obtained even when one of the ear images is not in the face image. The line L can be reliably obtained, and the contour line extending in the height direction on both sides in the face width direction can be obtained.

また、この発明の実施の形態の顔部位検出装置の輪郭検出手段CL4aは、時系列上で異なる時間に前記撮像手段(顔画像撮像手段CL1,カメラ1)によって撮像された複数の画像より差分画像を生成する差分画像生成手段CL7を備えている。しかも、輪郭検出手段は、前記差分画像生成手段CL7によって生成された前記差分画像を画像処理することによって顔の輪郭線を抽出するようになっている。この構成によれば、複数枚の差分画像の輪郭線を時系列的に検出できる。   Further, the contour detection means CL4a of the face part detection device according to the embodiment of the present invention is a difference image from a plurality of images taken by the imaging means (face image imaging means CL1, camera 1) at different times in time series. Is provided with difference image generation means CL7. In addition, the contour detection means extracts the face contour by performing image processing on the difference image generated by the difference image generation means CL7. According to this configuration, the contour lines of a plurality of difference images can be detected in time series.

更に、この発明の実施の形態の顔部位検出装置の前記撮像手段(顔画像撮像手段CL1,カメラ1)は時系列に連続的に動画像として撮像を行うと共に、前記差分画像生成手段CL7は時系列的に近接した2枚の画像フレームから前記差分画像を生成する。この構成によれば、複数枚の差分画像の輪郭線を連続する時系列で検出できる。   Furthermore, the imaging means (face image imaging means CL1, camera 1) of the face part detection device according to the embodiment of the present invention continuously captures moving images in time series, and the difference image generation means CL7 The difference image is generated from two image frames that are close in series. According to this configuration, the contour lines of a plurality of difference images can be detected in a continuous time series.

また、この発明の実施の形態の顔部位検出装置の前記差分画像生成手段は、2枚の原画像(画像フレーム)から生成された前記差分画像の画素濃度を時系列的に近接した複数枚について蓄積するようになっている。この構成によれば、複数枚の差分画像の画素濃度を連続する時系列で蓄積できるので、蓄積される差分画像を順次新しいものに更新することで、連続的な輪郭線の変化を検出することができる。この結果、顔の左右方向或いは上下方向への向きの変化を時間の変化と共に連続的に検出して、被検出者の顔の動きを連続的に監視できる。   In addition, the difference image generation means of the face part detection device according to the embodiment of the present invention is configured to apply a pixel density of the difference image generated from two original images (image frames) to a plurality of images close in time series. Accumulate. According to this configuration, the pixel density of a plurality of difference images can be accumulated in a continuous time series, so that a continuous contour change can be detected by sequentially updating the accumulated difference images. Can do. As a result, a change in the direction of the face in the left-right direction or the up-down direction can be continuously detected as the time changes, and the movement of the face of the person to be detected can be continuously monitored.

本発明の第1の実施形態に係る顔部位検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the face part detection apparatus which concerns on the 1st Embodiment of this invention. 図1の顔部位検出装置を車両に搭載した場合の配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning at the time of mounting the face part detection apparatus of FIG. 1 in a vehicle. 第1の実施形態に係る顔部位検出装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the face part detection apparatus which concerns on 1st Embodiment. 図1に示した顔幅中心線規定手段により規定される顔幅中心線を画像の幅方向中心として、この顔幅中心線と顔画像の一例との関係を示した説明図である。FIG. 3 is an explanatory diagram showing the relationship between the face width center line and an example of a face image with the face width center line defined by the face width center line defining means shown in FIG. 1 as the center in the width direction of the image. 図1に示した顔幅中心線規定手段により規定される顔幅中心線を画像の幅方向中心として、この顔幅中心線と顔画像の他の例との関係を示した説明図である。FIG. 5 is an explanatory diagram showing the relationship between the face width center line and another example of the face image, with the face width center line defined by the face width center line defining means shown in FIG. 1 as the center in the width direction of the image; 図1に示した顔幅中心線規定手段により規定される顔幅中心線を左右の眼から求めて表示すると共に、この顔幅中心線と顔画像の一例との関係を示す説明図である。FIG. 2 is an explanatory diagram showing a face width center line defined by the face width center line defining means shown in FIG. 1 from the left and right eyes and displaying the relationship between the face width center line and an example of a face image. 図1に示した顔幅中心線規定手段により規定される顔幅中心線を左右の眼から求めて表示すると共に、この顔幅中心線と顔画像の他の関係を示す説明図である。It is explanatory drawing which shows the other relationship between this face width centerline and a face image while calculating | requiring and displaying the face width centerline prescribed | regulated by the face width centerline definition means shown in FIG. (a)は顔画像濃度の変化点を検出するための顔高さ方向の検出位置の説明図、(b)は(a)の検出位置における顔幅方向の画像濃度の変化を示す画像濃度変化曲線図である。(A) is explanatory drawing of the detection position of the face height direction for detecting the change point of face image density, (b) is an image density change which shows the change of the image density of the face width direction in the detection position of (a). FIG. 図1の濃度変化点検出手段により検出された濃度変化点の集合を示す説明図である。It is explanatory drawing which shows the collection of the density change points detected by the density change point detection means of FIG. 図9の濃度変化点の集合を繋ぐことにより求められた輪郭線の一例を示す説明図である。It is explanatory drawing which shows an example of the outline calculated | required by connecting the collection of the density | concentration change points of FIG. 図9の濃度変化点の集合を繋ぐことにより求められた輪郭線の他の例を示す説明図である。It is explanatory drawing which shows the other example of the outline calculated | required by connecting the collection of the density | concentration change points of FIG. 図9の輪郭線から求められる耳領域及び耳位置を示す説明図である。It is explanatory drawing which shows the ear | edge area | region and ear position calculated | required from the outline of FIG. 図10の輪郭線から求められる耳領域及び耳位置を示す説明図である。It is explanatory drawing which shows the ear | edge area | region and ear position calculated | required from the outline of FIG. 顔の複数の輪郭線から輪郭線の不連続点の一つを求めるための説明図である。It is explanatory drawing for calculating | requiring one of the discontinuous points of an outline from the some outline of a face. 図14の不連続点の求め方を用いて他の輪郭線の不連続点を求めるための説明図である。It is explanatory drawing for calculating | requiring the discontinuous point of another outline using the method of calculating | requiring the discontinuous point of FIG. 図15のようにして求められた不連続点から耳領域及び耳位置を求めるための説明図である。It is explanatory drawing for calculating | requiring an ear | edge area | region and an ear | edge position from the discontinuous point calculated | required like FIG. 本発明の第2の実施形態に係る顔部位検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the face part detection apparatus which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る顔部位検出装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the face part detection apparatus which concerns on 2nd Embodiment. 図17の差分画像生成手段により差分画像を生成するための説明図である。It is explanatory drawing for producing | generating a difference image by the difference image generation means of FIG. 図19で求められた差分画像から高さ方向の輪郭線を求めるための説明図である。It is explanatory drawing for calculating | requiring the outline of a height direction from the difference image calculated | required in FIG. 図19で求められた高さ方向の輪郭線と顔画像との関係を示す説明図である。It is explanatory drawing which shows the relationship between the outline of a height direction calculated | required in FIG. 19, and a face image.

符号の説明Explanation of symbols

1…カメラ(撮像手段)
CL1…顔画像撮像手段(撮像手段)
CL4…輪郭検出手段
CL41…顔幅中心線規定手段
CL411…左右対称顔部位検出手段
CL42…濃度変化点検出手段
CL4a…輪郭検出手段
CL5…不連続点検出手段
CL51…輪郭切断点検出手段
CL52…他輪郭線検出手段
CL6…耳領域設定手段
CL7…差分画像生成手段
D…運転者(被検出者)
Df…顔
EL,ER…耳領域
FL1〜FL3…輪郭線
FR1〜FR3…輪郭線
Lc12,Lc21,Lc22,Lc31…切断点(輪郭切断点)
Rc12,Rc21,Lc22,Rc31…切断点(輪郭切断点)
1 ... Camera (imaging means)
CL1 ... face image imaging means (imaging means)
CL4 ... contour detection means CL41 ... face width center line defining means CL411 ... left and right symmetrical face part detection means CL42 ... density change point detection means CL4a ... contour detection means CL5 ... discontinuous point detection means CL51 ... contour cut point detection means CL52 ... other Contour line detection means CL6 ... ear region setting means CL7 ... difference image generation means D ... driver (detected person)
Df ... face EL, ER ... ear regions FL1 to FL3 ... contour lines FR1 to FR3 ... contour lines Lc12, Lc21, Lc22, Lc31 ... cutting points (contour cutting points)
Rc12, Rc21, Lc22, Rc31 ... cutting point (contour cutting point)

Claims (9)

画像上のある領域から顔部位を検出する顔部位検出方法であって、
被検出者の顔を前方から撮像して、この撮像された画像から被検出者の顔の輪郭を検出した後、この顔の輪郭が幅方向に不連続となる箇所を検出し、この検出された不連続点に囲まれた領域を耳領域とすることを特徴とする顔部位検出方法。
A face part detection method for detecting a face part from a certain area on an image,
After the face of the person to be detected is imaged from the front and the contour of the face of the person to be detected is detected from the captured image, a portion where the contour of the face is discontinuous in the width direction is detected and detected. An area surrounded by discontinuous points is used as an ear area.
被検出者の顔を前方から撮像する撮像手段と、
前記撮像手段より前記被検出者の顔の輪郭を検出する輪郭検出手段と、
前記輪郭検出手段によって検出された前記被検出者の顔の輪郭が幅方向に不連続となる箇所を検出する不連続点検出手段と、
前記不連続点検出手段によって検出された不連続点に囲まれた領域を耳領域とする耳領域設定手段とを、備えることを特徴とする顔部位検出装置。
Imaging means for imaging the face of the person to be detected from the front;
Contour detecting means for detecting the face contour of the detected person from the imaging means;
Discontinuous point detecting means for detecting a location where the contour of the face of the detected person detected by the contour detecting means is discontinuous in the width direction;
A face part detecting apparatus comprising: an ear region setting unit that uses an area surrounded by discontinuous points detected by the discontinuous point detecting unit as an ear region.
請求項2に記載の顔部位検出装置において、前記不連続点検出手段は、前記被検出者の顔の高さ方向で一方向に輪郭線を追跡したときに輪郭線がとぎれる輪郭切断点を検出する輪郭切断点検出手段と、前記輪郭切断点検出手段によって検出された輪郭切断点を中心に顔幅方向に隔たった位置に顔の高さ方向に伸びる別の輪郭線の有無を検出する他輪郭線検出手段とを備えると共に、前記他輪郭線検出手段によって輪郭線が検出された場合は前記輪郭切断点検出手段によって検出された輪郭切断点を不連続点とすることを特徴とする顔部位検出装置。   3. The face part detecting device according to claim 2, wherein the discontinuous point detecting means detects a contour cut point where a contour line is broken when the contour line is traced in one direction in a height direction of the face of the detected person. Contour cutting point detecting means for detecting the presence or absence of another contour line extending in the face height direction at a position separated in the face width direction around the contour cutting point detected by the contour cutting point detecting means A face detection unit, wherein a contour cut point detected by the contour cut point detection unit is used as a discontinuous point when a contour line is detected by the other contour line detection unit. apparatus. 請求項2に記載の顔部位検出装置において、前記輪郭検出手段は、前記被検出者の顔幅の中心線を規定する顔幅中心線規定手段と、前記顔幅中心線規定手段によって規定された前記顔幅中心線から顔幅方向に外側に向かって画像濃度の変化をみて白方向から黒方向に濃度値が変化する点を見つける濃度変化点検出手段とを備えると共に、前記被検出者の顔の高さ方向に順次、前記濃度変化点検出手段によって濃度変化点を見つけていき、連続する濃度変化点の集合を前記被検出者の顔の輪郭とすることを特徴とする顔部位検出装置。   3. The face part detecting apparatus according to claim 2, wherein the contour detecting means is defined by a face width center line defining means for defining a center line of the face width of the detected person and the face width center line defining means. Density change point detection means for finding a point where the density value changes from the white direction to the black direction by looking at the change in image density from the face width center line outward in the face width direction, and the face of the person to be detected An apparatus for detecting a part of a face, wherein a density change point is found by the density change point detection means sequentially in the height direction, and a set of continuous density change points is used as the face contour of the detected person. 請求項4に記載の顔部位検出装置において、前記顔幅中心線規定手段は前記撮像手段によって撮像された画像の中心線を顔幅中心線とすることを特徴とする顔部位検出装置。   5. The face part detection apparatus according to claim 4, wherein the face width center line defining means sets a center line of an image taken by the image pickup means as a face width center line. 請求項4に記載の顔部位検出装置において、前記顔幅中心線規定手段は、前記撮像手段によって撮像された画像から眼もしくは眉といった前記被検出者の顔の左右にほぼ対称の位置に存在する顔部位を検出する左右対称顔部位検出手段を備えると共に、前記左右対称顔部位検出手段によって検出された前記眼もしくは前記眉といった前記被検出者の顔の左右にほぼ対称の位置に存在する前記顔部位を結んだ顔部位間線分の垂直二等分線を顔幅中心線と規定することを特徴とする顔部位検出装置。   5. The face part detecting device according to claim 4, wherein the face width center line defining means is present at a position that is substantially symmetrical to the left and right of the face of the person to be detected, such as an eye or an eyebrow, from an image captured by the imaging means. The face having a left and right symmetrical face part detecting means for detecting a face part, and present at a position substantially symmetrical to the left and right of the face of the detected person such as the eye or the eyebrow detected by the left and right symmetrical face part detecting means. A face part detecting apparatus characterized in that a vertical bisector of line segments between face parts connecting parts is defined as a face width center line. 請求項2に記載の顔部位検出装置において、輪郭検出手段は、時系列上で異なる時間に前記撮像手段によって撮像された複数の画像より差分画像を生成する差分画像生成手段を備えると共に、前記差分画像生成手段によって生成された前記差分画像を画像処理することによって顔の輪郭線を抽出することを特徴とする顔部位検出装置。   The face part detection device according to claim 2, wherein the contour detection unit includes a difference image generation unit that generates a difference image from a plurality of images captured by the imaging unit at different times on a time series, and the difference An apparatus for detecting a facial region, wherein a facial contour line is extracted by subjecting the difference image generated by an image generating means to image processing. 請求項7に記載の顔部位検出装置において、前記撮像手段は時系列に連続的に動画像として撮像を行うと共に、前記差分画像生成手段は時系列的に近接した2枚の画像フレームから前記差分画像を生成することを特徴とする顔部位検出装置。   8. The face part detection apparatus according to claim 7, wherein the imaging unit captures a moving image continuously in time series, and the difference image generation unit calculates the difference from two adjacent image frames in time series. An apparatus for detecting a facial part, characterized by generating an image. 請求項8に記載の顔部位検出装置において、前記差分画像生成手段は2枚の原画像から生成された前記差分画像の画素濃度を時系列的に近接した複数枚について蓄積することを特徴とする顔部位検出装置。
9. The face part detection apparatus according to claim 8, wherein the difference image generation means accumulates the pixel density of the difference image generated from two original images for a plurality of adjacent images in time series. Face part detection device.
JP2006081139A 2006-03-23 2006-03-23 Face portion detecting method and its device Pending JP2007257322A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006081139A JP2007257322A (en) 2006-03-23 2006-03-23 Face portion detecting method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006081139A JP2007257322A (en) 2006-03-23 2006-03-23 Face portion detecting method and its device

Publications (1)

Publication Number Publication Date
JP2007257322A true JP2007257322A (en) 2007-10-04

Family

ID=38631500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006081139A Pending JP2007257322A (en) 2006-03-23 2006-03-23 Face portion detecting method and its device

Country Status (1)

Country Link
JP (1) JP2007257322A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102712A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
KR20160080169A (en) * 2014-12-29 2016-07-07 현대자동차주식회사 Driver State Monitoring Apparatus and Method for Correcting Position of Camera thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102712A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
KR20160080169A (en) * 2014-12-29 2016-07-07 현대자동차주식회사 Driver State Monitoring Apparatus and Method for Correcting Position of Camera thereof
KR101684032B1 (en) * 2014-12-29 2016-12-07 현대자동차주식회사 Driver State Monitoring Apparatus and Method for Correcting Position of Camera thereof

Similar Documents

Publication Publication Date Title
JP5421072B2 (en) Approaching object detection system
JP4899424B2 (en) Object detection device
US9424462B2 (en) Object detection device and object detection method
JP6014440B2 (en) Moving object recognition device
WO2009116242A1 (en) Driver monitoring apparatus, driver monitoring method, and vehicle
JP2007164636A (en) Lane line detection device
JP2008067362A (en) Image processor and image processing method
JP2007179386A (en) Method and apparatus for recognizing white line
US9367751B2 (en) Object detection device for area around vehicle
JP2008158640A (en) Moving object detection apparatus
JP5297407B2 (en) Traffic flow measuring device
JP2009265722A (en) Face direction sensing device
US9827906B2 (en) Image processing apparatus
JP2003077099A (en) Preceding vehicle recognition system
JP4887537B2 (en) Vehicle periphery monitoring device
JPH1114346A (en) Vehicular obstacle detecting device
JP3868915B2 (en) Forward monitoring apparatus and method
JP2010061375A (en) Apparatus and program for recognizing object
JP2009125518A (en) Driver&#39;s blink detection method, driver&#39;s awakening degree determination method, and device
JP2007257322A (en) Face portion detecting method and its device
JP2004185425A (en) Lane mark recognition method and device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2012103748A (en) Road section line recognition device
JP2008042759A (en) Image processing apparatus
JP2009278185A (en) Image recognition apparatus