JP3811474B2 - Face part position detection method and face part position detection apparatus - Google Patents

Face part position detection method and face part position detection apparatus Download PDF

Info

Publication number
JP3811474B2
JP3811474B2 JP2003285971A JP2003285971A JP3811474B2 JP 3811474 B2 JP3811474 B2 JP 3811474B2 JP 2003285971 A JP2003285971 A JP 2003285971A JP 2003285971 A JP2003285971 A JP 2003285971A JP 3811474 B2 JP3811474 B2 JP 3811474B2
Authority
JP
Japan
Prior art keywords
probability
face
matching
peripheral
face part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003285971A
Other languages
Japanese (ja)
Other versions
JP2005056124A (en
Inventor
健司 岩田
Original Assignee
財団法人ソフトピアジャパン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財団法人ソフトピアジャパン filed Critical 財団法人ソフトピアジャパン
Priority to JP2003285971A priority Critical patent/JP3811474B2/en
Publication of JP2005056124A publication Critical patent/JP2005056124A/en
Application granted granted Critical
Publication of JP3811474B2 publication Critical patent/JP3811474B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔部品位置検出方法及び顔部品位置検出装置に関するものである。   The present invention relates to a face part position detection method and a face part position detection apparatus.

得られた画像から顔領域を検出して顔部品(目、鼻、口等)を検出する手法としては、例えば、4方向面特徴と色情報とを組み合わせる手法(非特許文献1参照)がある。
又、顔部品検出には特許文献1に開示されるようなパターンマッチングを利用した手法を用いることも考えられる。パターンマッチングでは、予め登録された顔部品パターンと、取得した画像とを照合することによって顔部品検出が行われる。
本郷仁志、山本和彦,「動領域内の肌色推定による顔領域および顔部品抽出」,映像情報メディア学会誌,社団法人映像情報メディア学会,1998年12月,第52巻,第12号,P.86−93 特開平7−141506号
As a method for detecting a face region (eye, nose, mouth, etc.) by detecting a face region from the obtained image, for example, there is a method for combining four-way surface features and color information (see Non-Patent Document 1). .
In addition, it is conceivable to use a technique using pattern matching as disclosed in Patent Document 1 for face part detection. In pattern matching, face part detection is performed by collating a face part pattern registered in advance with an acquired image.
Hitoshi Hongo, Kazuhiko Yamamoto, “Facial region and facial part extraction by estimating skin color in moving region”, Journal of the Institute of Image Information and Television Engineers, The Institute of Image Information and Television Engineers, December 1998, Vol. 52, No. 12, p. 86-93 JP-A-7-141506

しかし、これらの手法では、一部の顔部品が隠蔽されているような場合には、隠蔽されていない顔部品位置を精度良く検出することができない。
本発明は、一部の顔部品が部分的あるいは完全に隠蔽されているような場合にも、隠蔽されていない顔部品の位置を精度良く検出することを目的とする。
However, with these methods, when some facial parts are concealed, the position of the facial parts that are not concealed cannot be detected with high accuracy.
An object of the present invention is to accurately detect the position of a face part that is not concealed even when some face parts are partially or completely concealed.

請求項1の発明は、撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行い、この4方向面特徴のテンプレートマッチングにおける初期類似度と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって前記特定の顔部品の位置を検出する顔部品位置検出方法において、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めることを特徴とする。 According to the first aspect of the present invention, the template matching of the four-way surface feature is performed on the face area in the captured image, the initial similarity in the template matching of the four-way surface feature, the specific face part, and the specific face. A facial part position detection method for obtaining a peripheral matching probability representing a relationship with a peripheral facial part of the part, and detecting a position of the specific facial part by a relaxation matching method using the initial similarity and the peripheral matching probability In order to derive the peripheral matching probability , a neighborhood correspondence probability that is the maximum value obtained by multiplying the correspondence probability at each position of the face region by a Gaussian distribution for each specific face part is obtained and multiplied by the neighborhood correspondence probability. When the peripheral matching probability of each facial part is obtained by calculation, the peripheral matching probability is calculated by eliminating at least one of the neighborhood correspondence probabilities that are not the maximum value.

請求項2の発明は、顔を撮像するための撮像手段と、前記撮像手段によって撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、この4方向面特徴のテンプレートマッチングにおける初期類似度を算出するテンプレートマッチング手段と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって顔部品の位置を検出する弛緩整合手段とを備えた顔部品位置検出装置を構成し、前記弛緩整合手段は、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めるものとしたことを特徴とする。 According to a second aspect of the present invention, image matching means for capturing a face, and template matching of four-directional surface features are performed on a face area in an image captured by the imaging means, and the template matching of the four-directional surface features is performed. A template matching means for calculating an initial similarity in the image, a peripheral matching probability representing a relationship between the specific facial part and a peripheral facial part of the specific facial part, and obtaining the initial similarity and the peripheral matching probability. by relaxation matching method using configure the facial parts position detection device and a relaxation aligning means for detecting the position of the facial parts, the relaxation aligning means for guiding said peripheral adaptation probability, face each particular face parts The neighborhood correspondence probability, which is the maximum value of the correspondence probability at each position in the region multiplied by the Gaussian distribution, is calculated and multiplied by the neighborhood correspondence probability. When obtaining the engagement probability, characterized by eliminating at least one of the neighboring corresponding probability not maximum value that was assumed to determine the peripheral adaptation probability.

本発明では、一部の顔部品が隠蔽されているような場合にも、隠蔽されていない顔部品の位置を精度良く検出することができるという優れた効果を奏する。   In the present invention, even when some facial parts are concealed, there is an excellent effect that the position of the facial parts that are not concealed can be detected with high accuracy.

以下、本発明を具体化した一実施形態を図1〜図3に基づいて説明する。
図1(a)に示すように、顔部品位置検出装置10は、撮像手段としてのビデオカメラ11と、表示装置121を備えたコンピュータ12とからなる。ビデオカメラ11は、CCDカメラである。ビデオカメラ11で撮影された個々のフレーム(画像データ)は、カラー画像としてコンピュータ12に入力されるようになっている。Mは、ビデオカメラ11の撮影範囲にいる人である。Fは人Mの顔である。コンピュータ12は、ビデオカメラ11で撮影された画像を表示装置121に表示させる。
DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS.
As shown in FIG. 1A, the face part position detection device 10 includes a video camera 11 as an imaging unit and a computer 12 including a display device 121. The video camera 11 is a CCD camera. Individual frames (image data) photographed by the video camera 11 are input to the computer 12 as color images. M is a person in the shooting range of the video camera 11. F is the face of person M. The computer 12 causes the display device 121 to display an image captured by the video camera 11.

図1(b)は、コンピュータ12の機能ブロック図である。
画像取得手段13は、ビデオカメラ11からの画像の取得を行う。図1(a)における画像Gは、画像取得手段13によって取得された画像の例を示している。画像Gにおけるf(1)は、顔部品である右目を表し、f(2)は、顔部品である左目を表す。f(3)は、顔部品である口を表し、f(4)は、顔部品である鼻を表す。
FIG. 1B is a functional block diagram of the computer 12.
The image acquisition unit 13 acquires an image from the video camera 11. An image G in FIG. 1A shows an example of an image acquired by the image acquisition unit 13. In the image G, f (1) represents a right eye that is a facial part, and f (2) represents a left eye that is a facial part. f (3) represents a mouth which is a facial part, and f (4) represents a nose which is a facial part.

顔領域検出手段14は、画像取得手段13によって取得された画像G〔図1(a)を参照〕から顔領域を検出する。この顔領域の検出は、例えば非特許文献1に開示される手法(色情報と動き情報とを組み合わせて顔領域を検出する手法)を用いて行われる。この手法に必要なデータ(例えば、パターンマッチング用の顔パターンデータ、基準となる肌色データ等)は、記憶手段16に記憶されている。   The face area detection unit 14 detects a face area from the image G (see FIG. 1A) acquired by the image acquisition unit 13. The detection of the face area is performed using, for example, a technique disclosed in Non-Patent Document 1 (a technique for detecting a face area by combining color information and motion information). Data necessary for this method (for example, face pattern data for pattern matching, reference skin color data, etc.) is stored in the storage means 16.

テンプレートマッチング手段15は、4方向面特徴のテンプレートマッチングを行う。4方向面特徴とは、画像におけるエッジの向きにより横方向、右上がり方向、縦方向、右下がり方向の4つに分けて作成された特徴量である。換言すると、4方向面特徴とは、画像における濃淡値の勾配により各画素での4方向(横方向、右上がり方向、縦方向、右下がり方向)のベクトル場を求め、濃淡値をそれぞれの方向別の面に分割してガウシャンフィルタをかけた特徴量である。   The template matching unit 15 performs template matching of the four-direction surface features. The four-direction plane feature is a feature amount created by dividing into four directions of a horizontal direction, a right-up direction, a vertical direction, and a right-down direction depending on the edge direction in the image. In other words, the four-direction plane feature is a vector field in four directions (horizontal direction, right-up direction, vertical direction, right-down direction) at each pixel based on the gradient of the gray value in the image, and the gray value is determined in each direction. This is a feature amount that is divided into another surface and subjected to a Gaussian filter.

記憶手段16には4方向面特徴のテンプレートT1,T2,T3,T4が記憶されている。T1は、右目に関するテンプレート、T2は、左目に関するテンプレート、T3は、口に関するテンプレート、T4は、鼻に関するテンプレートである。以下、テンプレートT1,T2,T3,T4をTi(i=1,2,3,4)と表す。iは、顔部品を表す。テンプレートマッチング手段15は、この記憶された4方向面特徴のテンプレートTiを用いて、検出された顔領域に対してテンプレートマッチングを行う。そして、テンプレートマッチング手段15は、このテンプレートマッチングに基づいて、4方向面特徴の初期類似度を算出する。   The storage unit 16 stores templates T1, T2, T3, and T4 of four-direction surface features. T1 is a template related to the right eye, T2 is a template related to the left eye, T3 is a template related to the mouth, and T4 is a template related to the nose. Hereinafter, the templates T1, T2, T3, and T4 are represented as Ti (i = 1, 2, 3, 4). i represents a face part. The template matching unit 15 performs template matching on the detected face region using the stored template Ti of the four-directional surface features. Then, the template matching unit 15 calculates the initial similarity of the four-direction plane feature based on this template matching.

弛緩整合手段17は、弛緩整合法を用いて顔部品の位置検出を行う。
図3は、コンピュータ12によって遂行される顔部品位置検出プログラムを表すフローチャートである。以下、このフローチャートを参照して顔部品位置検出装置10による顔検出を説明する。
The relaxation matching means 17 detects the position of the facial part using the relaxation matching method.
FIG. 3 is a flowchart showing a face part position detection program executed by the computer 12. Hereinafter, face detection by the face part position detection apparatus 10 will be described with reference to this flowchart.

ステップS1において、まず、画像取得手段13は、ビデオカメラ11からの画像の取得を行うか否かの判定を行う。即ち、本実施形態では、ビデオカメラ11からの画像の取得は、所定の時間間隔t(例えばt=0.1秒)毎に行われるようになっており、画像取得手段13は、画像取得の時刻か否かを判定する。そして、画像を取得する時刻であると判断した場合(ステップS1においてYES)、画像取得手段13は、ビデオカメラ11からの画像の取得を行う(ステップS2)。一方、画像取得手段13が画像を取得する時刻ではないと判断した場合(ステップS1においてNO)、ステップS1が繰り返される。   In step S <b> 1, first, the image acquisition unit 13 determines whether or not to acquire an image from the video camera 11. That is, in the present embodiment, the image acquisition from the video camera 11 is performed at predetermined time intervals t (for example, t = 0.1 seconds), and the image acquisition unit 13 performs image acquisition. It is determined whether it is time. If it is determined that it is time to acquire an image (YES in step S1), the image acquisition unit 13 acquires an image from the video camera 11 (step S2). On the other hand, when it is determined that the image acquisition unit 13 does not acquire the image (NO in step S1), step S1 is repeated.

ビデオカメラ11からの画像を取得した後、顔領域検出手段14は、取得した画像内で顔領域の探索を行い(ステップS3)、画像内に顔領域があるか否かを判定する(ステップS4)。顔領域がないとの判定が行われた場合(ステップS4においてNO)、コンピュータ12は、ステップS1へ戻る。顔領域が有るとの判定が行われた場合(ステップS4においてYES)、テンプレートマッチング手段15は、テンプレートTiで顔領域を走査して顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、初期類似度Γikを算出する(ステップS5)。図2(a),(b)における画像は、顔領域検出手段14によって画像Gから検出された顔領域fを表す。 After acquiring the image from the video camera 11, the face area detecting means 14 searches for the face area in the acquired image (step S3), and determines whether there is a face area in the image (step S4). ). If it is determined that there is no face area (NO in step S4), the computer 12 returns to step S1. When it is determined that there is a face area (YES in step S4), the template matching unit 15 scans the face area with the template Ti and performs template matching of the four-directional surface features on the face area. An initial similarity Γik 0 is calculated (step S5). The images in FIGS. 2A and 2B represent the face area f detected from the image G by the face area detecting means 14.

本実施形態では、4方向面特徴を入力解像度の1/8と低解像度化し、各顔部品iの4方向面特徴の解像度を8×4としている。初期類似度Γikは、式(1)のように表される。 In the present embodiment, the resolution of the four-way plane feature is reduced to 1/8 of the input resolution, and the resolution of the four-way plane feature of each facial part i is 8 × 4. The initial similarity Γik 0 is expressed as in Expression (1).

Figure 0003811474
式(1)におけるnは、顔領域におけるテンプレートTiによって切り取られた数(本実施形態では128通りの数)を表し、Ik(n)は、テンプレートTiによって顔領域における位置(Xk,Yk)(X,Yは、2次元座標を表す)で切り出した4方向面特徴を表す。位置(Xk,Yk)は、テンプレートTiの中心の座標である。
Figure 0003811474
In Expression (1), n represents the number cut by the template Ti in the face area (128 numbers in this embodiment), and Ik (n) represents the position (Xk, Yk) ( X and Y represent four-direction plane features cut out in two-dimensional coordinates). The position (Xk, Yk) is the coordinates of the center of the template Ti.

テンプレートマッチング手段15は、テンプレートTi毎に得られた複数の初期類似度Γikをそれらの最大値で割って正規化する。正規化された初期類似度Pik(以下、初期対応確率という)は、次式(2)で表される。 The template matching unit 15 normalizes the plurality of initial similarities Γik 0 obtained for each template Ti by dividing them by their maximum values. The normalized initial similarity Pik 0 (hereinafter referred to as initial correspondence probability) is expressed by the following equation (2).

Figure 0003811474
ステップS5の処理後、弛緩整合手段17は、弛緩整合法を用いて顔部品の位置を決定する(ステップS6)。ステップS6では以下のような処理が行われる。まず、弛緩整合手段17は、式(3)に基づいて近傍対応確率Qjeを算出する。
Figure 0003811474
After the processing of step S5, the relaxation matching means 17 determines the position of the facial part using the relaxation matching method (step S6). In step S6, the following processing is performed. First, the relaxation matching means 17 calculates the neighborhood correspondence probability Qje 0 based on the equation (3).

Figure 0003811474
j(=1,2,3,4であってj≠i)は、顔部品iに対する周辺の顔部品を表す。σは、ガウス分布の標準偏差である。eは、顔部品jに対する顔領域内での相対位置(Xe,Ye)を表す。Xeは、式(4)で表され、Yeは式(5)で表される。
Figure 0003811474
j (= 1, 2, 3, 4 and j ≠ i) represents a peripheral face part with respect to the face part i. σ is the standard deviation of the Gaussian distribution. e represents a relative position (Xe, Ye) within the face region with respect to the face part j. Xe is represented by Formula (4), and Ye is represented by Formula (5).

Figure 0003811474
Figure 0003811474

Figure 0003811474
式(3)におけるe′は、顔領域の全体を表し、e′の位置を(Xe′,Ye′)とすると、e,e′間の距離Dee′は、式(6)で表される。
Figure 0003811474
In equation (3), e ′ represents the entire face region, and when the position of e ′ is (Xe ′, Ye ′), the distance Dee ′ between e and e ′ is represented by equation (6). .

Figure 0003811474
式(3)は、顔領域での位置eにおける対応確率Pjeにガウス分布を掛けて最大値を算出する計算式である。式(3)において、相対位置(Xe,Ye)が顔領域外にある場合には、Qje=0としている。
Figure 0003811474
Expression (3) is a calculation expression for calculating the maximum value by multiplying the corresponding probability Pje 0 at the position e in the face region by the Gaussian distribution. In Expression (3), when the relative position (Xe, Ye) is outside the face area, Qje 0 = 0.

次に、弛緩整合手段17は、式(7)に基づいて周辺適合確率qikを算出する。 Next, the relaxation matching means 17 calculates the peripheral matching probability qik 0 based on the equation (7).

Figure 0003811474
周辺適合確率qikは、顔部品iに対する全ての周辺の顔部品jのうちの選ばれた顔部品jに関して、近傍対応確率Qjeを掛け合わせて得られるものである。本実施形態では、弛緩整合手段17は、(7)式に用いる近傍対応確率Qjeとして、値が最大の近傍対応確率と、次に大きな値の近傍対応確率とを選択する。例えば、顔部品i=1(右目)に関してQ2eが最大値であってQ3eが次に大きな値であった場合、式(7)は、次式(8)となる。
Figure 0003811474
The peripheral matching probability qik 0 is obtained by multiplying the selected face part j among all the peripheral face parts j for the face part i by multiplying by the neighborhood correspondence probability Qje 0 . In the present embodiment, the relaxation matching means 17 selects the neighborhood correspondence probability having the maximum value and the neighborhood correspondence probability having the next largest value as the neighborhood correspondence probability Qje 0 used in the equation (7). For example, when Q2e 0 is the maximum value and Q3e 0 is the next largest value for the face part i = 1 (right eye), Expression (7) becomes the following Expression (8).

Figure 0003811474
次に、弛緩整合手段17は、式(9)に基づいて、対応度Γikを算出する。tは、1,2,3・・・を表す。
Figure 0003811474
Next, the relaxation matching means 17 calculates the correspondence Γik t based on the equation (9). t represents 1, 2, 3,.

Figure 0003811474
周辺適合確率qikは、式(10)で表される。
Figure 0003811474
The peripheral matching probability qik t is expressed by Expression (10).

Figure 0003811474
弛緩整合手段17は、式(10)を用いた演算においても、式(10)に用いる近傍対応確率Qjeとして、値が最大の近傍対応確率と、次に大きな値の近傍対応確率とを選択する。例えば、顔部品i=1(右目)に関してQ2eが最大値であってQ3eが次に大きな値であった場合、式(10)は、次式(11)となる。
Figure 0003811474
Relaxation matching means 17, also in the operation using the equation (10), selected as a neighboring corresponding probability Qje t used in equation (10), and the maximum neighboring corresponding probability value, and a neighborhood corresponding probability of the next largest value To do. For example, if Q2E t regard face part i = 1 (right eye) were then large value Q3e t a maximum value, equation (10) becomes the following equation (11).

Figure 0003811474
そして、弛緩整合手段17は、顔部品iにおける対応度Γikをそれらのうちの最大値で割って正規化された対応確率Pikを算出する。対応確率Pikは、式(12)で表される。
Figure 0003811474
Then, the relaxation matching unit 17 calculates the normalized correspondence probability Pik t by dividing the correspondence degree Γik t of the facial part i by the maximum value of them. The correspondence probability Pik t is expressed by Expression (12).

Figure 0003811474
弛緩整合手段17は、式(9),(10),(12)を用いた演算を所定回数t(本実施形態では4回)繰り返す。
Figure 0003811474
The relaxation matching unit 17 repeats the calculation using the equations (9), (10), and (12) a predetermined number of times t (four times in the present embodiment).

ステップS6の処理後、弛緩整合手段17は、最後に得られた対応確率PikにおいてPik=1となるkを顔部品iの位置として記憶手段16に記憶させる(ステップS7)。 After the processing in step S6, the relaxation matching unit 17 stores k, which is Pik 4 = 1 in the last obtained correspondence probability Pik 4 , in the storage unit 16 as the position of the face part i (step S7).

本実施の形態では以下の効果が得られる。
(1−1)図2(c)における画像g(01),g(02),g(03),g(04)は、算出された初期対応確率Pik0に基づいて得られる顔部品画像を表す。画像g(11),g(12),g(13),g(14)は、算出された対応確率Pikに基づいて得られる顔部品画像を表し、画像g(21),g(22),g(23),g(24)は、算出された対応確率Pikに基づいて得られる顔部品画像を表す。画像g(31),g(32),g(33),g(34)は、算出された対応確率Pikに基づいて得られる顔部品画像を表し、画像g(41),g(42),g(43),g(44)は、算出された対応確率Pikに基づいて得られる顔部品画像を表す。画像g(41),g(42),g(43),g(44)は、Pik=1となるkを顔部品iの位置として決定された顔部品iの位置を表している。図2(c)は、対応確率Pikの変化過程を示すものであり、顔部品iの正しい位置での対応度が強調されてゆき、顔部品iの異なる位置での対応度が抑制されてゆく様子がわかる。
In this embodiment, the following effects can be obtained.
(1-1) Images g (01), g (02), g (03), and g (04) in FIG. 2C represent face part images obtained based on the calculated initial correspondence probability Pik0. . Images g (11), g (12), g (13), and g (14) represent face part images obtained based on the calculated corresponding probability Pik 1 , and images g (21) and g (22). , g (23), g ( 24) represents a face part image obtained based on the calculated corresponding probability Pik 2. Images g (31), g (32), g (33), and g (34) represent face part images obtained based on the calculated corresponding probability Pik 3 , and images g (41) and g (42). , g (43), g ( 44) represents a face part image obtained based on the corresponding probability Pik 4 calculated. The images g (41), g (42), g (43), and g (44) represent the position of the face part i determined by setting k at which Pik 4 = 1 as the position of the face part i. FIG. 2 (c) shows the changing process of the correspondence probability Pik t. The degree of correspondence at the correct position of the face part i is emphasized, and the degree of correspondence at a different position of the face part i is suppressed. You can see how it goes.

図1(a)における画像Gでは、顔部品である左目が隠蔽されている。図2(a)における枠W1,W3,W4は、顔部品位置検出装置10によって検出された顔部品位置を概略的に表したものである。つまり、図2(a)における枠W1,W3,W4は、式(10)に用いる近傍対応確率Qjeとして、値が最大の近傍対応確率と次に大きい近傍対応確率とを選択して演算した場合に検出される顔部品位置を概略的に表したものである。図2(b)における枠H1,H3,H4は、式(10)に用いる近傍対応確率Qjeとして全ての近傍対応確率Qjeを選択して演算した場合に検出される顔部品位置を概略的に表したものである。図2(b)に示すように隠蔽されていない顔部品の位置が不正確になるのは、他の顔部品の隠蔽によって周辺適合確率qikが下がってしまうためである。 In the image G in FIG. 1A, the left eye that is a facial part is concealed. Frames W1, W3, and W4 in FIG. 2A schematically represent the face part positions detected by the face part position detection apparatus 10. In other words, the frame W1, W3, W4 in FIG. 2 (a), as a neighboring corresponding probability Qje t used in equation (10), the value is computed by selecting the next larger neighboring corresponding probability and the maximum in the vicinity of the corresponding probability It is a schematic representation of the face part position detected in this case. Frame H1, H3 in FIG. 2 (b), H4 schematically facial parts position detected when operation by selecting all neighboring corresponding probability Qje t as a neighboring corresponding probability Qje t used in equation (10) It is shown in As shown in FIG. 2B, the position of the face part that is not concealed becomes inaccurate because the peripheral matching probability qik t is lowered by concealing other face parts.

本実施形態では、式(10)に用いる近傍対応確率Qjeとして、例えば値が最大の近傍対応確率と次に大きい近傍対応確率とを選択する。換言すると、式(10)に用いる近傍対応確率Qjeとして値が最小の近傍対応確率を排除するので、図2(a)に示すように一部の顔部品が隠蔽されている場合にも、隠蔽されていない顔部品の位置を精度良く検出することができる。 In the present embodiment, as a neighboring corresponding probability Qje t used in equation (10), for example, the value selects the next larger neighboring corresponding probability and the maximum in the vicinity of the corresponding probabilities. In other words, since the expression is a value as near corresponding probability Qje t used in (10) to eliminate the smallest near the corresponding probability, even if is concealed part of the face parts as shown in FIG. 2 (a), The position of the face part that is not concealed can be detected with high accuracy.

(1−2)一部の顔部品が部分的に隠蔽されていたり、顔が斜めや横を向いて顔部品の形状が変化したりした場合にも、顔部品の位置を精度良く検出することができる。
本発明では以下のような実施形態も可能である。
(1-2) Detecting the position of a face part with high accuracy even when some face parts are partially hidden or the face is inclined or sideways and the shape of the face part changes. Can do.
In the present invention, the following embodiments are also possible.

(1)式(10)に用いる近傍対応確率Qjeとして、値が最大の近傍対応確率のみを選択してもよい。排除される近傍対応確率は、値が大きくなってゆく順に連続して並ぶ複数の近傍対応確率である。 (1) as a neighboring corresponding probability Qje t used in equation (10), the value may be selected only up to the vicinity corresponding probability. The neighborhood correspondence probabilities to be excluded are a plurality of neighborhood correspondence probabilities arranged successively in order of increasing values.

(2)耳を顔部品としてもよい。
(3)眉を顔部品としてもよい。
(4)目の縁や口の端を顔部品としてもよい。つまり、目のうちの一部や口のうちの一部を顔部品と見なすこともできる。
(2) The ear may be a facial part.
(3) Eyebrows may be used as facial parts.
(4) The edge of the eye or the edge of the mouth may be a facial part. That is, a part of the eyes and a part of the mouth can be regarded as face parts.

前記した実施の形態から把握できる技術的思想について以下に記載する。
〔1〕前記排除される近傍対応確率は、少なくとも最小値の近傍対応確率を含む請求項1に記載の顔部品位置検出方法。
The technical idea that can be grasped from the embodiment described above will be described below.
[1] The face part position detecting method according to claim 1, wherein the excluded neighborhood correspondence probability includes at least a neighborhood correspondence probability of a minimum value.

〔2〕前記排除される近傍対応確率は、値が大きくなってゆく順に連続して並ぶ複数の近傍対応確率である請求項1及び前記〔1〕項のいずれか1項に記載の顔部品位置検出方法。   [2] The face part position according to any one of [1] and [1], wherein the excluded neighborhood correspondence probabilities are a plurality of neighborhood correspondence probabilities arranged successively in order of increasing value. Detection method.

〔3〕前記排除される近傍対応確率は、値が最大の近傍対応確率以外の全てである請求項1、前記〔1〕項及び〔2〕項のいずれか1項に記載の顔部品の位置検出方法。
〔4〕撮像された画像から顔領域を検出した後、検出された顔領域に対して4方向面特徴のテンプレートマッチングを行う請求項1、前記〔1〕項及び〔2〕項のいずれか1項に記載の顔部品の位置検出方法。
[3] The position of the face part according to any one of [1], [1], and [2], wherein the excluded neighborhood correspondence probabilities are all except the neighborhood correspondence probability having the maximum value. Detection method.
[4] After detecting the face area from the captured image, the template matching of the four-direction surface feature is performed on the detected face area, and any one of [1] and [2] The method for detecting the position of a facial part as described in the item.

〔5〕撮像された画像から顔領域を検出する顔領域検出手段を備え、前記テンプレートマッチング手段は、前記顔領域検出手段によって検出された顔領域に対して4方向面特徴のテンプレートマッチングを行う請求項2に記載の顔部品位置検出装置。   [5] The image processing apparatus includes a face area detection unit that detects a face area from the captured image, and the template matching unit performs template matching of four-direction surface features on the face area detected by the face area detection unit. Item 3. The face part position detection apparatus according to Item 2.

(a)は、一実施形態の顔検出装置を示すブロック図。(b)は、コンピュータの機能ブロック図。FIG. 3A is a block diagram illustrating a face detection device according to an embodiment. (B) is a functional block diagram of a computer. (a),(b)は、顔領域を表す画像図。(c)は、対応確率Pikの変化を示す説明図。(A), (b) is an image figure showing a face area. (C) is explanatory drawing which shows the change of corresponding | compatible probability Pik t . 顔部品位置検出プログラムを表すフローチャート。The flowchart showing a face component position detection program.

符号の説明Explanation of symbols

10…顔部品位置検出装置。11…ビデオカメラ(撮像手段)。12…コンピュータ(顔領域検出手段、テンプレートマッチング手段、弛緩整合手段)。14…顔領域検出手段。15…テンプレートマッチング手段。17…弛緩整合手段。G…画像。f…顔領域。f(1)…顔部品(右目)。f(2)…顔部品(左目)。f(3)…顔部品(口)。f(4)…顔部品(鼻)。Γik…初期類似度。qik…周辺適合確率。Qje…近傍対応確率。 10: Facial component position detection device. 11: Video camera (imaging means). 12: Computer (face area detection means, template matching means, relaxation matching means). 14. Face area detecting means. 15: Template matching means. 17: Relaxation matching means. G ... Image. f: Face area. f (1): Facial part (right eye). f (2): Face part (left eye). f (3): Facial part (mouth). f (4): Face part (nose). Γik 0 ... Initial similarity. qik t ... peripheral matching probability. Qje t ... Neighborhood correspondence probability.

Claims (2)

撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行い、この4方向面特徴のテンプレートマッチングにおける初期類似度と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって前記特定の顔部品の位置を検出する顔部品位置検出方法において、
前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求める顔部品位置検出方法。
The template matching of the four-way plane feature is performed on the face area in the captured image, the initial similarity in the template matching of the four-way plane feature, the specific facial part, and the peripheral facial parts around the specific facial part, In a face part position detection method for detecting a position of the specific face part by a relaxation matching method using the initial similarity and the peripheral match probability,
In order to derive the peripheral matching probability , by calculating the neighborhood correspondence probability which is the maximum value of the value obtained by multiplying the correspondence probability at each position of the face area by a Gaussian distribution for each specific face part, and multiplying the neighborhood correspondence probability by A face part position detection method for obtaining the peripheral matching probability by eliminating at least one of the neighborhood correspondence probabilities which is not the maximum value when determining the peripheral matching probability of each facial part .
顔を撮像するための撮像手段と、
前記撮像手段によって撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、この4方向面特徴のテンプレートマッチングにおける初期類似度を算出するテンプレートマッチング手段と、
特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって顔部品の位置を検出する弛緩整合手段とを備え、
前記弛緩整合手段は、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めるものとした顔部品位置検出装置。
Imaging means for imaging the face;
Template matching means for performing template matching of the four-way plane feature on the face area in the image captured by the imaging means, and calculating initial similarity in the template matching of the four-way plane feature;
A peripheral matching probability representing the relationship between a specific facial part and the peripheral facial parts of the specific facial part is obtained, and the position of the facial part is detected by the relaxation matching method using the initial similarity and the peripheral matching probability. And a relaxing alignment means for
The relaxation matching means obtains a neighborhood correspondence probability that is a maximum value of a value obtained by multiplying the correspondence probability at each position of the face region by a Gaussian distribution for each specific facial part in order to derive the peripheral matching probability, and A face part position detecting apparatus that obtains the peripheral fit probability by eliminating at least one of the neighborhood correspondence probabilities that are not the maximum value when obtaining the peripheral fit probability of each face part by an operation of multiplying the probabilities .
JP2003285971A 2003-08-04 2003-08-04 Face part position detection method and face part position detection apparatus Expired - Fee Related JP3811474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003285971A JP3811474B2 (en) 2003-08-04 2003-08-04 Face part position detection method and face part position detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003285971A JP3811474B2 (en) 2003-08-04 2003-08-04 Face part position detection method and face part position detection apparatus

Publications (2)

Publication Number Publication Date
JP2005056124A JP2005056124A (en) 2005-03-03
JP3811474B2 true JP3811474B2 (en) 2006-08-23

Family

ID=34365439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003285971A Expired - Fee Related JP3811474B2 (en) 2003-08-04 2003-08-04 Face part position detection method and face part position detection apparatus

Country Status (1)

Country Link
JP (1) JP3811474B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853397A (en) * 2010-04-21 2010-10-06 中国科学院半导体研究所 Bionic human face detection method based on human visual characteristics

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4414401B2 (en) 2006-02-10 2010-02-10 富士フイルム株式会社 Facial feature point detection method, apparatus, and program
JP4540661B2 (en) * 2006-02-28 2010-09-08 三洋電機株式会社 Object detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853397A (en) * 2010-04-21 2010-10-06 中国科学院半导体研究所 Bionic human face detection method based on human visual characteristics

Also Published As

Publication number Publication date
JP2005056124A (en) 2005-03-03

Similar Documents

Publication Publication Date Title
JP6942488B2 (en) Image processing equipment, image processing system, image processing method, and program
JP6125188B2 (en) Video processing method and apparatus
JP4950787B2 (en) Image processing apparatus and method
JP6368709B2 (en) Method for generating 3D body data
JP4653606B2 (en) Image recognition apparatus, method and program
JP6655878B2 (en) Image recognition method and apparatus, program
JP4372051B2 (en) Hand shape recognition apparatus and method
JP5166102B2 (en) Image processing apparatus and method
JP2010176380A (en) Information processing device and method, program, and recording medium
JP6286474B2 (en) Image processing apparatus and area tracking program
JP7230939B2 (en) Information processing device, information processing method and information processing program
JP6639523B2 (en) Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program
EP3241151A1 (en) An image face processing method and apparatus
JP2006155563A (en) Motion analyzer
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6977337B2 (en) Site recognition method, device, program, and imaging control system
JP2017084065A (en) Identity theft detection device
JP3811474B2 (en) Face part position detection method and face part position detection apparatus
JP2006343989A (en) Image processing device, image processing method, and image processing program
JP2010113562A (en) Apparatus, method and program for detecting and tracking object
JP5688514B2 (en) Gaze measurement system, method and program
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
JP4803148B2 (en) Binocular position detection method and detection apparatus for human face image
JP2006175036A (en) Rib shape estimating apparatus, rib profile estimating method, and its program
JP2021043914A (en) Image processor, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051212

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20051212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060526

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090602

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150602

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees