JP3811474B2 - Face part position detection method and face part position detection apparatus - Google Patents
Face part position detection method and face part position detection apparatus Download PDFInfo
- Publication number
- JP3811474B2 JP3811474B2 JP2003285971A JP2003285971A JP3811474B2 JP 3811474 B2 JP3811474 B2 JP 3811474B2 JP 2003285971 A JP2003285971 A JP 2003285971A JP 2003285971 A JP2003285971 A JP 2003285971A JP 3811474 B2 JP3811474 B2 JP 3811474B2
- Authority
- JP
- Japan
- Prior art keywords
- probability
- face
- matching
- peripheral
- face part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、顔部品位置検出方法及び顔部品位置検出装置に関するものである。 The present invention relates to a face part position detection method and a face part position detection apparatus.
得られた画像から顔領域を検出して顔部品(目、鼻、口等)を検出する手法としては、例えば、4方向面特徴と色情報とを組み合わせる手法(非特許文献1参照)がある。
又、顔部品検出には特許文献1に開示されるようなパターンマッチングを利用した手法を用いることも考えられる。パターンマッチングでは、予め登録された顔部品パターンと、取得した画像とを照合することによって顔部品検出が行われる。
In addition, it is conceivable to use a technique using pattern matching as disclosed in
しかし、これらの手法では、一部の顔部品が隠蔽されているような場合には、隠蔽されていない顔部品位置を精度良く検出することができない。
本発明は、一部の顔部品が部分的あるいは完全に隠蔽されているような場合にも、隠蔽されていない顔部品の位置を精度良く検出することを目的とする。
However, with these methods, when some facial parts are concealed, the position of the facial parts that are not concealed cannot be detected with high accuracy.
An object of the present invention is to accurately detect the position of a face part that is not concealed even when some face parts are partially or completely concealed.
請求項1の発明は、撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行い、この4方向面特徴のテンプレートマッチングにおける初期類似度と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって前記特定の顔部品の位置を検出する顔部品位置検出方法において、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めることを特徴とする。 According to the first aspect of the present invention, the template matching of the four-way surface feature is performed on the face area in the captured image, the initial similarity in the template matching of the four-way surface feature, the specific face part, and the specific face. A facial part position detection method for obtaining a peripheral matching probability representing a relationship with a peripheral facial part of the part, and detecting a position of the specific facial part by a relaxation matching method using the initial similarity and the peripheral matching probability In order to derive the peripheral matching probability , a neighborhood correspondence probability that is the maximum value obtained by multiplying the correspondence probability at each position of the face region by a Gaussian distribution for each specific face part is obtained and multiplied by the neighborhood correspondence probability. When the peripheral matching probability of each facial part is obtained by calculation, the peripheral matching probability is calculated by eliminating at least one of the neighborhood correspondence probabilities that are not the maximum value.
請求項2の発明は、顔を撮像するための撮像手段と、前記撮像手段によって撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、この4方向面特徴のテンプレートマッチングにおける初期類似度を算出するテンプレートマッチング手段と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって顔部品の位置を検出する弛緩整合手段とを備えた顔部品位置検出装置を構成し、前記弛緩整合手段は、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めるものとしたことを特徴とする。 According to a second aspect of the present invention, image matching means for capturing a face, and template matching of four-directional surface features are performed on a face area in an image captured by the imaging means, and the template matching of the four-directional surface features is performed. A template matching means for calculating an initial similarity in the image, a peripheral matching probability representing a relationship between the specific facial part and a peripheral facial part of the specific facial part, and obtaining the initial similarity and the peripheral matching probability. by relaxation matching method using configure the facial parts position detection device and a relaxation aligning means for detecting the position of the facial parts, the relaxation aligning means for guiding said peripheral adaptation probability, face each particular face parts The neighborhood correspondence probability, which is the maximum value of the correspondence probability at each position in the region multiplied by the Gaussian distribution, is calculated and multiplied by the neighborhood correspondence probability. When obtaining the engagement probability, characterized by eliminating at least one of the neighboring corresponding probability not maximum value that was assumed to determine the peripheral adaptation probability.
本発明では、一部の顔部品が隠蔽されているような場合にも、隠蔽されていない顔部品の位置を精度良く検出することができるという優れた効果を奏する。 In the present invention, even when some facial parts are concealed, there is an excellent effect that the position of the facial parts that are not concealed can be detected with high accuracy.
以下、本発明を具体化した一実施形態を図1〜図3に基づいて説明する。
図1(a)に示すように、顔部品位置検出装置10は、撮像手段としてのビデオカメラ11と、表示装置121を備えたコンピュータ12とからなる。ビデオカメラ11は、CCDカメラである。ビデオカメラ11で撮影された個々のフレーム(画像データ)は、カラー画像としてコンピュータ12に入力されるようになっている。Mは、ビデオカメラ11の撮影範囲にいる人である。Fは人Mの顔である。コンピュータ12は、ビデオカメラ11で撮影された画像を表示装置121に表示させる。
DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS.
As shown in FIG. 1A, the face part
図1(b)は、コンピュータ12の機能ブロック図である。
画像取得手段13は、ビデオカメラ11からの画像の取得を行う。図1(a)における画像Gは、画像取得手段13によって取得された画像の例を示している。画像Gにおけるf(1)は、顔部品である右目を表し、f(2)は、顔部品である左目を表す。f(3)は、顔部品である口を表し、f(4)は、顔部品である鼻を表す。
FIG. 1B is a functional block diagram of the
The
顔領域検出手段14は、画像取得手段13によって取得された画像G〔図1(a)を参照〕から顔領域を検出する。この顔領域の検出は、例えば非特許文献1に開示される手法(色情報と動き情報とを組み合わせて顔領域を検出する手法)を用いて行われる。この手法に必要なデータ(例えば、パターンマッチング用の顔パターンデータ、基準となる肌色データ等)は、記憶手段16に記憶されている。
The face
テンプレートマッチング手段15は、4方向面特徴のテンプレートマッチングを行う。4方向面特徴とは、画像におけるエッジの向きにより横方向、右上がり方向、縦方向、右下がり方向の4つに分けて作成された特徴量である。換言すると、4方向面特徴とは、画像における濃淡値の勾配により各画素での4方向(横方向、右上がり方向、縦方向、右下がり方向)のベクトル場を求め、濃淡値をそれぞれの方向別の面に分割してガウシャンフィルタをかけた特徴量である。 The template matching unit 15 performs template matching of the four-direction surface features. The four-direction plane feature is a feature amount created by dividing into four directions of a horizontal direction, a right-up direction, a vertical direction, and a right-down direction depending on the edge direction in the image. In other words, the four-direction plane feature is a vector field in four directions (horizontal direction, right-up direction, vertical direction, right-down direction) at each pixel based on the gradient of the gray value in the image, and the gray value is determined in each direction. This is a feature amount that is divided into another surface and subjected to a Gaussian filter.
記憶手段16には4方向面特徴のテンプレートT1,T2,T3,T4が記憶されている。T1は、右目に関するテンプレート、T2は、左目に関するテンプレート、T3は、口に関するテンプレート、T4は、鼻に関するテンプレートである。以下、テンプレートT1,T2,T3,T4をTi(i=1,2,3,4)と表す。iは、顔部品を表す。テンプレートマッチング手段15は、この記憶された4方向面特徴のテンプレートTiを用いて、検出された顔領域に対してテンプレートマッチングを行う。そして、テンプレートマッチング手段15は、このテンプレートマッチングに基づいて、4方向面特徴の初期類似度を算出する。 The storage unit 16 stores templates T1, T2, T3, and T4 of four-direction surface features. T1 is a template related to the right eye, T2 is a template related to the left eye, T3 is a template related to the mouth, and T4 is a template related to the nose. Hereinafter, the templates T1, T2, T3, and T4 are represented as Ti (i = 1, 2, 3, 4). i represents a face part. The template matching unit 15 performs template matching on the detected face region using the stored template Ti of the four-directional surface features. Then, the template matching unit 15 calculates the initial similarity of the four-direction plane feature based on this template matching.
弛緩整合手段17は、弛緩整合法を用いて顔部品の位置検出を行う。
図3は、コンピュータ12によって遂行される顔部品位置検出プログラムを表すフローチャートである。以下、このフローチャートを参照して顔部品位置検出装置10による顔検出を説明する。
The relaxation matching means 17 detects the position of the facial part using the relaxation matching method.
FIG. 3 is a flowchart showing a face part position detection program executed by the
ステップS1において、まず、画像取得手段13は、ビデオカメラ11からの画像の取得を行うか否かの判定を行う。即ち、本実施形態では、ビデオカメラ11からの画像の取得は、所定の時間間隔t(例えばt=0.1秒)毎に行われるようになっており、画像取得手段13は、画像取得の時刻か否かを判定する。そして、画像を取得する時刻であると判断した場合(ステップS1においてYES)、画像取得手段13は、ビデオカメラ11からの画像の取得を行う(ステップS2)。一方、画像取得手段13が画像を取得する時刻ではないと判断した場合(ステップS1においてNO)、ステップS1が繰り返される。
In step S <b> 1, first, the
ビデオカメラ11からの画像を取得した後、顔領域検出手段14は、取得した画像内で顔領域の探索を行い(ステップS3)、画像内に顔領域があるか否かを判定する(ステップS4)。顔領域がないとの判定が行われた場合(ステップS4においてNO)、コンピュータ12は、ステップS1へ戻る。顔領域が有るとの判定が行われた場合(ステップS4においてYES)、テンプレートマッチング手段15は、テンプレートTiで顔領域を走査して顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、初期類似度Γik0を算出する(ステップS5)。図2(a),(b)における画像は、顔領域検出手段14によって画像Gから検出された顔領域fを表す。
After acquiring the image from the
本実施形態では、4方向面特徴を入力解像度の1/8と低解像度化し、各顔部品iの4方向面特徴の解像度を8×4としている。初期類似度Γik0は、式(1)のように表される。 In the present embodiment, the resolution of the four-way plane feature is reduced to 1/8 of the input resolution, and the resolution of the four-way plane feature of each facial part i is 8 × 4. The initial similarity Γik 0 is expressed as in Expression (1).
テンプレートマッチング手段15は、テンプレートTi毎に得られた複数の初期類似度Γik0をそれらの最大値で割って正規化する。正規化された初期類似度Pik0(以下、初期対応確率という)は、次式(2)で表される。 The template matching unit 15 normalizes the plurality of initial similarities Γik 0 obtained for each template Ti by dividing them by their maximum values. The normalized initial similarity Pik 0 (hereinafter referred to as initial correspondence probability) is expressed by the following equation (2).
次に、弛緩整合手段17は、式(7)に基づいて周辺適合確率qik0を算出する。 Next, the relaxation matching means 17 calculates the peripheral matching probability qik 0 based on the equation (7).
ステップS6の処理後、弛緩整合手段17は、最後に得られた対応確率Pik4においてPik4=1となるkを顔部品iの位置として記憶手段16に記憶させる(ステップS7)。 After the processing in step S6, the relaxation matching unit 17 stores k, which is Pik 4 = 1 in the last obtained correspondence probability Pik 4 , in the storage unit 16 as the position of the face part i (step S7).
本実施の形態では以下の効果が得られる。
(1−1)図2(c)における画像g(01),g(02),g(03),g(04)は、算出された初期対応確率Pik0に基づいて得られる顔部品画像を表す。画像g(11),g(12),g(13),g(14)は、算出された対応確率Pik1に基づいて得られる顔部品画像を表し、画像g(21),g(22),g(23),g(24)は、算出された対応確率Pik2に基づいて得られる顔部品画像を表す。画像g(31),g(32),g(33),g(34)は、算出された対応確率Pik3に基づいて得られる顔部品画像を表し、画像g(41),g(42),g(43),g(44)は、算出された対応確率Pik4に基づいて得られる顔部品画像を表す。画像g(41),g(42),g(43),g(44)は、Pik4=1となるkを顔部品iの位置として決定された顔部品iの位置を表している。図2(c)は、対応確率Piktの変化過程を示すものであり、顔部品iの正しい位置での対応度が強調されてゆき、顔部品iの異なる位置での対応度が抑制されてゆく様子がわかる。
In this embodiment, the following effects can be obtained.
(1-1) Images g (01), g (02), g (03), and g (04) in FIG. 2C represent face part images obtained based on the calculated initial correspondence probability Pik0. . Images g (11), g (12), g (13), and g (14) represent face part images obtained based on the calculated corresponding probability Pik 1 , and images g (21) and g (22). , g (23), g ( 24) represents a face part image obtained based on the calculated corresponding probability Pik 2. Images g (31), g (32), g (33), and g (34) represent face part images obtained based on the calculated corresponding probability Pik 3 , and images g (41) and g (42). , g (43), g ( 44) represents a face part image obtained based on the corresponding probability Pik 4 calculated. The images g (41), g (42), g (43), and g (44) represent the position of the face part i determined by setting k at which Pik 4 = 1 as the position of the face part i. FIG. 2 (c) shows the changing process of the correspondence probability Pik t. The degree of correspondence at the correct position of the face part i is emphasized, and the degree of correspondence at a different position of the face part i is suppressed. You can see how it goes.
図1(a)における画像Gでは、顔部品である左目が隠蔽されている。図2(a)における枠W1,W3,W4は、顔部品位置検出装置10によって検出された顔部品位置を概略的に表したものである。つまり、図2(a)における枠W1,W3,W4は、式(10)に用いる近傍対応確率Qjetとして、値が最大の近傍対応確率と次に大きい近傍対応確率とを選択して演算した場合に検出される顔部品位置を概略的に表したものである。図2(b)における枠H1,H3,H4は、式(10)に用いる近傍対応確率Qjetとして全ての近傍対応確率Qjetを選択して演算した場合に検出される顔部品位置を概略的に表したものである。図2(b)に示すように隠蔽されていない顔部品の位置が不正確になるのは、他の顔部品の隠蔽によって周辺適合確率qiktが下がってしまうためである。
In the image G in FIG. 1A, the left eye that is a facial part is concealed. Frames W1, W3, and W4 in FIG. 2A schematically represent the face part positions detected by the face part
本実施形態では、式(10)に用いる近傍対応確率Qjetとして、例えば値が最大の近傍対応確率と次に大きい近傍対応確率とを選択する。換言すると、式(10)に用いる近傍対応確率Qjetとして値が最小の近傍対応確率を排除するので、図2(a)に示すように一部の顔部品が隠蔽されている場合にも、隠蔽されていない顔部品の位置を精度良く検出することができる。 In the present embodiment, as a neighboring corresponding probability Qje t used in equation (10), for example, the value selects the next larger neighboring corresponding probability and the maximum in the vicinity of the corresponding probabilities. In other words, since the expression is a value as near corresponding probability Qje t used in (10) to eliminate the smallest near the corresponding probability, even if is concealed part of the face parts as shown in FIG. 2 (a), The position of the face part that is not concealed can be detected with high accuracy.
(1−2)一部の顔部品が部分的に隠蔽されていたり、顔が斜めや横を向いて顔部品の形状が変化したりした場合にも、顔部品の位置を精度良く検出することができる。
本発明では以下のような実施形態も可能である。
(1-2) Detecting the position of a face part with high accuracy even when some face parts are partially hidden or the face is inclined or sideways and the shape of the face part changes. Can do.
In the present invention, the following embodiments are also possible.
(1)式(10)に用いる近傍対応確率Qjetとして、値が最大の近傍対応確率のみを選択してもよい。排除される近傍対応確率は、値が大きくなってゆく順に連続して並ぶ複数の近傍対応確率である。 (1) as a neighboring corresponding probability Qje t used in equation (10), the value may be selected only up to the vicinity corresponding probability. The neighborhood correspondence probabilities to be excluded are a plurality of neighborhood correspondence probabilities arranged successively in order of increasing values.
(2)耳を顔部品としてもよい。
(3)眉を顔部品としてもよい。
(4)目の縁や口の端を顔部品としてもよい。つまり、目のうちの一部や口のうちの一部を顔部品と見なすこともできる。
(2) The ear may be a facial part.
(3) Eyebrows may be used as facial parts.
(4) The edge of the eye or the edge of the mouth may be a facial part. That is, a part of the eyes and a part of the mouth can be regarded as face parts.
前記した実施の形態から把握できる技術的思想について以下に記載する。
〔1〕前記排除される近傍対応確率は、少なくとも最小値の近傍対応確率を含む請求項1に記載の顔部品位置検出方法。
The technical idea that can be grasped from the embodiment described above will be described below.
[1] The face part position detecting method according to
〔2〕前記排除される近傍対応確率は、値が大きくなってゆく順に連続して並ぶ複数の近傍対応確率である請求項1及び前記〔1〕項のいずれか1項に記載の顔部品位置検出方法。 [2] The face part position according to any one of [1] and [1], wherein the excluded neighborhood correspondence probabilities are a plurality of neighborhood correspondence probabilities arranged successively in order of increasing value. Detection method.
〔3〕前記排除される近傍対応確率は、値が最大の近傍対応確率以外の全てである請求項1、前記〔1〕項及び〔2〕項のいずれか1項に記載の顔部品の位置検出方法。
〔4〕撮像された画像から顔領域を検出した後、検出された顔領域に対して4方向面特徴のテンプレートマッチングを行う請求項1、前記〔1〕項及び〔2〕項のいずれか1項に記載の顔部品の位置検出方法。
[3] The position of the face part according to any one of [1], [1], and [2], wherein the excluded neighborhood correspondence probabilities are all except the neighborhood correspondence probability having the maximum value. Detection method.
[4] After detecting the face area from the captured image, the template matching of the four-direction surface feature is performed on the detected face area, and any one of [1] and [2] The method for detecting the position of a facial part as described in the item.
〔5〕撮像された画像から顔領域を検出する顔領域検出手段を備え、前記テンプレートマッチング手段は、前記顔領域検出手段によって検出された顔領域に対して4方向面特徴のテンプレートマッチングを行う請求項2に記載の顔部品位置検出装置。
[5] The image processing apparatus includes a face area detection unit that detects a face area from the captured image, and the template matching unit performs template matching of four-direction surface features on the face area detected by the face area detection unit.
10…顔部品位置検出装置。11…ビデオカメラ(撮像手段)。12…コンピュータ(顔領域検出手段、テンプレートマッチング手段、弛緩整合手段)。14…顔領域検出手段。15…テンプレートマッチング手段。17…弛緩整合手段。G…画像。f…顔領域。f(1)…顔部品(右目)。f(2)…顔部品(左目)。f(3)…顔部品(口)。f(4)…顔部品(鼻)。Γik0…初期類似度。qikt…周辺適合確率。Qjet…近傍対応確率。 10: Facial component position detection device. 11: Video camera (imaging means). 12: Computer (face area detection means, template matching means, relaxation matching means). 14. Face area detecting means. 15: Template matching means. 17: Relaxation matching means. G ... Image. f: Face area. f (1): Facial part (right eye). f (2): Face part (left eye). f (3): Facial part (mouth). f (4): Face part (nose). Γik 0 ... Initial similarity. qik t ... peripheral matching probability. Qje t ... Neighborhood correspondence probability.
Claims (2)
前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求める顔部品位置検出方法。 The template matching of the four-way plane feature is performed on the face area in the captured image, the initial similarity in the template matching of the four-way plane feature, the specific facial part, and the peripheral facial parts around the specific facial part, In a face part position detection method for detecting a position of the specific face part by a relaxation matching method using the initial similarity and the peripheral match probability,
In order to derive the peripheral matching probability , by calculating the neighborhood correspondence probability which is the maximum value of the value obtained by multiplying the correspondence probability at each position of the face area by a Gaussian distribution for each specific face part, and multiplying the neighborhood correspondence probability by A face part position detection method for obtaining the peripheral matching probability by eliminating at least one of the neighborhood correspondence probabilities which is not the maximum value when determining the peripheral matching probability of each facial part .
前記撮像手段によって撮像された画像における顔領域に対して4方向面特徴のテンプレートマッチングを行うと共に、この4方向面特徴のテンプレートマッチングにおける初期類似度を算出するテンプレートマッチング手段と、
特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、前記初期類似度と前記周辺適合確率とを用いた弛緩整合法によって顔部品の位置を検出する弛緩整合手段とを備え、
前記弛緩整合手段は、前記周辺適合確率を導くため、特定の顔部品毎に顔領域の各位置での対応確率にガウス分布を掛けた値の最大値である近傍対応確率を求め、当該近傍対応確率を掛け合わせる演算によって各顔部品の周辺適合確率を求める際に、最大値ではない近傍対応確率のうちの少なくとも1つを排除して前記周辺適合確率を求めるものとした顔部品位置検出装置。 Imaging means for imaging the face;
Template matching means for performing template matching of the four-way plane feature on the face area in the image captured by the imaging means, and calculating initial similarity in the template matching of the four-way plane feature;
A peripheral matching probability representing the relationship between a specific facial part and the peripheral facial parts of the specific facial part is obtained, and the position of the facial part is detected by the relaxation matching method using the initial similarity and the peripheral matching probability. And a relaxing alignment means for
The relaxation matching means obtains a neighborhood correspondence probability that is a maximum value of a value obtained by multiplying the correspondence probability at each position of the face region by a Gaussian distribution for each specific facial part in order to derive the peripheral matching probability, and A face part position detecting apparatus that obtains the peripheral fit probability by eliminating at least one of the neighborhood correspondence probabilities that are not the maximum value when obtaining the peripheral fit probability of each face part by an operation of multiplying the probabilities .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003285971A JP3811474B2 (en) | 2003-08-04 | 2003-08-04 | Face part position detection method and face part position detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003285971A JP3811474B2 (en) | 2003-08-04 | 2003-08-04 | Face part position detection method and face part position detection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005056124A JP2005056124A (en) | 2005-03-03 |
JP3811474B2 true JP3811474B2 (en) | 2006-08-23 |
Family
ID=34365439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003285971A Expired - Fee Related JP3811474B2 (en) | 2003-08-04 | 2003-08-04 | Face part position detection method and face part position detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3811474B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853397A (en) * | 2010-04-21 | 2010-10-06 | 中国科学院半导体研究所 | Bionic human face detection method based on human visual characteristics |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4414401B2 (en) | 2006-02-10 | 2010-02-10 | 富士フイルム株式会社 | Facial feature point detection method, apparatus, and program |
JP4540661B2 (en) * | 2006-02-28 | 2010-09-08 | 三洋電機株式会社 | Object detection device |
-
2003
- 2003-08-04 JP JP2003285971A patent/JP3811474B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853397A (en) * | 2010-04-21 | 2010-10-06 | 中国科学院半导体研究所 | Bionic human face detection method based on human visual characteristics |
Also Published As
Publication number | Publication date |
---|---|
JP2005056124A (en) | 2005-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942488B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
JP4950787B2 (en) | Image processing apparatus and method | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP6368709B2 (en) | Method for generating 3D body data | |
JP4653606B2 (en) | Image recognition apparatus, method and program | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
JP4372051B2 (en) | Hand shape recognition apparatus and method | |
JP5166102B2 (en) | Image processing apparatus and method | |
JP2010176380A (en) | Information processing device and method, program, and recording medium | |
JP6286474B2 (en) | Image processing apparatus and area tracking program | |
JP7230939B2 (en) | Information processing device, information processing method and information processing program | |
JP6639523B2 (en) | Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program | |
WO2016107638A1 (en) | An image face processing method and apparatus | |
JP2006155563A (en) | Motion analyzer | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP2019012497A (en) | Portion recognition method, device, program, and imaging control system | |
JP2017084065A (en) | Identity theft detection device | |
JP3811474B2 (en) | Face part position detection method and face part position detection apparatus | |
JP2006343989A (en) | Image processing device, image processing method, and image processing program | |
JP2010113562A (en) | Apparatus, method and program for detecting and tracking object | |
JP5688514B2 (en) | Gaze measurement system, method and program | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program | |
JP4803148B2 (en) | Binocular position detection method and detection apparatus for human face image | |
JP2006175036A (en) | Rib shape estimating apparatus, rib profile estimating method, and its program | |
JP2021043914A (en) | Image processor, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051212 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20051212 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20060119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060526 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090602 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120602 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120602 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150602 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |