JP2003281539A - Facial component searching device and facial component searching method - Google Patents

Facial component searching device and facial component searching method

Info

Publication number
JP2003281539A
JP2003281539A JP2002082862A JP2002082862A JP2003281539A JP 2003281539 A JP2003281539 A JP 2003281539A JP 2002082862 A JP2002082862 A JP 2002082862A JP 2002082862 A JP2002082862 A JP 2002082862A JP 2003281539 A JP2003281539 A JP 2003281539A
Authority
JP
Japan
Prior art keywords
face
image
color
face part
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002082862A
Other languages
Japanese (ja)
Inventor
晃二 ▲高▼木
Koji Takagi
Hideo Tanimoto
英雄 谷本
Hiroyuki Masai
宏之 政井
Takahiro Watanabe
孝弘 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2002082862A priority Critical patent/JP2003281539A/en
Publication of JP2003281539A publication Critical patent/JP2003281539A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To accurately search a facial component from an image portion of a face included in a color image. <P>SOLUTION: The facial component searching device 101 is a device for searching a facial component image from the color image. It is provided with an image acquiring part 10 acquiring the color image, a facial area extracting part 20 detecting a facial area corresponding to a facial color pattern that is a pattern relevant to colors of the face from the color image and extracting the image portion of the facial area, a reference point setting part 40 detecting gradation of the image portion from the extracted image portion of the facial area and setting a reference point indicating a reference position for searching the facial component image on the basis of the gradation, and a facial component detecting part 50 detecting the facial component image on the basis of the set reference point and determining a position of the facial component image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等で得られ
た色彩画像に含まれる顔の画像部分から、目および口の
ような顔部品を探索する装置および顔部品探索方法に関
し、特に、顔への照明環境あるいは顔の向きおよび傾き
等が一様でない色彩画像における顔部品の探索に好適な
前記装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a face part searching method for searching for face parts such as eyes and mouths from a face image portion included in a color image obtained by a camera or the like, and more particularly to a face part The present invention relates to an apparatus and method suitable for searching for a face part in a color image in which the illumination environment to the face or the direction and inclination of the face are not uniform.

【0002】[0002]

【従来の技術】カメラ等で撮影した画像に映り出された
人物の識別を、例えば当該人物の顔に基づいて自動的に
行う場合、当該画像上で顔および顔部品に対応する画像
部分が探索される。このような顔の探索に関する従来の
技術は、例えば、1994年4月の電子情報通信学会論
文誌 D−II Vol.J−77−DII No.4p
p.672−681における「個人識別のための多重ピ
ラミッドを用いたシーン中の顔の探索・位置決め」に開
示されている。
2. Description of the Related Art When a person reflected in an image captured by a camera or the like is automatically identified based on, for example, the face of the person, an image portion corresponding to the face and face parts is searched for in the image. To be done. A conventional technique regarding such a face search is disclosed in, for example, the Institute of Electronics, Information and Communication Engineers, D-II Vol. J-77-DII No. 4p, published in April 1994.
p.672-681, "Finding and Positioning Face in Scene Using Multiple Pyramids for Individual Identification".

【0003】前記開示技術では、顔部品を探索すべき未
知画像にパターンマッチングを施すための一連のモザイ
ク画像が予め用意される。一連のモザイク画像は、連続
する多重解像度で、顔を含む頭部領域に関する一般的な
濃淡パターンを示す。この一連のモザイク画像のそれぞ
れと、当該未知画像とを順次マッチングすることによ
り、当該未知画像から頭部領域が段階的に絞り込まれ
る。その後、前記頭部領域から得られる顔領域のヒスト
グラムに基づいて、各顔部品の位置が求められる。
In the disclosed technique, a series of mosaic images for performing pattern matching on an unknown image for which a face part is to be searched for is prepared in advance. The series of mosaic images show a typical gray pattern for the head region including the face, at successive multi-resolutions. By sequentially matching each of the series of mosaic images with the unknown image, the head region is gradually narrowed down from the unknown image. Then, the position of each face part is calculated based on the histogram of the face area obtained from the head area.

【0004】[0004]

【発明が解決しようとする課題】ところで、例えば動画
像のフレーム画像間で、顔に対する照明環境が変化する
場合、その変化に応じて、当該顔の画像部分に現れる濃
淡の様子も変化する。しかしながら、前記開示技術のモ
ザイク画像は、予め取得した一般的な濃淡パターンに基
づいて作成されていることから、マッチング対象となる
フレーム画像間に前記したような濃淡変化が生じると、
当該モザイク画像は、その変化に対処できず、適正に頭
部領域を絞り込むことが困難となる。
By the way, for example, when the lighting environment for a face changes between frame images of a moving image, the state of light and shade appearing in the image portion of the face also changes according to the change. However, since the mosaic image of the disclosed technique is created based on a general grayscale pattern acquired in advance, when the grayscale change occurs between the frame images to be matched,
The mosaic image cannot cope with the change, and it is difficult to properly narrow down the head region.

【0005】また、前記開示技術においては、探索すべ
き顔に傾きがある場合や、顔が正面以外を向いている場
合であっても適正に顔部品を探索するために、各事象に
対応した前記モザイク画像を作成することが考えられ
る。しかしながら、そのためには膨大な数のモザイク画
像が必要となり、前記マッチングの処理時間が著しく増
大することが予想されることから、顔の傾きや向きに対
処することは容易ではなかった。
Further, in the above disclosed technique, each event is dealt with in order to properly search for face parts even when the face to be searched has a tilt or when the face is facing other than the front. It is conceivable to create the mosaic image. However, for that purpose, a huge number of mosaic images are required, and it is expected that the processing time for the matching will remarkably increase. Therefore, it is not easy to deal with the inclination and orientation of the face.

【0006】本発明の目的は、色彩画像から顔部品を探
索するにあたって、顔への照明環境の変化や顔の向きお
よび傾き等に対処し、顔部品を適正に探索し得る顔部品
探索装置および顔部品探索方法を提供することにある。
An object of the present invention is to provide a face part searching apparatus capable of appropriately searching for a face part by coping with changes in the lighting environment to the face, the direction and inclination of the face, etc. when searching for a face part from a color image. It is to provide a facial part search method.

【0007】[0007]

【課題を解決するための手段】〈構成1〉本発明に係る
顔部品探索装置は、顔の部品を表す顔部品画像が含まれ
る色彩画像から前記顔部品画像を探索する装置であっ
て、色彩画像を取得する画像取得部と、取得した前記色
彩画像から、顔の色彩に関するパターンである顔色彩パ
ターンに対応する画像領域を顔領域として検出し、当該
顔領域の画像部分を抽出する顔領域抽出部と、抽出され
た前記顔領域の前記画像部分から、該画像部分の濃淡を
検出し、該濃淡に基づいて、前記顔部品画像を探索する
基準位置を示す基準点を設定する基準点設定部と、設定
された前記基準点に基づいて前記顔部品画像を検出する
と共に、当該顔部品画像の位置を求める顔部品検出部と
を備える。
<Structure 1> A facial part searching device according to the present invention is a device for searching for a facial part image from a color image containing a facial part image representing a facial part. An image acquisition unit that acquires an image, and from the acquired color image, detects an image area corresponding to a face color pattern, which is a pattern related to the color of the face, as a face area, and extracts the image area of the face area. Unit and a reference point setting unit that detects a shade of the image portion from the extracted image portion of the face area and sets a reference point indicating a reference position for searching the face part image based on the shade. And a face part detection unit that detects the face part image based on the set reference points and obtains the position of the face part image.

【0008】本発明に係る顔部品探索装置は、前記画像
取得部で取得した色彩画像から、前記顔領域抽出部が前
記した顔色彩パターンを用いて顔領域を抽出する。前記
基準点設定部は、色彩画像における顔部品画像の大まか
な位置を検出すべく、前記顔領域の画像部分に示される
濃淡に基づいて、当該顔部品画像の前記基準点を設定す
る。前記顔部品検出部は、前記基準点に基づいて顔部品
画像を検出し、その位置を求める。
In the facial part searching apparatus according to the present invention, the facial area extracting section extracts a facial area from the color image acquired by the image acquiring section using the facial color pattern described above. The reference point setting unit sets the reference point of the face component image on the basis of the light and shade shown in the image portion of the face region in order to detect a rough position of the face component image in the color image. The face part detection unit detects a face part image based on the reference point and obtains its position.

【0009】前記顔領域抽出部に、前記画像取得部で取
得した前記色彩画像に基づいて前記顔色彩パターンを生
成する顔色彩パターン生成部と、生成された前記顔色彩
パターンを保持する記憶部と、該記憶部の前記顔色彩パ
ターンに基づいて前記顔領域の前記抽出を行う抽出部と
を備えることができる。
In the face area extraction unit, a face color pattern generation unit that generates the face color pattern based on the color image acquired by the image acquisition unit, and a storage unit that holds the generated face color pattern. And an extraction unit that performs the extraction of the face area based on the face color pattern of the storage unit.

【0010】前記顔色彩パターン生成部は、所定の色空
間における前記色彩画像の色彩パターンを生成すること
ができ、該生成された色彩パターンの中の、予め設定さ
れた色彩パターンのモデルに対応する部分を、前記顔色
彩パターンとして採用することができる。
The face color pattern generation unit can generate a color pattern of the color image in a predetermined color space, and corresponds to a preset color pattern model in the generated color pattern. A portion can be adopted as the facial color pattern.

【0011】前記画像取得部は、一連の色彩画像を順次
取得することができ、前記色彩パターン生成部は、前記
一連の色彩画像のうちの所定の色彩画像に基づいて、前
記顔色彩パターンを生成することができる。前記抽出部
は、予め設定された判定基準に基づいて、前記顔領域の
前記抽出の成否を判定することができ、前記顔色彩パタ
ーン生成部は、前記抽出が成功しなかったとの前記判定
時に、当該色彩画像に引き続く他の色彩画像のための新
たな前記顔色彩パターンを設定することができる。
The image acquisition unit can sequentially acquire a series of color images, and the color pattern generation unit generates the face color pattern based on a predetermined color image of the series of color images. can do. The extraction unit can determine the success or failure of the extraction of the face area based on a preset determination criterion, the face color pattern generation unit, when the determination that the extraction was not successful, It is possible to set a new face color pattern for another color image subsequent to the color image.

【0012】前記基準点設定部は、前記顔領域の前記濃
淡で相互に直交する2方向における各ピーク値を検出す
るように設定することができ、当該2方向の各ピーク値
に対応する前記濃淡の部分を、前記基準点として設定す
ることが望ましい。
The reference point setting unit can be set so as to detect peak values in two directions which are orthogonal to each other in the shade of the face area, and the shade corresponding to each peak value in the two directions. It is desirable to set the above portion as the reference point.

【0013】前記基準点設定部は、顔の部品に関する濃
淡について予め顔の部品の位置に基づいて設定された周
波数帯に対応した低周波数フィルタを用いて、前記顔領
域から前記濃淡を検出することができる。
The reference point setting section detects the shading from the face area by using a low frequency filter corresponding to a frequency band preset based on the position of the facial part for the shading of the facial part. You can

【0014】前記顔部品検出部に、顔の部品について予
め設定された画像に関する情報となる顔部品情報と、該
顔部品情報に対応した顔の部品における所定の位置を示
す特徴点情報とを含む顔部品データが与えることがで
き、前記顔部品検出部は、前記基準点設定部で設定され
た前記基準点に基づいて、前記顔部品データの走査範囲
を設定する走査範囲設定部と、設定された前記走査範囲
内で前記顔部品データを走査し、該顔部品データの前記
顔部品情報と前記基準点に対応した画像部分との整合性
に関する所定の基準を満たすときの前記特徴点情報が示
す前記位置を検出する走査部と、検出された各位置の中
から所定の位置に近似する位置を選定し、選定した前記
位置を、前記顔領域における前記顔部品画像の位置と定
める位置判定部とを備えることができる。
The face part detecting section includes face part information which is information relating to a preset image of the face part and feature point information indicating a predetermined position in the face part corresponding to the face part information. Face part data can be given, and the face part detecting section is set with a scanning range setting section for setting a scanning range of the face part data based on the reference points set by the reference point setting section. The feature point information when the face part data is scanned within the scanning range and a predetermined criterion regarding the consistency between the face part information of the face part data and the image portion corresponding to the reference point is satisfied is shown. A scanning unit that detects the position, and a position determination unit that selects a position that is close to a predetermined position from among the detected positions, and that determines the selected position as the position of the facial part image in the face area. To It can be obtained.

【0015】前記顔部品検出部に、さらに、前記色彩画
像における所定の顔部品画像について前記位置判定部で
定められた前記位置に基づいて、当該所定の顔部品画像
を除く他の顔部品画像のための前記走査の範囲を設定
し、設定した当該走査の範囲を前記走査部に供給する関
連走査範囲設定部を備えることができる。
Further, the face part detecting unit further detects other face part images excluding the predetermined face part image based on the position determined by the position determining unit for the predetermined face part image in the color image. It is possible to provide an associated scanning range setting unit that sets the scanning range for setting the scanning range and supplies the set scanning range to the scanning unit.

【0016】前記画像取得部は、一連の色彩画像を順次
取得することができ、前記顔部品検出部は、前記色彩画
像における顔部品画像の位置を、当該色彩画像について
前記基準点設定部で設定された前記基準点、または、当
該色彩画像の直前の色彩画像について前記顔部品検出部
で検出された顔部品画像の位置に基づいて検出すること
ができる。このとき、顔部品探索装置に、前記顔部品検
出部が前記検出を当該色彩画像の前記基準点に基づいて
行うべきか否かを判定するトラッキング判定部を備える
ことができる。
The image acquisition unit can sequentially acquire a series of color images, and the face component detection unit sets the position of the face component image in the color image by the reference point setting unit for the color image. It is possible to detect based on the position of the face component image detected by the face component detecting unit with respect to the reference point that has been generated or the color image immediately before the color image. At this time, the facial part search device may include a tracking determination section that determines whether or not the facial part detection section should perform the detection based on the reference point of the color image.

【0017】また、前記顔部品画像が含まれる前記色彩
画像は、両目に対応する一対の顔部品画像を含む複数の
顔部品画像を含む画像とすることができ、当該顔部品探
索装置に、前記基準点設定部で設定された、前記両目の
前記一対の顔部品画像に対応する2つの前記基準点に基
づいて、水平方向に対する前記顔領域の傾き角度を求
め、該傾き角度の分、当該顔領域の傾きを前記水平方向
に補正すべく当該顔領域を回転させ、回転させた前記顔
領域における前記各顔部品画像の前記基準点を前記顔部
品検出部に供給する回転処理部を備えることができる。
The color image including the face part image may be an image including a plurality of face part images including a pair of face part images corresponding to both eyes. The inclination angle of the face area with respect to the horizontal direction is obtained based on the two reference points corresponding to the pair of face part images of the eyes set by the reference point setting unit, and the face angle is calculated by the inclination angle. A rotation processing unit that rotates the face region to correct the inclination of the region in the horizontal direction, and supplies the reference point of each face component image in the rotated face region to the face component detection unit. it can.

【0018】前記画像取得部は、一連の色彩画像を順次
取得することができ、前記顔部品画像が含まれる前記色
彩画像に、両目に対応する一対の顔部品画像を含む複数
の顔部品画像を含むことができる。このとき、顔部品探
索装置に、前記基準点設定部で設定された、前記両目の
前記一対の顔部品画像に対応する2つの前記基準点、ま
たは、当該色彩画像の直前の色彩画像について前記顔部
品検出部で検出された両目の顔部品画像の位置に基づい
て、水平方向に対する当該色彩画像の前記顔領域の傾き
角度を求め、該傾き角度の分、当該顔領域の傾きを前記
水平方向に補正すべく当該顔領域を回転させ、回転させ
た前記顔領域における前記各顔部品画像の前記基準点を
前記顔部品検出部に供給する回転処理部と、前記回転処
理部が前記傾き角度を当該色彩画像の前記基準点に基づ
いて求めるべきか否かを判定するトラッキング判定部と
を備えることができる。
The image acquisition unit can sequentially acquire a series of color images, and a plurality of face part images including a pair of face part images corresponding to both eyes are added to the color image including the face part image. Can be included. At this time, in the face part search device, the two reference points corresponding to the pair of face part images of the eyes set by the reference point setting unit, or the color image immediately before the color image, the face Based on the positions of the face part images of both eyes detected by the part detection unit, the tilt angle of the face area of the color image with respect to the horizontal direction is obtained, and the tilt of the face area is set in the horizontal direction by the tilt angle. A rotation processing unit that rotates the face region to correct and supplies the reference point of each face component image in the rotated face region to the face component detection unit, and the rotation processing unit determines the tilt angle. A tracking determination unit that determines whether or not the color image should be obtained based on the reference point of the color image.

【0019】また、前記顔部品画像が含まれる前記色彩
画像は、両目に対応する一対の顔部品画像を含む複数の
顔部品画像を含む画像とすることができ、当該顔部品探
索装置に、前記両目の前記一対の顔部品画像のそれぞれ
と、前記顔領域の顔幅を規定する各端部であって前記一
対の顔部品画像のそれぞれの最も近傍にある各端部との
間の2つの距離を求め、該2つの距離の差分に基づい
て、当該色彩画像の顔の向きを検出する顔向き検出部を
備えることができる。 〈構成2〉本発明に係る顔部品探索方法は、顔の部品を
表す顔部品画像が含まれる色彩画像から前記顔部品画像
を探索する方法であって、色彩画像を取得する画像取得
ステップと、取得した前記色彩画像から、顔の色彩に関
するパターンである顔色彩パターンに対応する画像領域
を顔領域として検出し、当該顔領域の画像部分を抽出す
る顔領域抽出ステップと、抽出された前記顔領域の前記
画像部分から、該画像部分に与えられている濃淡を検出
し、該濃淡に基づいて、前記顔部品画像を探索する基準
位置を示す基準点を設定する基準点設定ステップと、設
定された前記基準点に基づいて前記顔部品画像を検出す
るとともに、当該顔部品画像の位置を求める顔部品検出
ステップとを備える。
The color image including the face part image can be an image including a plurality of face part images including a pair of face part images corresponding to both eyes. Two distances between each of the pair of face part images of both eyes and each end part that defines the face width of the face area and is the closest end part of each of the pair of face part images. And a face orientation detection unit that detects the orientation of the face of the color image based on the difference between the two distances. <Structure 2> A facial part search method according to the present invention is a method for searching for a facial part image from a color image including a facial part image representing a facial part, and an image acquisition step of acquiring a color image, From the acquired color image, an image area corresponding to a face color pattern, which is a pattern relating to the color of the face, is detected as a face area, and a face area extraction step of extracting an image portion of the face area, and the extracted face area A reference point setting step of detecting a shade given to the image portion from the image portion, and setting a reference point indicating a reference position for searching the face part image based on the shade. A face part detecting step of detecting the face part image based on the reference point and obtaining the position of the face part image.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態を具体
例を用いて説明する。 〈具体例1〉図1は、本発明を説明するための具体例1
の顔部品探索装置101の構成を示すブロック図であ
る。顔部品探索装置101は、図1に示すように、色彩
画像を取得するカメラのような画像取得部10と、該画
像取得部で得られた色彩画像から、後述する顔領域を抽
出する顔領域抽出部20と、前記顔領域内で目や口のよ
うな顔部品を探索するための基準位置となる基準点を設
定する基準点設定部40と、前記基準点に基づいて、顔
領域における顔部品の詳細な位置を求める顔部品抽出部
50とを備える。前記基準点は、顔領域における顔部品
の大まかな位置を示す。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to specific examples. <Specific Example 1> FIG. 1 is a specific example 1 for explaining the present invention.
3 is a block diagram showing the configuration of the face part search device 101 of FIG. As shown in FIG. 1, the face part search apparatus 101 includes an image acquisition unit 10 such as a camera that acquires a color image, and a face area that extracts a face area described later from the color image obtained by the image acquisition unit. An extraction unit 20, a reference point setting unit 40 that sets a reference point that is a reference position for searching a face part such as an eye or a mouth in the face area, and a face in the face area based on the reference point. And a face part extraction unit 50 for obtaining a detailed position of the part. The reference point indicates a rough position of the face part in the face area.

【0021】本具体例で取り扱う前記色彩画像は動画像
の各フレーム画像であり、画像取得部10は、これらの
一連のフレーム画像を、順次、顔領域抽出部20へ供給
する。顔領域抽出部20は、与えられたフレーム画像に
おいて、顔が表される領域を示す顔領域を探索する。顔
領域の前記探索には、画像上の顔の色彩となる肌色の色
彩パターンに関する後述する顔色彩パターンが用いら
れ、顔領域抽出部20は、当該顔色彩パターンに対応す
るパターンを示す画像部分を顔領域として抽出する。本
具体例で取り扱う前記した顔色彩パターンは、所定の色
空間における二次元テーブルで示される。
The color image handled in this example is each frame image of a moving image, and the image acquisition unit 10 sequentially supplies the series of frame images to the face area extraction unit 20. The face area extraction unit 20 searches the given frame image for a face area indicating an area in which a face is represented. For the search of the face area, a face color pattern to be described later regarding a skin color pattern that is the color of the face on the image is used, and the face area extracting unit 20 extracts an image portion indicating a pattern corresponding to the face color pattern. It is extracted as a face area. The above-described face color pattern handled in this example is represented by a two-dimensional table in a predetermined color space.

【0022】図2は、本具体例の前記した顔領域抽出部
20の構成を示すブロック図である。顔領域抽出部20
は、所定のフレーム画像に基づいて顔色彩パターンを生
成する顔色彩パターン生成部21と、該定義部で定義さ
れた顔色彩パターンを記憶する顔色彩パターン記憶部2
2と、該記憶部の顔色彩パターンに基づいて、当該フレ
ーム画像から顔領域を検出する顔領域検出部23と、顔
色彩パターン生成部21および顔領域検出部23の動作
を制御する顔領域検出制御部24とを有する。
FIG. 2 is a block diagram showing the configuration of the above-mentioned face area extracting section 20 of this specific example. Face area extraction unit 20
Is a face color pattern generation unit 21 that generates a face color pattern based on a predetermined frame image, and a face color pattern storage unit 2 that stores the face color pattern defined by the definition unit.
2, a face area detection unit 23 that detects a face area from the frame image based on the face color pattern of the storage unit, and a face area detection unit that controls the operations of the face color pattern generation unit 21 and the face area detection unit 23. And a control unit 24.

【0023】顔色彩パターン生成部21は、与えられた
フレーム画像が示すRGB値を所定の色空間の値に変換
する色空間変換部25と、当該色空間の値に基づいてヒ
ストグラムを作成するヒストグラム作成部26と、前記
ヒストグラムの極大値を求める極大値検出部27と、前
記した肌色に関するパターンについて予め設定された顔
色彩パターンのモデルである後述する肌色モデル21a
(図4参照)を用いて、前記ヒストグラムから仮の顔色
彩パターンを抽出する顔色彩パターン設定部28とを有
する。
The face color pattern generation section 21 is a color space conversion section 25 for converting RGB values indicated by a given frame image into values in a predetermined color space, and a histogram for creating a histogram based on the values in the color space. A creation unit 26, a maximum value detection unit 27 that finds a maximum value of the histogram, and a skin color model 21a described later that is a model of a face color pattern preset for the above-described skin color pattern.
(See FIG. 4), and a facial color pattern setting unit 28 for extracting a temporary facial color pattern from the histogram.

【0024】さらに、顔色彩パターン生成部21は、前
記仮の顔色彩パターンに基づいて、フレーム画像から顔
領域の候補を検出すべく当該画像の色彩を判別する第1
の肌色判定部29と、該判定部で判別された色彩で表さ
れる顔領域候補の特徴から、該候補についての後述する
顔らしさ一致度を求める第1の顔らしさ判定部30と、
求められた前記顔らしさ一致度に基づいて、顔として最
適な顔領域候補を選定し、当該最適な顔領域候補を含む
仮の顔色彩パターンを、顔領域のための顔色彩パターン
に採用すべく顔色彩パターン記憶部22へ供給する最適
顔色彩パターン生成部31とを有する。
Further, the face color pattern generation unit 21 discriminates the color of the image so as to detect a face area candidate from the frame image based on the temporary face color pattern.
A skin-color determining unit 29, a first face-likeness determining unit 30 that obtains a face-likeness matching degree, which will be described later, for the candidate from the features of the face area candidates represented by the colors determined by the determining unit,
Based on the obtained face-likeness matching degree, an optimal face area candidate is selected as a face, and a temporary facial color pattern including the optimal face area candidate is adopted as a facial color pattern for the facial area. It has an optimum face color pattern generation unit 31 which is supplied to the face color pattern storage unit 22.

【0025】前記顔色彩パターン記憶部22では、前記
した最適顔色彩パターン生成部31からの顔色彩パター
ンの記憶に加えて、顔色彩パターン生成部21で適正に
顔色彩パターンが作成できなかった場合等のために、デ
フォルト値としての顔色彩パターンが予め記憶される。
In the face color pattern storage unit 22, in addition to the storage of the face color pattern from the optimum face color pattern generation unit 31 described above, when the face color pattern generation unit 21 cannot properly create the face color pattern. For example, a face color pattern as a default value is stored in advance.

【0026】顔領域検出部23は、図2に示すように、
後続のフレーム画像から顔領域の候補を検出すべく、顔
色彩パターン記憶部22に記憶されている顔色彩パター
ンに基づいて当該画像の色彩を判別する第2の肌色判定
部32と、前記顔領域の候補について前記したと同様な
顔らしさ一致度を求め、当該顔らしさ一致度に基づい
て、顔として最適な顔領域候補を選定する第2の顔らし
さ判定部33と、選定された最適な顔領域候補から、誤
検出により取り込まれた背景画像のような顔画像以外の
画像部分を示す領域を除去し、該除去後の領域を当該色
彩画像の顔領域として検出する顔領域切出部34とを有
する。
The face area detecting section 23, as shown in FIG.
A second skin color determination unit 32 that determines the color of the image based on the face color pattern stored in the face color pattern storage unit 22 in order to detect a face region candidate from the subsequent frame image; The second face-likeness determination unit 33 that obtains the same face-likeness matching degree as described above for the candidates of No. 1 and selects the optimum face area candidate as a face based on the face-likeness matching degree, and the selected optimum face. A face area cutout unit 34 that removes an area showing an image portion other than a face image such as a background image captured by erroneous detection from the area candidates, and detects the area after the removal as a face area of the color image. Have.

【0027】前記顔領域抽出部20の動作を説明する。
次に示す例では、画像取得部10からの最初のフレーム
画像に基づいて顔色彩パターンが生成される。顔色彩パ
ターン生成部21は、画像取得部10からフレーム画像
を供給されると、色空間変換部25により前記した色空
間の変換を行う。この色空間として、(a,b)色空
間、HSV色空間あるいはYIQ色空間等を用いること
ができるが、本具体例は、(a,b)色空間を採用す
る。色空間変換部25は、図3に示す(1)式に沿っ
て、前記フレーム画像のRGB値から(a,b)色空間
の値を求める。
The operation of the face area extraction unit 20 will be described.
In the example shown below, a facial color pattern is generated based on the first frame image from the image acquisition unit 10. When the frame image is supplied from the image acquisition unit 10, the face color pattern generation unit 21 causes the color space conversion unit 25 to perform the above-described color space conversion. As this color space, the (a, b) color space, the HSV color space, the YIQ color space, or the like can be used, but in this specific example, the (a, b) color space is adopted. The color space conversion unit 25 obtains the value of the (a, b) color space from the RGB value of the frame image according to the equation (1) shown in FIG.

【0028】色空間変換部25で前記色空間の値が求め
られると、顔領域検出制御部24は、求められた値を、
当該色空間変換部25からヒストグラム作成部26へ供
給させるように制御する。
When the color space conversion unit 25 obtains the value of the color space, the face area detection control unit 24 changes the obtained value to
The color space conversion unit 25 is controlled to supply the histogram creation unit 26.

【0029】ヒストグラム作成部26は、色空間変換部
25からの前記色空間の値から、一般的な手法に沿って
ヒストグラムを作成し、これを極大値検出部27へ供給
する。
The histogram creating section 26 creates a histogram from the color space values from the color space converting section 25 according to a general method, and supplies the histogram to the maximum value detecting section 27.

【0030】極大値検出部27は、当該ヒストグラムに
おける色空間座標の極大値を求める。この極大値は、例
えば前記した肌色モデル21aを用いて求めることがで
きる。肌色モデル21aは、前記したように顔色彩パタ
ーンの既定モデルであり、(a,b)色空間における各
座標値が「0」および「1」の2値で示されている。肌
色モデル21aは、例えば図4に示すように構成するこ
とができる。図示の例では、横軸に−2〜+2のスケー
ルを有するa座標軸、縦軸に−2〜+2のスケールを有
するb座標軸が設けられており、各軸の中心スケールに
対応する座標(0,0)を注目点としている。各座標値
の「1」は、検出対象となる色空間座標値、すなわち検
出すべき顔領域に対応する座標値を示し、「0」は、検
出対象外である座標値を示す。従って、図示の肌色モデ
ル21aは、座標値が「1」である座標群で構成される
パターンを、(a,b)色空間における顔領域の色彩パ
ターンであると規定している。なお、肌色モデル21a
における座標値の設定は、図示の例に限られず、適宜設
定することができる。
The maximum value detecting section 27 finds the maximum value of the color space coordinates in the histogram. This maximum value can be obtained using, for example, the skin color model 21a described above. As described above, the skin color model 21a is a default model of the facial color pattern, and each coordinate value in the (a, b) color space is represented by a binary value of "0" and "1". The skin color model 21a can be configured, for example, as shown in FIG. In the illustrated example, an a-coordinate axis having a scale of −2 to +2 is provided on the horizontal axis, and a b-coordinate axis having a scale of −2 to +2 is provided on the vertical axis, and the coordinates (0, 0, 0) is the point of interest. “1” of each coordinate value indicates a color space coordinate value to be detected, that is, a coordinate value corresponding to the face area to be detected, and “0” indicates a coordinate value outside the detection target. Therefore, the flesh color model 21a shown in the drawing defines the pattern formed by the coordinate group having the coordinate value of "1" as the color pattern of the face area in the (a, b) color space. The skin color model 21a
The setting of the coordinate value in is not limited to the example shown in the figure, and can be set appropriately.

【0031】極大値検出部27は、図2に示される肌色
モデル21aを、例えばsmodel(5,5)と定義
し、前記ヒストグラムにおいて図3の(2)式を満たす
極大値(x,y)を求める。このとき、前記ヒストグラ
ムで肌色のパターンを示す可能性の高い範囲を予め概定
し、当該範囲内で前記極大値を求めるようにすることが
できる。
The maximum value detecting unit 27 defines the skin color model 21a shown in FIG. 2 as, for example, smodel (5, 5), and in the histogram, the maximum value (x, y) that satisfies the expression (2) in FIG. Ask for. At this time, it is possible to preliminarily estimate a range in which there is a high possibility of showing a skin color pattern in the histogram and obtain the maximum value within the range.

【0032】前記した極大値は、前記(2)式を満たす
値であれば複数検出することができ、極大値検出部27
は、検出された各値を極大値候補として、顔色彩パター
ン設定部28へ供給する。
A plurality of maximum values can be detected as long as the maximum value satisfies the expression (2).
Supplies each detected value to the facial color pattern setting unit 28 as a maximum value candidate.

【0033】顔色彩パターン設定部28は、前記ヒスト
グラムにおける各極大値候補に、前記肌色モデル21a
の注目点(0,0)が合致するように、順次、当該肌色
モデルを当てはめ、該肌色モデルの「1」のパターン部
分に対応するヒストグラム部分を、仮の顔色彩パターン
として第1の肌色判定部29へ出力する。図5は、前記
した極大値の一つが(55,28)であるヒストグラム
で、当該極大値に肌色モデル21aの注目点が合致する
ように、この肌色モデル21aを当てはめた例を示す。
このとき、図中で「1」の座標値を示す座標群が、前記
した仮の顔色彩パターンに採用される。
The facial color pattern setting section 28 assigns the maximum color candidate in the histogram to the skin color model 21a.
So that the points of interest (0, 0) of the skin color model match, the skin color model is sequentially applied, and the histogram portion corresponding to the pattern portion of “1” of the skin color model is determined as the first skin color determination as the temporary facial color pattern. Output to the unit 29. FIG. 5 is a histogram in which one of the maximum values is (55, 28), and shows an example in which this skin color model 21a is fitted so that the target point of the skin color model 21a matches the maximum value.
At this time, the coordinate group showing the coordinate value of "1" in the figure is adopted for the temporary facial color pattern.

【0034】第1の肌色判定部29は、探索すべきフレ
ーム画像において、顔色彩パターン設定部28からの仮
の顔色彩パターンに対応する画像部分を抽出する。図6
に、前記ヒストグラムから抽出された2種類の仮の顔色
彩パターンに対応する2種類の画像(A)および(B)
を示す。これらの各画像から、それぞれに対応する仮の
顔色彩パターンに基づいて表される画像部分(a1〜b
2)が検出される。
The first skin color judging section 29 extracts an image portion corresponding to the temporary face color pattern from the facial color pattern setting section 28 in the frame image to be searched. Figure 6
And two types of images (A) and (B) corresponding to the two types of temporary facial color patterns extracted from the histogram.
Indicates. From each of these images, the image portion (a1 to b) represented based on the corresponding temporary facial color pattern
2) is detected.

【0035】第1の肌色判定部29は、各仮の顔色彩パ
ターンに対応する画像(A)および(B)毎に、その画
像部分へ所定のラベリング処理を行う。これにより、図
6に示すように、各画像部分はラベル領域a1〜b2に
識別される。第1の肌色判定部29は、前記したラベリ
ング処理を施した各画像(A)および(B)を、第1の
顔らしさ判定部30へ供給する。
The first skin color judging section 29 performs a predetermined labeling process on the image portion of each of the images (A) and (B) corresponding to each temporary facial color pattern. As a result, as shown in FIG. 6, each image portion is identified by the label areas a1 and b2. The first skin color determination unit 29 supplies the respective images (A) and (B) that have been subjected to the above-described labeling processing to the first facialness determination unit 30.

【0036】第1の顔らしさ判定部30は、前記各画像
(A)および(B)の前記ラベル領域a1〜b2につい
て、以下に説明する特徴の値を求め、求められた各値を
用いて顔らしさ一致度を求める。本具体例では、前記特
徴として、各ラベル領域の円形度の逆数である凸凹度合
SF2、重心位置GDおよび対象性SYMを用いる。
The first face-likeness determining section 30 finds the values of the characteristics described below for the label areas a1 to b2 of the images (A) and (B), and uses the obtained values. Find the degree of facial matching. In this specific example, as the characteristics, the degree of unevenness SF2, which is the reciprocal of the circularity of each label area, the position of the center of gravity GD, and the symmetry SYM are used.

【0037】まず、凸凹度合SF2を求めるべく、前記
各ラベル領域内a1〜b2の画素数をカウントし、当該
領域毎に面積AREAを求める。また、各ラベル領域の
輪郭にトレース処理を施したうえで、当該領域の周囲長
PERIを求める。さらに、これらの求められた各値を
用いて、図3に示す(3)式に沿って凸凹度合SF2を
算出する。
First, in order to obtain the degree of unevenness SF2, the number of pixels in each of the label areas a1 to b2 is counted, and the area AREA is obtained for each area. In addition, after performing a trace process on the contour of each label area, the perimeter PERI of the area is obtained. Further, the degree of unevenness SF2 is calculated according to the equation (3) shown in FIG. 3 by using these obtained values.

【0038】重心位置GDは、図3の(4)式から得ら
れる重心座標(gx,gy)を用いて、同図の(5)式
により求める。対象性SYMは、RGB値の「R」を用
いた場合、図3の(6)式により求めることができる。
The center-of-gravity position GD is obtained by the equation (5) in the figure using the centroid coordinates (gx, gy) obtained from the equation (4) in FIG. The symmetry SYM can be obtained by the equation (6) in FIG. 3 when the RGB value “R” is used.

【0039】前記した手順に沿って求められた各値を用
いて、図3の(7)式により、i番目の仮の顔色彩パタ
ーンにおけるj番目のラベル領域の顔らしさ一致度LF
(i,j)を求める。顔らしさ一致度は、その値が小さ
いほど、当該ラベル領域が顔らしいことを示し、逆に、
ラベル領域が顔らしくない場合、顔らしさ一致度は大き
な値となる。第1の顔らしさ判定部30は、画像(A)
および(B)における各ラベル領域の顔らしさ一致度を
最適顔色彩パターン生成部31へ供給する。
Using each value obtained in accordance with the above-mentioned procedure, the face-likeness matching degree LF of the j-th label area in the i-th tentative facial color pattern is calculated by the equation (7) in FIG.
Find (i, j). As for the face-likeness coincidence degree, the smaller the value is, the more the label area seems to be a face, and conversely,
When the label area does not look like a face, the degree of matching of the face looks like a large value. The first face likeness determination unit 30 displays the image (A).
And the face-likeness matching degree of each label area in (B) is supplied to the optimum face color pattern generation unit 31.

【0040】最適顔色彩パターン生成部31は、画像
(A)および(B)のそれぞれで、最も顔らしい特徴を
有するラベル領域を判定すべく、当該各画像における顔
らしさ一致度の最小値を検出する。さらに、各画像から
検出された顔らしさ一致度のうち、最小値の顔らしさ一
致度を求める。例えば、画像(A)のラベル領域a1お
よび画像(B)のラベル領域b1が、前記各画像での顔
らしさ一致度の最小値を示す場合、これらのラベル領域
a1またはb1のうち、より小さな値の顔らしさ一致度
を示す一方のラベル領域が検出される。
The optimum face color pattern generation unit 31 detects the minimum value of the face-likeness matching degree in each of the images (A) and (B) in order to determine the label area having the most facial-like features. To do. Further, among the face-likeness coincidences detected from each image, the minimum face-likeness coincidence is obtained. For example, when the label area a1 of the image (A) and the label area b1 of the image (B) show the minimum value of the face-likeness matching degree in each of the images, the smaller value of the label areas a1 or b1 is used. One label area indicating the degree of face-like matching is detected.

【0041】最適顔色彩パターン生成部31は、前記検
出された一方のラベル領域を有する画像に対応する仮の
顔色彩パターンを抽出し、当該仮の顔色彩パターンを、
最適な顔色彩パターンとして採用すべく顔色彩パターン
記憶部22へ供給する。
The optimum face color pattern generation unit 31 extracts a temporary face color pattern corresponding to the image having the detected one label area, and the temporary face color pattern is
It is supplied to the face color pattern storage unit 22 to be adopted as an optimum face color pattern.

【0042】顔色彩パターン記憶部22は、最適顔色彩
パターン生成部31からの前記顔色彩パターンを記憶す
る。これを以て、後続のフレーム画像から顔領域を検出
するのための顔色彩パターンを定義する一連の処理が完
了する。
The face color pattern storage unit 22 stores the face color pattern from the optimum face color pattern generation unit 31. This completes a series of processes for defining a face color pattern for detecting a face area from a subsequent frame image.

【0043】引き続いて、画像取得部10から顔色彩パ
ターン生成部21へ新たなフレーム画像が供給される
と、色空間変換部25により、当該フレーム画像につい
ての前記したと同様な(a,b)色空間の変換が行われ
る。顔領域検出制御部24は、前記変換を施された当該
フレーム画像を、顔領域検出部23の第2の肌色判定部
32へ供給するよう、色空間変換部25に指示する。
Subsequently, when a new frame image is supplied from the image acquisition unit 10 to the face color pattern generation unit 21, the color space conversion unit 25 performs the same (a, b) as described above for the frame image. Color space conversion is performed. The face area detection control unit 24 instructs the color space conversion unit 25 to supply the converted frame image to the second skin color determination unit 32 of the face area detection unit 23.

【0044】第2の肌色判定部32は、顔色彩パターン
記憶部22に保持されている前記顔色彩パターンを用い
て、色空間変換部25からの前記色空間の座標値および
当該フレーム画像から、当該顔色彩パターンに対応する
画像を検出する。この画像は、例えば前記した図6に示
す画像(A)あるいは(B)のような画像を指す。第2
の肌色判定部32は、前記画像を検出すると、該画像の
各画像部分に前記したと同様なラベリング処理を施した
うえで、当該画像を第2の顔らしさ判定部33へ供給す
る。
The second skin color judging section 32 uses the facial color pattern stored in the facial color pattern storage section 22 from the coordinate values of the color space from the color space converting section 25 and the relevant frame image, An image corresponding to the face color pattern is detected. This image refers to an image such as the image (A) or (B) shown in FIG. 6, for example. Second
Upon detecting the image, the skin color determination unit 32 performs the same labeling processing as described above on each image portion of the image, and then supplies the image to the second face-likeness determination unit 33.

【0045】第2の顔らしさ判定部33は、第2の肌色
判定部32からの前記画像に表される各ラベル領域につ
いて、前記した第1の顔らしさ判定部30におけると同
様な手順で、凸凹度合SF2等の特徴を求め、求めた特
徴の値を用いて、図3の(8)式により、当該jラベル
領域の顔らしさ一致度FLF(j)を算出する。
The second face-likeness determining section 33 performs the same procedure as that in the first face-likeness determining section 30 for each label area represented by the image from the second skin color determining section 32. Features such as the degree of unevenness SF2 are obtained, and the face-likeness matching degree FLF (j) of the j label area is calculated by the equation (8) in FIG. 3 using the obtained feature values.

【0046】さらに、算出した顔らしさ一致度FLF
(j)のうちの、最小値となる顔らしさ一致度min
(FLF(j))を、顔らしさ一致度に関し予め設定さ
れた閾値FACE_THL1と比較する。この比較にお
いて、図3の(9)式を満たすラベル領域は、顔らしい
特徴を持つ領域と判定され、当該ラベル領域を有する画
像が顔領域切出部34へ供給される。
Furthermore, the calculated face-likeness agreement degree FLF
The face-likeness coincidence degree min that is the minimum value in (j)
(FLF (j)) is compared with a preset threshold FACE_THL1 regarding the face-likeness matching degree. In this comparison, the label area satisfying the expression (9) in FIG. 3 is determined to be an area having facial features, and the image having the label area is supplied to the face area cutout unit 34.

【0047】また、前記(9)式を満たすラベル領域が
存在しないことは、当該フレーム画像に顔を表す部分が
無いと判定したことを示し、この旨を示す所定の情報
を、例えば顔領域検出部23から顔領域検出制御部24
へ出力することができる。
The absence of the label area satisfying the expression (9) indicates that it is determined that the frame image does not include a portion representing a face, and predetermined information indicating this is detected, for example, face area detection. From the unit 23 to the face area detection control unit 24
Can be output to.

【0048】顔領域切出部34は、第2の顔らしさ判定
部33からの前記画像のラベル領域において、X軸およ
びY軸の射影を取得する。前記X軸は、画像の水平方向
に伸びる軸を示し、その垂直方向の軸をY軸とする。図
7に、前記画像およびそのY軸方向に沿って得られた射
影データの例を示す。顔を示す画像部分では、一般的
に、目や口には肌色が現れ難いことから、図7の射影デ
ータの中央部付近に示される、比較的小さな射影量を示
す部分は、目および口の部分に対応すると考えられる。
The face area cutout unit 34 obtains the X-axis and Y-axis projections in the label area of the image from the second face-likeness determining unit 33. The X axis represents an axis extending in the horizontal direction of the image, and the vertical axis thereof is the Y axis. FIG. 7 shows an example of the image and the projection data obtained along the Y-axis direction thereof. In the image portion showing the face, in general, skin color does not easily appear on the eyes and mouth. Therefore, the portion showing a relatively small projection amount shown near the center of the projection data in FIG. It is considered to correspond to the part.

【0049】顔領域切出部34は、前記射影データか
ら、平均値m、標準偏差σおよび最大射影量maxvを
求め、また、当該射影データにおける閾値thlを、図
3の(10)式に基づいて設定する。これらの各値を用
いて、顔領域の左端(画像に向かって左)を規定するX
Lを、図3の(11)式により求め、顔領域の右端(画
像に向かって右)を規定するXRを、同図の(12)式
により求める。
The face area slicing unit 34 obtains the average value m, the standard deviation σ and the maximum projection amount maxv from the projection data, and the threshold value thl in the projection data is calculated based on the equation (10) in FIG. To set. Using each of these values, X that defines the left edge of the face area (left toward the image)
L is obtained by the equation (11) in FIG. 3, and XR that defines the right end of the face area (right toward the image) is obtained by the equation (12) in the figure.

【0050】前記(11)式によれば、図7の射影デー
タでは、LX1にほぼ一致する部分が左端XLとなる。
他方、右端XRの探索にあたっては、(12)式に基づ
いて、その探索範囲(m+k・σ〜LX2)で、p
(x)が閾値thlを超えて下降するような部分を採用
するが、当該探索範囲でのp(x)は、図7に示すよう
に、いったん下降した後、当該閾値を超えて隆起する曲
線を示す。本来、顔領域の端部付近でのp(x)は、閾
値thlを超えて下降した後、ほぼゼロ値で収束すべき
であるが、図示の例のように、いったん下降後に隆起す
ることは、この隆起部分のラベル領域に、背景の一部の
ような、顔画像を除く他の画像部分が含まれていると考
えられる。
According to the above equation (11), in the projection data of FIG. 7, the portion that substantially matches LX1 is the left end XL.
On the other hand, when searching for the right end XR, p is calculated in the search range (m + k · σ to LX2) based on the equation (12).
A portion in which (x) falls below the threshold thl is adopted, but p (x) in the search range is a curve that once falls and then rises above the threshold as shown in FIG. Indicates. Originally, p (x) near the edge of the face region should converge at an almost zero value after falling below the threshold value thl, but as in the example shown in the figure, it does not rise once after falling. It is considered that the label area of this raised portion includes other image portions other than the face image, such as a part of the background.

【0051】このことから、右端XRとして、図7に示
すように、p(x)が前記したような隆起を示す前の閾
値thl以下となる部分を採用する。これにより、前記
したラベル領域に含まれていた背景の一部の大半を除外
することができる。
From this, as the right end XR, as shown in FIG. 7, a portion in which p (x) is equal to or less than the threshold value thl before showing the above-mentioned bulge is adopted. As a result, most of the part of the background included in the label area can be excluded.

【0052】また、他方のX軸方向に沿って得られる射
影データから、顔領域の上端および下端を、前記したY
軸方向の各端部におけるとほぼ同様に検出することがで
きる。顔領域切出部34は、前記した手順に沿って検出
した各端部で規定される顔領域の画像部分を抽出し、こ
れを基準点設定部40へ供給する。
Further, from the projection data obtained along the other X-axis direction, the upper and lower ends of the face area are set to the above-mentioned Y.
It can be detected almost in the same way as at each axial end. The face area cutout unit 34 extracts the image portion of the face area defined by each end detected according to the procedure described above, and supplies this to the reference point setting unit 40.

【0053】前記した顔領域抽出部20に関する動作の
説明では、最初のフレーム画像に基づいて定義された顔
色彩パターンを用いて、後続のフレーム画像から顔領域
が検出されたが、画像取得部10の立ち上がり時の動作
が不安定である場合や、最初のフレーム画像に顔が映し
出されていない場合等を考慮して、図8〜図10のフロ
ーチャートに沿って説明する以下の手順を採用すること
ができる。
In the above description of the operation relating to the face area extracting unit 20, the face area is detected from the subsequent frame image using the face color pattern defined based on the first frame image. The following procedure, which is described along the flowcharts of FIGS. 8 to 10, is adopted in consideration of the case where the operation at the time of rising is unstable, the case where the face is not displayed in the first frame image, and the like. You can

【0054】図8のフローチャートで示す例では、動画
像における1〜n番目の各フレーム画像で顔色彩パター
ンが定義される。まず、画像取得部10からフレーム画
像が供給されると(ステップS1)、最適顔色彩パター
ン生成部31が、最適な顔色彩パターンを既に定義して
いるか否かを判定する(ステップS2)。前記顔色彩パ
ターンを定義済みであれば、顔領域検出部23が、当該
テーブルを用いて前記したと同様に顔領域を検出する
(ステップS3)。前記顔色彩パターンが未だ定義され
ていない場合、顔色彩パターン生成部21は、当該フレ
ーム画像が動画像における何番目のフレーム画像である
かを判定し(ステップS4)、当該フレーム画像が、1
〜n番目のいずれかの画像である場合、当該フレーム画
像から最適な顔色彩パターンを定義する(ステップS
5)。
In the example shown in the flowchart of FIG. 8, the face color pattern is defined by each of the 1st to nth frame images in the moving image. First, when the frame image is supplied from the image acquisition unit 10 (step S1), the optimum facial color pattern generation unit 31 determines whether or not the optimum facial color pattern has already been defined (step S2). If the face color pattern is already defined, the face area detection unit 23 detects the face area using the table in the same manner as described above (step S3). When the face color pattern is not yet defined, the face color pattern generation unit 21 determines which frame image in the moving image is the frame image (step S4), and the frame image is 1
If any of the nth to nth images, an optimum facial color pattern is defined from the frame image (step S
5).

【0055】また、フレーム画像を受けた時点で顔色彩
パターンが未定義であり(ステップS2・No)、且つ
当該フレーム画像がn+1番目以降の画像であること
(ステップS4・No)は、1〜n番目のフレーム画像
で顔色彩パターンを定義できなかったことを示し、この
場合、顔色彩パターン記憶部22に予め格納されている
前記したデフォルトの顔色彩パターンを採用する(ステ
ップS6)。
If the face color pattern is undefined when the frame image is received (step S2, No), and the frame image is the (n + 1) th and subsequent images (step S4, No), 1 to This indicates that the face color pattern could not be defined in the n-th frame image. In this case, the default face color pattern previously stored in the face color pattern storage unit 22 is adopted (step S6).

【0056】図9のフローチャートで示す例では、1〜
n番目の各フレーム画像で定義された顔色彩パターンの
うち、定義の頻度が最も高い顔色彩パターンが、n+1
番目以降のフレーム画像に用いられる。顔色彩パターン
生成部21は、フレーム画像が入力された後(ステップ
S11)、当該フレーム画像の順番を判定し(ステップ
S12)、当該フレーム画像が1〜n番目の画像であれ
ば、顔色彩パターンを定義する(ステップS13)。さ
らに、当該顔色彩パターンが定義された回数をカウント
する(ステップS14)。また、n番目を超えるフレー
ム画像については、それ以前の各画像で定義された顔色
彩パターンのうち、最も定義頻度の高い顔色彩パターン
を採用し(ステップS15)、この顔色彩パターンで、
前記したと同様に顔領域を検出する(ステップS1
6)。
In the example shown in the flowchart of FIG.
Of the face color patterns defined in the nth frame image, the face color pattern with the highest definition frequency is n + 1.
It is used for the second and subsequent frame images. After the frame image is input (step S11), the face color pattern generation unit 21 determines the order of the frame image (step S12), and if the frame image is the 1st to nth images, the face color pattern is generated. Is defined (step S13). Further, the number of times the face color pattern is defined is counted (step S14). For frame images exceeding the n-th frame image, the face color pattern with the highest definition frequency is adopted from the face color patterns defined in each image before that (step S15).
The face area is detected in the same manner as described above (step S1).
6).

【0057】図10のフローチャートで示す例では、ス
テップS21〜S25は、前記した図8に沿った例にお
けるステップS1〜S5と同様に動作する。但し、顔領
域検出部23は、ステップS23で、当該顔領域につい
ての顔らしさ一致度および顔領域の切出しに関する成否
を顔領域検出制御部24へ出力する。
In the example shown in the flowchart of FIG. 10, steps S21 to S25 operate in the same manner as steps S1 to S5 in the example shown in FIG. However, in step S23, the face area detection unit 23 outputs to the face area detection control unit 24 the degree of coincidence of face-likeness with respect to the face area and whether or not the face area is cut out.

【0058】顔領域検出制御部24は、顔領域検出部2
3からの前記出力の内容が、図3の(13)式の何れか
の条件を満たす場合、当該フレーム画像の照明環境がそ
れ以前のフレーム画像から変化した、あるいは顔の向き
が変化した等、フレーム画像間で環境の変化が生じたと
判断し、顔色彩パターン生成部21に新たな顔色彩パタ
ーンを定義するよう指示する(ステップS26)。顔色
彩パターン生成部21は、顔領域検出制御部24からの
前記した指示に従って、当該フレーム画像から新たな顔
色彩パターンを生成する。これにより、画像に映し出さ
れた環境の変化に対応した顔色彩パターンを自動的に定
義することができる。
The face area detection control unit 24 includes the face area detection unit 2
When the content of the output from 3 satisfies the condition of any of the expressions (13) in FIG. 3, the illumination environment of the frame image has changed from the previous frame image, the face orientation has changed, or the like. It is determined that the environment has changed between the frame images, and the face color pattern generation unit 21 is instructed to define a new face color pattern (step S26). The face color pattern generation unit 21 generates a new face color pattern from the frame image according to the instruction from the face area detection control unit 24. As a result, it is possible to automatically define the facial color pattern corresponding to the change in the environment displayed in the image.

【0059】また、前記した各フローチャートに沿った
例を利用して、ヒストグラム作成部26で、1〜n番目
の複数のフレーム画像についての累積ヒストグラム、あ
るいは、その平均を示すヒストグラムを作成し、作成し
たヒストグラムに基づいて最適な顔色彩パターンを生成
するように設定することができる。
Using the examples according to the above-mentioned flow charts, the histogram creating section 26 creates and creates a cumulative histogram for a plurality of frame images 1 to n or a histogram showing its average. It can be set so as to generate an optimum facial color pattern based on the created histogram.

【0060】図11は、顔部品探索装置101の前記基
準点設定部40の動作手順を示すフローチャートであ
る。基準点設定部40は、前記した顔領域抽出部20で
検出された顔領域の画像部分に、後述する低周波数フィ
ルタ処理を施し、該処理により得られた応答画像41か
ら、各顔部品の大まかな位置となる前記した基準点を検
出する。
FIG. 11 is a flow chart showing the operation procedure of the reference point setting unit 40 of the face part searching apparatus 101. The reference point setting unit 40 performs a low-frequency filter process, which will be described later, on the image portion of the face area detected by the face area extracting unit 20 described above, and from the response image 41 obtained by the processing, a rough image of each face part is obtained. The above-mentioned reference point that is at a different position is detected.

【0061】基準点設定部40は、図11に示すステッ
プS31の低周波数フィルタ処理で、当該顔領域の画像
部分が示す色彩の濃淡パターンのうち、予め設定された
低周波数で、各顔部品の位置関係に沿った位置に濃淡が
現れる部分を抽出する。例えば、応答画像41で「濃」
を示す画素と「淡」を示す画素とが交互に頻繁に現れる
ような部分は、前記フィルタ処理において抽出されず、
前記した各顔部品の位置関係に沿った位置に、いずれか
一方の画素が連続的に現れるような部分が抽出される。
図12に、低周波数フィルタ処理で得られる応答画像4
1の例を示す。
The reference point setting unit 40 executes the low-frequency filtering process in step S31 shown in FIG. 11 to select each face part at a preset low frequency in the shade pattern of the color indicated by the image portion of the face area. The part where the shade appears at the position along the positional relationship is extracted. For example, in the response image 41, "dark"
A portion in which a pixel indicating “?” And a pixel indicating “light” frequently appear alternately is not extracted in the filter processing,
A portion in which any one of the pixels continuously appears is extracted at a position along the positional relationship between the face parts described above.
FIG. 12 shows the response image 4 obtained by the low frequency filtering process.
1 is shown.

【0062】基準点設定部40は、前記ステップS31
で低周波数フィルタ処理の応答画像41を取得した後、
ステップS32で、当該応答画像を左右に二分する、図
13に示すような中心線42を検出する。
The reference point setting section 40 executes the step S31.
After acquiring the response image 41 of the low frequency filtering by
In step S32, the center line 42 that divides the response image into right and left, as shown in FIG. 13, is detected.

【0063】前記した中心線42の検出のために、基準
点設定部40は、応答画像41のY軸方向に伸びる任意
の線を中心線候補42′として、これをX軸方向に順次
的に平行移動させ、該移動毎に、当該中心線候補に対し
て互いに対称な位置にある一対の画素の濃淡レベルの類
似度を求める。この類似度の算出では、図14に示すよ
うに、中心線候補42′上の画素(x,y)から当該中
心線候補に対して対称の位置にある一対の画素である、
例えば(x−1,y)および(x+1,y)の、濃淡レ
ベルの類似度が求められる。前記一対の画素は、応答画
像41の全域、あるいは図14に示すような任意のエリ
ア内((xs,ys)〜(xe,ye))から抽出する
ことができる。その結果、類似度が高い前記一対の画素
が最も多く存在する中心線候補42′を、当該応答画像
における中心線42とする。また、フレーム画像の顔に
傾きがある場合は、当該傾き角度に対応した角度を、中
心線候補42′に設定することが望ましい。
In order to detect the above-mentioned center line 42, the reference point setting section 40 defines an arbitrary line extending in the Y-axis direction of the response image 41 as a center-line candidate 42 ', and sequentially sets this in the X-axis direction. The parallel movement is performed, and the gray level similarity of a pair of pixels located symmetrically with respect to the center line candidate is obtained for each movement. In the calculation of the degree of similarity, as shown in FIG. 14, the pixel (x, y) on the centerline candidate 42 'is a pair of pixels located symmetrically with respect to the centerline candidate.
For example, the gray level similarity of (x-1, y) and (x + 1, y) is obtained. The pair of pixels can be extracted from the entire area of the response image 41 or an arbitrary area ((xs, ys) to (xe, ye)) as shown in FIG. As a result, the centerline candidate 42 'in which the pair of pixels having a high degree of similarity is most present is set as the centerline 42 in the response image. When the face of the frame image has a tilt, it is desirable to set an angle corresponding to the tilt angle as the center line candidate 42 '.

【0064】前記ステップS32で中心線42が検出さ
れた後、基準点設定部40は、ステップS33で、X軸
方向およびY軸方向の射影をとり、その射影データから
ピーク部分を検出する。応答画像からX軸方向の射影を
とった場合、図13に示すようなX軸方向の射影データ
が得られる。図示の例では、このX軸方向の射影データ
に2つのピーク部分が現れている。ステップS33で
は、前記したX軸方向の射影を取得した後、当該各ピー
ク部分に対応する応答画像領域41aおよび41bでY
軸方向の射影を取得する。これにより、図13で応答画
像41の上方に示すような一方の射影データと、当該画
像の下方に示すような他方の射影データとが得られる。
前記応答画像領域41aに対応する前記一方の射影デー
タには、中心線42に対して対称的な2つのピーク部分
が現れ、前記応答画像領域部分41bに対応する前記他
方の射影データには、中心線42付近に単一のピーク部
分が現れている。
After the center line 42 is detected in step S32, the reference point setting unit 40 takes projections in the X-axis direction and the Y-axis direction in step S33, and detects a peak portion from the projection data. When the projection in the X-axis direction is taken from the response image, the projection data in the X-axis direction as shown in FIG. 13 is obtained. In the illustrated example, two peak parts appear in the projection data in the X-axis direction. In step S33, after the projection in the X-axis direction is acquired, Y is generated in the response image areas 41a and 41b corresponding to the respective peak portions.
Get the axial projection. As a result, one projection data shown above the response image 41 in FIG. 13 and the other projection data shown below the image are obtained.
In the one projection data corresponding to the response image area 41a, two peak portions symmetrical with respect to the center line 42 appear, and in the other projection data corresponding to the response image area portion 41b, the center is included in the other projection data. A single peak portion appears near the line 42.

【0065】基準点設定部40は、前記ステップS33
で検出したX軸方向およびY軸方向の各射影データに現
れるピーク部分に基づいて、ステップS34で、応答画
像41における目の大まかな位置を検出する。目の位置
の検出では、前記したX軸方向の前記ピーク部分で所定
の閾値を超えるピーク幅を検出し、該ピーク幅に対応す
る応答画像部分から、Y軸方向の前記ピーク部分を選定
する。これにより得られたY軸方向のピーク部分のう
ち、中心線42に対して互いに対称の位置にある2つの
ピーク部分を選定し、該2つのピーク部分に対応する2
つの応答画像部分を目の大まかな位置、すなわち目の基
準点と判定する。図13に示す例では、応答画像領域4
1a内に、前記目の基準点に対応する前記2つの応答画
像部分が現れている。
The reference point setting section 40 uses the step S33.
In step S34, the rough position of the eyes in the response image 41 is detected based on the peak portion appearing in each of the X-axis direction projection data and the Y-axis direction projection data detected in step S34. In detecting the eye position, a peak width exceeding a predetermined threshold is detected in the peak portion in the X-axis direction, and the peak portion in the Y-axis direction is selected from the response image portion corresponding to the peak width. Of the peak portions thus obtained in the Y-axis direction, two peak portions that are symmetrical to each other with respect to the center line 42 are selected, and two peak portions corresponding to the two peak portions are selected.
One response image portion is determined as a rough position of the eye, that is, the reference point of the eye. In the example shown in FIG. 13, the response image area 4
The two response image portions corresponding to the eye reference points appear in 1a.

【0066】また、基準点設定部40は、ステップS3
4で、応答画像41における口の大まかな位置を検出す
る。口の位置の検出にあたっては、前記ステップS33
で選定したY軸方向のピーク部分、すなわちX軸方向で
所定の閾値を超えるピーク幅に対応するY軸方向のピー
ク部分のうち、中心線42の位置を含む射影データ部分
にある単一のピーク部分を選定し、当該単一のピーク部
分が示す応答画像部分を、口の大まかな位置、すなわち
口の基準点と判定する。図13に示す例では、前記口の
基準点が応答画像領域41b内に現れている。
Further, the reference point setting section 40 determines in step S3.
At 4, the rough position of the mouth in the response image 41 is detected. In detecting the position of the mouth, the step S33 is performed.
A single peak in the projection data portion including the position of the center line 42 among the peak portion in the Y-axis direction selected in step 1, that is, the peak portion in the Y-axis direction corresponding to the peak width exceeding the predetermined threshold in the X-axis direction. A portion is selected, and the response image portion indicated by the single peak portion is determined as the rough position of the mouth, that is, the reference point of the mouth. In the example shown in FIG. 13, the reference point of the mouth appears in the response image area 41b.

【0067】基準点設定部40は、前記手順に沿って、
応答画像41における目および口の基準点を設定し、当
該各基準点に対応する座標を顔部品抽出部50へ供給す
る。なお、前記した説明では、目および口の基準点が検
出されたが、前記した手順を利用して、鼻や眉のような
他の顔部品の基準点を検出することができる。
The reference point setting unit 40 follows the procedure described above.
The eye and mouth reference points in the response image 41 are set, and the coordinates corresponding to the respective reference points are supplied to the face part extraction unit 50. Although the reference points of the eyes and mouth are detected in the above description, the reference points of other face parts such as the nose and eyebrows can be detected using the procedure described above.

【0068】図15は、顔部品探索装置101の顔部品
抽出部50の構成を示すブロック図である。顔部品抽出
部50は、図15に示すように、基準点設定部40から
の前記基準点の座標に基づいて、後述する顔特徴点の探
索範囲を設定する探索領域設定部51と、当該探索範囲
内で、予め設定された顔部品に関する情報を有するテン
プレートを用いて前記顔特徴点の候補を抽出する候補抽
出部52と、前記顔特徴点の候補から最適な顔特徴点を
選定する候補選定部53とを備える。
FIG. 15 is a block diagram showing the configuration of the face part extraction section 50 of the face part search device 101. As shown in FIG. 15, the facial part extraction unit 50, based on the coordinates of the reference point from the reference point setting unit 40, sets a search area setting unit 51 that sets a search range of facial feature points, which will be described later, and the search. Within the range, a candidate extracting unit 52 for extracting the candidates of the facial feature points by using a template having information on face parts set in advance, and a candidate selection for selecting an optimal facial feature point from the candidates of the facial feature points. And a section 53.

【0069】前記した顔特徴点は、顔部品毎に予め設定
された位置であり、例えば「眉」、「目」、「鼻」およ
び「口」のそれぞれに対応する顔特徴点を、「眉下側中
心」、「虹彩中心」、「鼻先」および「口上下左右端」
とすることができる。
The above-mentioned facial feature points are positions set in advance for each face part. For example, the facial feature points corresponding to "eyebrows", "eyes", "nose" and "mouths" are referred to as "eyebrows". "Bottom center", "iris center", "nose tip" and "upper, lower, left and right edges"
Can be

【0070】顔部品抽出部50には、任意の大きさの標
準的な顔画像に関するデータが予め与えられている。本
具体例の前記テンプレートは、この標準的な顔画像の顔
部品画像と、該顔部品画像における前記したような特徴
点の相対位置とを含むデータである。候補抽出部52に
は、前記テンプレートを、対応する顔部品毎に格納する
テンプレート格納部52aが設けられている。
The face part extraction section 50 is previously provided with data regarding a standard face image of an arbitrary size. The template of this specific example is data including the face part image of this standard face image and the relative positions of the above-mentioned feature points in the face part image. The candidate extraction unit 52 is provided with a template storage unit 52a that stores the template for each corresponding face part.

【0071】探索領域設定部51は、前記したように、
フレーム画像から各顔部品の顔特徴点を探索するための
範囲を設定する。この探索範囲は、基準点設定部40よ
り供給された各顔部品の前記位置座標から、上下左右に
任意の距離を持つ範囲とすることができるが、当該位置
座標は、各顔部品の大まかな位置を示すことから、実際
の位置との誤差を考慮して前記探索範囲を設定すること
が望ましい。
The search area setting section 51, as described above,
The range for searching the facial feature points of each facial part from the frame image is set. The search range can be a range having an arbitrary distance in the vertical and horizontal directions from the position coordinates of each face part supplied from the reference point setting unit 40. However, the position coordinates are rough for each face part. Since the position is indicated, it is desirable to set the search range in consideration of an error from the actual position.

【0072】前記探索範囲の設定で、探索領域設定部5
1が、例えば「目」の大まかな位置座標に基づいて、そ
の特徴点である「虹彩中心」の探索範囲を設定する場
合、当該「目」の位置座標、すなわち両目に対応する一
対の位置座標から、該両位置座標間の距離である瞳間距
離を求め、求められた瞳間距離と、前記テンプレートに
含まれる標準的な顔画像おける瞳間距離との比率を求め
る。さらに、前記標準的な顔画像における「目」の位置
座標から所定の距離にある座標で既定される範囲を、前
記比率の分、変形し、変形された当該範囲内に、前記大
まかな「目」の位置座標が含まれるように、前記範囲を
当てはめる。これにより得られた範囲を、「目」の特徴
点である前記「虹彩中心」の探索範囲とする。
By setting the search range, the search area setting unit 5
When 1 sets the search range of the "iris center" which is the feature point based on the rough position coordinates of the "eyes", for example, the position coordinates of the "eyes", that is, the pair of position coordinates corresponding to both eyes. Then, the inter-pupil distance, which is the distance between the two position coordinates, is obtained, and the ratio between the obtained inter-pupil distance and the inter-pupil distance in the standard face image included in the template is obtained. Further, the range defined by the coordinates at a predetermined distance from the position coordinates of the "eyes" in the standard face image is transformed by the above-mentioned ratio, and the rough "eyes" are placed within the transformed range. The range is fitted so as to include the position coordinates of ". The range thus obtained is set as the search range of the "center of the iris" which is the feature point of the "eye".

【0073】前記した探索範囲の設定手順に沿って、
「眉」や「口」等の他の顔部品についても同様に、各探
索範囲を設定することができる。
In accordance with the search range setting procedure described above,
Similarly, for other face parts such as "eyebrows" and "mouths", each search range can be set.

【0074】候補抽出部52は、抽出すべき特徴点の顔
部品に対応するテンプレートをテンプレート格納部52
aから取得し、探索領域設定部51で設定された前記探
索範囲内で、当該テンプレートを走査して、各顔特徴点
の位置座標の候補を検出する。例えば「虹彩中心」の位
置座標候補を検出する場合、探索領域設定部51で求め
られた前記比率の分、「目」のテンプレートに含まれる
顔部品画像を変形すると共に、この変形に応じて、当該
顔部品画像の相対位置座標を変換する。続いて、前記テ
ンプレートを、フレーム画像の前記探索範囲内で走査
し、該走査の位置毎に、当該テンプレートの前記顔部品
画像の各画素と、当該フレーム画像で前記テンプレート
に照合される領域内の各画素との輝度差を順次求める。
The candidate extracting unit 52 stores the template corresponding to the facial parts of the feature points to be extracted in the template storing unit 52.
The template is scanned within the search range acquired from a and set by the search area setting unit 51 to detect candidates for position coordinates of each facial feature point. For example, when detecting the position coordinate candidate of "center of iris", the face part image included in the template of "eyes" is deformed by the ratio calculated by the search area setting unit 51, and in accordance with this deformation, The relative position coordinates of the face part image are converted. Subsequently, the template is scanned within the search range of the frame image, and for each scanning position, each pixel of the face part image of the template and the area in the frame image to be matched with the template are scanned. The luminance difference from each pixel is sequentially obtained.

【0075】さらに、前記走査毎に求められた各輝度差
から、その総和を求め、該総和の値が、予め設定された
閾値よりも小さくなる走査位置を検出する。各輝度差の
総和値が最小値の「0」であることは、当該両画素の輝
度が完全に一致することを示し、総和値が増大するほ
ど、両者の一致度が低くなる。この総和値に関し予め設
定された前記した閾値を、例えば「10」とする場合
は、この閾値よりも小さい「0」〜「9」のいずれかを
前記総和値が示すとき、その走査位置が検出される。
Further, the total sum is obtained from the respective brightness differences obtained for each scanning, and the scanning position where the value of the total becomes smaller than a preset threshold value is detected. When the sum total value of the respective brightness differences is the minimum value “0”, it means that the brightness of the both pixels completely matches, and the higher the total value, the lower the degree of coincidence between the two. When the threshold value set in advance for this total sum value is set to, for example, “10”, when the total sum value indicates any of “0” to “9” smaller than this threshold value, the scanning position is detected. To be done.

【0076】候補抽出部52は、検出された各走査位置
におけるテンプレートの前記相対位置座標に対応する前
記フレーム画像の位置座標を、当該フレーム画像の「虹
彩中心」の位置座標候補とする。
The candidate extracting section 52 uses the position coordinates of the frame image corresponding to the relative position coordinates of the template at each detected scanning position as the position coordinate candidates of the "iris center" of the frame image.

【0077】また、候補抽出部52は、前記閾値より小
さい総和値(「0」〜「9」)を、複数の段階に区分
し、区分された各段階を、テンプレートとフレーム画像
との整合性を示す確信度として表すことができる。例え
ば、前記確信度のレベルを、確信度が大きい順に「A」
〜「E」の5段階に設定した場合、前記した例では、
「0」および「1」の総和値は、確信度の最大レベルと
なる「A」に該当し、総和値「8」および「9」が、確
信度の最小レベルである「E」に該当する。
Further, the candidate extracting section 52 divides the total value (“0” to “9”) smaller than the threshold into a plurality of stages, and the divided stages are matched with each other between the template and the frame image. Can be expressed as a certainty factor. For example, the level of the certainty factor is “A” in descending order of certainty factor.
~ If set to five levels of "E", in the above example,
The sum total value of "0" and "1" corresponds to "A" which is the maximum level of the certainty factor, and the total sum value "8" and "9" corresponds to "E" which is the minimum level of the certainty factor. .

【0078】各顔部品についての顔特徴点の位置座標候
補が候補抽出部52で抽出されると、続いて、候補選定
部53により、これらの候補から当該顔特徴点に最適な
候補が選定される。候補選定部53は、例えば「虹彩中
心」に関する候補から最適な候補を選定する場合、これ
らの候補が示す位置座標から平均の位置座標を求め、求
められた平均の位置座標に最も近い距離にある候補を、
「虹彩中心」の最適な位置座標として選定する。このよ
うにして選定された「虹彩中心」の最適な位置座標が、
当該フレーム画像における詳細な「目」の位置座標とな
る。
When the position coordinate candidates of the facial feature points for each face part are extracted by the candidate extracting section 52, subsequently, the candidate selecting section 53 selects the optimum candidate for the facial feature points from these candidates. It For example, when selecting an optimal candidate from the candidates regarding the “iris center”, the candidate selection unit 53 obtains average position coordinates from the position coordinates indicated by these candidates, and is at the closest distance to the obtained average position coordinates. Candidates
Select it as the optimum position coordinate of the "iris center". The optimum position coordinate of the "iris center" selected in this way is
It is the detailed position coordinates of the “eye” in the frame image.

【0079】図15に沿って説明した前記手順を利用し
て、顔部品抽出部50を、図16および図17に示すよ
うに構成することができる。図16に示す例では、顔部
品抽出部50に、さらに、後述する基準点入力探索領域
設定部54が設けられており、基準点設定部40から供
給される任意の顔部品の位置座標に基づいて、当該顔部
品を含む他の顔部品の顔特徴点が探索される。
Using the procedure described with reference to FIG. 15, the face part extraction section 50 can be constructed as shown in FIGS. 16 and 17. In the example shown in FIG. 16, the face part extraction section 50 is further provided with a reference point input search area setting section 54, which will be described later, and based on the position coordinates of any face part supplied from the reference point setting section 40. Then, the face feature points of other face parts including the face part are searched.

【0080】図16の顔部品抽出部50では、例えば、
前記した任意の顔部品が「目」である場合、探索領域設
定部51が、前記したと同様に、「虹彩中心」の探索範
囲を設定した後、候補抽出部52が、テンプレート格納
部52aから取得した「目」のテンプレートを前記探索
範囲内で走査して顔特徴点の候補を検出し、候補選定部
53が、前記候補から最適な候補を選定する。
In the face part extraction section 50 of FIG. 16, for example,
When the above-mentioned arbitrary face parts are “eyes”, the search area setting unit 51 sets the search range “center of the iris” in the same manner as described above, and then the candidate extraction unit 52 extracts the template storage unit 52a from the template storage unit 52a. The acquired template of “eyes” is scanned within the search range to detect facial feature point candidates, and the candidate selection unit 53 selects the optimum candidate from the candidates.

【0081】基準点入力探索領域設定部54は、候補選
定部53で検出された「虹彩中心」の位置座標に基づい
て、残りの顔部品の顔特徴点を探索する領域を設定す
る。前記図15に沿って説明した例では、基準点設定部
40からの大まかな位置座標が用いられたが、ここで
は、候補選定部53で既に確定された位置座標(「虹彩
中心」)が用いられ、この座標は実際の位置座標との誤
差が少ないと考えられる。従って、この確定位置座標に
基づいて基準点入力探索領域設定部54で設定する探索
範囲は、前記した探索領域設定部51で定める探索範囲
よりも小さく設定することができる。
The reference point input search area setting unit 54 sets an area for searching the face feature points of the remaining face parts based on the position coordinates of the "iris center" detected by the candidate selection unit 53. In the example described with reference to FIG. 15, the rough position coordinates from the reference point setting unit 40 are used, but here, the position coordinates already determined by the candidate selection unit 53 (“iris center”) are used. It is considered that this coordinate has little error from the actual position coordinate. Therefore, the search range set by the reference point input search area setting unit 54 based on the determined position coordinates can be set smaller than the search range set by the search area setting unit 51.

【0082】例えば、前記「虹彩中心」の確定位置座標
から「眉下側中心」を探索する場合、当該確定位置座標
から瞳間距離を求め、前記したように、「目」のテンプ
レートを用いて前記比率を求める。続いて、前記テンプ
レートにおいて、「虹彩中心」の位置座標から所定の距
離にある「眉下側中心」の探索範囲を、前記比率の分、
変形および移動させる。さらに、その結果得られるテン
プレートの「虹彩中心」と、当該フレーム画像で確定さ
れた「虹彩中心」とを照合させ、当該テンプレートの
「眉下側中心」の探索範囲に基づいて、当該フレーム画
像の「眉下側中心」の探索範囲を設定する。他の残りの
顔部品についても、前記した「眉下側中心」に関する手
順と同様に、探索範囲を設定することができる。これに
より、比較的小さな探索範囲内で、顔特徴点の走査を行
うことができる。
For example, when searching for the "center under the eyebrow" from the fixed position coordinates of the "iris center", the interpupillary distance is obtained from the fixed position coordinates, and as described above, the "eye" template is used. The ratio is calculated. Then, in the template, the search range of the "center under the eyebrows" located at a predetermined distance from the position coordinate of the "center of the iris",
Transform and move. Further, the “iris center” of the template obtained as a result is collated with the “iris center” determined in the frame image, and based on the search range of the “browside center” of the template, the frame image of the frame image is searched. Set the search range of "center under the eyebrows". With respect to the other face parts, the search range can be set in the same manner as the procedure for the “center under the eyebrows”. As a result, the facial feature points can be scanned within a relatively small search range.

【0083】また、図17に示す例では、顔部品抽出部
50に連続処理用探索領域設定部55が設けられてお
り、該設定部55および探索領域設定部51が、所定の
選択機構56により、選択的に動作される。連続処理用
探索領域設定部55は、処理すべきフレーム画像の直前
のフレーム画像で抽出された各顔特徴点の確定位置座標
に基づいて、当該フレーム画像の顔特徴点の探索範囲を
設定する。この探索範囲は、前記した基準点入力探索領
域設定部54におけると同様に、比較的小さな範囲とす
ることができる。これにより、すべての顔特徴点の各探
索範囲が、直前のフレーム画像のそれらを利用して設定
されることから、顔特徴点の探索を、より効率的に行う
ことができる。
Further, in the example shown in FIG. 17, the face part extraction section 50 is provided with a continuous processing search area setting section 55, and the setting section 55 and the search area setting section 51 are operated by a predetermined selection mechanism 56. , Selectively operated. The continuous processing search area setting unit 55 sets the search range of the facial feature points of the frame image based on the fixed position coordinates of the facial feature points extracted in the frame image immediately before the frame image to be processed. This search range can be set to a relatively small range, as in the reference point input search area setting unit 54 described above. As a result, the respective search ranges of all face feature points are set by using those of the immediately preceding frame image, so that the face feature points can be searched more efficiently.

【0084】具体例1の顔部品探索装置101では、前
記したように、画像取得部10で取得したフレーム画像
について、顔領域抽出部20で顔色彩パターンに基づい
て顔領域が検出された後、基準点設定部40が、低周波
数フィルタの応答画像(41)を用いて、当該顔領域に
おける顔部品の大まかな位置を検出する。そして、顔部
品抽出部50により、前記大まかな位置に基づいて顔部
品の詳細な位置が抽出される。
In the face part searching apparatus 101 of the first specific example, as described above, in the frame image acquired by the image acquiring section 10, after the face area extracting section 20 detects the face area based on the face color pattern, The reference point setting unit 40 uses the response image (41) of the low frequency filter to detect the rough position of the face part in the face area. Then, the facial part extraction unit 50 extracts a detailed position of the facial part based on the rough position.

【0085】従って、具体例1の顔部品探索装置101
によれば、当該フレーム画像における顔領域の探索に、
関連するフレーム画像に基づいて生成した顔色彩パター
ンが用いられることから、探索すべき顔に対する照明環
境に変化があっても、適正に対処することができる。
Therefore, the face part searching apparatus 101 according to the first embodiment.
According to the search for the face area in the frame image,
Since the facial color pattern generated based on the related frame image is used, it is possible to appropriately deal with a change in the illumination environment for the face to be searched.

【0086】また、顔領域を探索する過程で、前記した
顔色彩パターンの色彩パターンデータおよび低周波数フ
ィルタの応答画像での射影データという相互に異種とな
るデータが用いられることから、単一のデータに依存し
た探索よりも信頼度の高い探索を行うことができる。
Further, in the process of searching the face area, since the mutually different data of the color pattern data of the face color pattern and the projection data of the response image of the low frequency filter are used, a single data is used. It is possible to perform a search with higher reliability than a search that depends on.

【0087】さらに、顔部品の詳細な位置を探索する際
に、基準点設定部40により検出された大まかな顔部品
の位置が利用されることから、顔部品の位置を効率的に
探索することができる。
Further, since the rough position of the face part detected by the reference point setting unit 40 is used when searching the detailed position of the face part, the position of the face part can be efficiently searched. You can

【0088】前記した説明では、動画像の各フレーム画
像が用いられたが、これに限らず、例えば画像取得部1
0をスキャナとし、該スキャナからの静止画像における
顔部品の探索に、顔部品探索装置101を適用すること
ができる。
In the above description, each frame image of the moving image is used, but the present invention is not limited to this. For example, the image acquisition unit 1
0 is a scanner, and the face part search apparatus 101 can be applied to search for a face part in a still image from the scanner.

【0089】〈具体例2〉図18は、本発明を説明する
ための具体例2の顔部品探索装置102の構成を示すブ
ロック図である。顔部品探索装置102は、図18に示
すように、前記した具体例1の顔部品探索装置101の
構成に加えて、後述するトラッキング処理についての判
定を行うトラッキング判定部60を備える。
<Embodiment 2> FIG. 18 is a block diagram showing the configuration of the facial part searching apparatus 102 according to Embodiment 2 for explaining the present invention. As shown in FIG. 18, the face part search device 102 includes a tracking determination unit 60 that determines the tracking process described below, in addition to the configuration of the face part search device 101 of the specific example 1 described above.

【0090】トラッキング判定部60は、当該フレーム
画像の顔部品が探索されるとき、その直前のフレーム画
像で抽出された顔部品の詳細な位置を、当該フレーム画
像の前記した大まかな位置として利用するトラッキング
処理を実行するか否かを判定する。この判定にあたって
は、後述する所定の判定基準が用いられる。
When the face part of the frame image is searched, the tracking determination section 60 uses the detailed position of the face part extracted in the frame image immediately before that as the rough position of the frame image. It is determined whether or not the tracking process is executed. For this determination, a predetermined determination standard described later is used.

【0091】顔部品探索装置102の動作例を、図19
に示すフローチャートに沿って説明する。画像取得部1
0からフレーム画像が供給されると(ステップS4
1)、トラッキング判定部60は、このフレーム画像に
前記したトラッキング処理を施すか否かを判定する(ス
テップS42)。画像取得部10からのフレーム画像
が、例えば動画像における最初のフレーム画像である場
合、その直前のフレーム画像は存在しないことから、ト
ラッキング処理を実行しないとの判定を下す。
An example of the operation of the face part search device 102 is shown in FIG.
A description will be given according to the flowchart shown in FIG. Image acquisition unit 1
When a frame image is supplied from 0 (step S4
1), the tracking determination unit 60 determines whether or not to perform the tracking processing described above on this frame image (step S42). If the frame image from the image acquisition unit 10 is, for example, the first frame image in the moving image, there is no frame image immediately before it, and thus it is determined that the tracking process is not executed.

【0092】トラッキング処理が行われない場合、当該
フレーム画像について、顔領域抽出部20、基準点設定
部40および顔部品抽出部50で、具体例1におけると
同様な手順に沿って顔部品の位置が抽出されると(ステ
ップS43〜45)、顔領域検出制御部24で、後続の
フレーム画像があるか否かが判定される(ステップS4
6)。後続のフレーム画像が無い場合は、顔部品探索装
置102の処理が終了する。
When the tracking process is not performed, the face area extraction unit 20, the reference point setting unit 40, and the face component extraction unit 50 perform the position of the face component on the frame image according to the same procedure as in the first specific example. Is extracted (steps S43 to 45), the face area detection control unit 24 determines whether or not there is a subsequent frame image (step S4).
6). If there is no subsequent frame image, the process of the face part search device 102 ends.

【0093】前記フレーム画像に引き続くフレーム画像
が供給された場合(ステップS41)、トラッキング判
定部60は、次に示すような判定基準に基づいて、当該
フレーム画像のトラッキング処理を判定する(ステップ
S42)。例えば、顔部品抽出部50で求められる前記
した顔部品位置に関する確信度を用い、直前のフレーム
画像についての前記確信度が、予め設定した閾値以上で
あった場合、トラッキング処理を実行すると判定する。
また、例えば、前記ステップS43〜45の一連の処理
を行うループ回数が、予め設定した回数に達したとき、
トラッキング処理を実行するように設定することができ
る。
When a frame image subsequent to the frame image is supplied (step S41), the tracking determination section 60 determines the tracking process of the frame image based on the following determination criteria (step S42). . For example, using the certainty factor regarding the facial component position obtained by the facial component extraction unit 50, if the certainty factor for the immediately previous frame image is equal to or greater than a preset threshold value, it is determined to perform the tracking process.
Further, for example, when the number of loops for performing the series of processing in steps S43 to 45 reaches a preset number of times,
It can be set to perform a tracking process.

【0094】トラッキング判定部60は、当該フレーム
画像について、前記したような判定基準に沿った判定を
行い、その結果、トラッキング処理を実行すると判定し
たとき、前記直前のフレーム画像の詳細な顔部品位置
を、当該フレーム画像における顔部品の大まかな位置と
して取り扱うよう、顔部品抽出部50に指示する。顔部
品抽出部50は、トラッキング判定部60の前記した指
示に従って、当該フレーム画像における詳細な顔部品位
置を抽出する(ステップS45)。
The tracking judgment unit 60 judges the frame image according to the above-mentioned judgment criteria, and when it judges that the tracking process is to be executed, the detailed face part position of the immediately preceding frame image is judged. Is instructed to the facial part extraction unit 50 so as to be treated as a rough position of the facial part in the frame image. The face part extraction unit 50 extracts detailed face part positions in the frame image according to the instruction from the tracking determination unit 60 (step S45).

【0095】具体例2の顔部品探索装置102によれ
ば、フレーム画像の顔部品を探索する際に、前記したト
ラッキング処理により、直前のフレーム画像で得たデー
タが利用できることから、顔部品を効率的に探索するこ
とができる。これは、特に、動画像の隣接するフレーム
画像間で、顔画像に大きな変化が無い場合に有益であ
る。
According to the facial part searching apparatus 102 of the second specific example, when searching for a facial part of a frame image, the data obtained in the immediately preceding frame image can be used by the tracking processing described above, so that the facial part can be efficiently searched. Can be searched for. This is particularly useful when there is no significant change in the face image between the adjacent frame images of the moving image.

【0096】また、トラッキング判定部60が、トラッ
キング処理を実行すると判定したとき、当該処理は、具
体例1におけると同様な構成部分で実行されることか
ら、トラッキング処理を実行する新たな機構を備える必
要が無い。
When the tracking determination unit 60 determines that the tracking process is to be executed, the process is executed by the same components as those in the specific example 1, so that a new mechanism for executing the tracking process is provided. There is no need.

【0097】本具体例のトラッキング処理を利用して、
例えば、顔領域抽出部20での顔色彩パターンの生成
に、直前のフレーム画像の大まかな顔部品位置あるいは
詳細な顔部品位置を用いることができる。例えば、直前
のフレーム画像で詳細な顔部品位置の検出した後、当該
詳細な位置に基づいて次フレーム画像の顔領域を検出
し、この顔領域から顔色彩パターンを生成する。これに
より、より適正な顔色彩パターンを取得することができ
る。
Using the tracking process of this example,
For example, the rough facial part position or the detailed facial part position of the immediately previous frame image can be used for the generation of the facial color pattern in the facial area extraction unit 20. For example, after detecting the detailed face part position in the immediately preceding frame image, the face area of the next frame image is detected based on the detailed position, and the face color pattern is generated from this face area. This makes it possible to acquire a more appropriate facial color pattern.

【0098】〈具体例3〉図20は、本発明を説明する
ための具体例3の顔部品探索装置103の構成を示すブ
ロック図である。顔部品探索装置103は、前記した具
体例2の顔部品探索装置102の構成に加えて、フレー
ム画像における顔の傾きに関する後述する回転処理を行
う回転処理部70を備える。
<Embodiment 3> FIG. 20 is a block diagram showing the configuration of the face part search device 103 according to Embodiment 3 for explaining the present invention. In addition to the configuration of the face part searching device 102 of the specific example 2 described above, the face part searching device 103 includes a rotation processing unit 70 that performs a rotation process to be described later regarding the inclination of the face in the frame image.

【0099】回転処理部70は、顔部品の両目の位置に
基づいて、当該顔の傾き角度を求め、求めた傾き角度の
分、顔の傾きを補正した顔部品の位置を、大まかな顔部
品位置として顔部品抽出部50へ供給する。前記した両
目の位置は、本具体例では、トラッキング処理時に参照
される直前のフレーム画像の詳細な「目」の位置が採用
されるが、トラッキング処理を行わない場合は、基準点
設定部40で検出した大まかな「目」の位置を利用する
ことができる。
The rotation processing unit 70 obtains the tilt angle of the face based on the positions of both eyes of the face component, and the position of the face component in which the tilt of the face is corrected by the obtained tilt angle is roughly calculated. The position is supplied to the facial part extraction unit 50. In the present specific example, the positions of the eyes described above are the positions of the detailed “eyes” of the frame image immediately before being referred to during the tracking process. However, when the tracking process is not performed, the reference point setting unit 40 is used. The detected rough "eye" position can be used.

【0100】回転処理部70は、前記「目」の位置座標
が、例えば、左目(x1,y1)および右目(x2,y
2)であるとき、 r=arctan((y2−y1)/(x2−x1)) ・・・(14)式 当該両座標に関する傾き角度rを(14)式から求め、
求められた傾き角度rを、当該顔の傾き角度とする。こ
の傾き角度は、フレーム画像全体の傾き角度とすること
ができる。さらに、前記顔の傾きを水平に補正すべく、
前記傾き角度の分、逆回転(−r)させた顔部品の位置
を検出し、これを顔部品抽出部50へ供給する。
The rotation processing unit 70 determines that the position coordinates of the "eyes" are, for example, left eye (x1, y1) and right eye (x2, y).
2), r = arctan ((y2-y1) / (x2-x1)) Equation (14) The tilt angle r with respect to the two coordinates is obtained from Equation (14),
The calculated tilt angle r is set as the tilt angle of the face. This tilt angle can be the tilt angle of the entire frame image. Furthermore, in order to correct the inclination of the face horizontally,
The position of the face part that is reversely rotated (-r) by the tilt angle is detected and supplied to the face part extraction unit 50.

【0101】この顔部品探索装置103の動作を図21
に示すフローチャートに沿って説明する。前記したよう
に、図示の例では、トラッキング処理が行われるとき
に、回転処理が実行される。画像取得部10から供給さ
れるフレーム画像について、トラッキング処理を施さな
いと判定されたときは、前記具体例1で説明したと同様
な手順で、当該フレーム画像における顔部品が探索され
る(ステップS51〜S56)。
FIG. 21 shows the operation of the face part search device 103.
A description will be given according to the flowchart shown in FIG. As described above, in the illustrated example, the rotation process is executed when the tracking process is executed. When it is determined that the frame image supplied from the image acquisition unit 10 is not subjected to the tracking process, the face part in the frame image is searched for in the same procedure as described in the specific example 1 (step S51). ~ S56).

【0102】また、画像取得部10からフレーム画像が
供給され(ステップS51)、トラッキング判定部60
が当該フレーム画像にトラッキング処理を施すと判定し
たとき(ステップS52)、回転処理部70は、当該フ
レーム画像の直前のフレーム画像から得られた顔部品の
詳細な位置に基づいて前記傾き角度を求め、当該フレー
ム画像に前記した回転処理を施す(ステップS57)。
前記した回転処理後に検出される顔部品の大まかな位置
は、顔部品抽出部50へ供給され、当該顔部品抽出部
は、回転処理部70で調整された大まかな位置に基づい
て、具体例1におけると同様に顔部品の詳細な位置を抽
出する(ステップS55)。
A frame image is supplied from the image acquisition unit 10 (step S51), and the tracking determination unit 60
When it is determined that the tracking process is performed on the frame image (step S52), the rotation processing unit 70 obtains the tilt angle based on the detailed position of the face part obtained from the frame image immediately before the frame image. The rotation processing described above is applied to the frame image (step S57).
The rough position of the face part detected after the rotation processing described above is supplied to the face part extracting section 50, and the face part extracting section is based on the rough position adjusted by the rotation processing section 70. The detailed position of the face part is extracted in the same manner as in (step S55).

【0103】具体例3の顔部品探索装置103によれ
ば、顔部品を探索すべきフレーム画像の顔に傾きがあっ
ても、回転処理部70での前記した回転処理により、前
記傾きがほぼ水平に補正された情報が供給されることか
ら、この情報を受ける顔部品抽出部50は、顔部品の詳
細な位置を適正に検出することができる。
According to the face part search device 103 of the third specific example, even if the face of the frame image for which the face part is to be searched has a tilt, the above-described rotation processing in the rotation processing unit 70 causes the tilt to be substantially horizontal. Since the corrected information is supplied to the facial part extraction unit 50 that receives this information, the facial part extraction unit 50 can appropriately detect the detailed position of the facial part.

【0104】前記した顔部品探索装置103には、トラ
ッキング判定部60が設けられていたが、このトラッキ
ング判定部60を備えることなく、具体例1の顔部品探
索装置101に回転処理部70を備える構成とすること
ができる。その場合、顔部品を探索すべき全てのフレー
ム画像が、前記した回転処理の対象となる。
The face part searching apparatus 103 described above is provided with the tracking determining section 60. However, the face part searching apparatus 101 of the first specific example is provided with the rotation processing section 70 without the tracking determining section 60. It can be configured. In that case, all the frame images in which the face parts are to be searched are the targets of the rotation processing described above.

【0105】〈具体例4〉図22は、本発明を説明する
ための具体例4の顔部品探索装置104の構成を示すブ
ロック図である。顔部品探索装置104は、具体例1の
顔部品探索装置101の構成に加えて、フレーム画像の
顔の向きを検出する顔向き抽出部80を備える。
<Fourth Embodiment> FIG. 22 is a block diagram showing the arrangement of a facial part searching apparatus 104 according to the fourth embodiment for explaining the present invention. The face part search device 104 includes a face direction extraction unit 80 that detects the face direction of the frame image in addition to the configuration of the face part search device 101 of the first specific example.

【0106】顔向き抽出部80は、基準点設定部40で
検出された「目」の大まかな位置に基づいて、当該フレ
ーム画像における顔の向きを検出する。図23に、顔が
正面を向いているフレーム画像部分(I)と、前記顔が
左方向を向いているフレーム画像部分(II)とを示す。
図示の各画像部分において、顔領域の左端と、左目の大
まかな位置座標との間の距離を左端幅とし、顔領域の右
端と、右目の大まかな位置座標との間の距離を右端幅と
した場合、画像部分(I)のように顔が正面を向いてい
るときは、前記左端幅および右端幅がほぼ同じ大きさと
なる。また、例えば画像部分(II)のように、顔が左を
向いている場合は、左端幅よりも右端幅のほうが大きく
なり、逆に、顔が右を向いている場合(図示せず)であ
れば、右端幅よりも左端幅のほうが大きくなると考えら
れる。顔向き抽出部80は、左端幅および右端幅の前記
した関係に基づいて、フレーム画像の顔の向きを検出す
る。
The face orientation extraction unit 80 detects the orientation of the face in the frame image based on the rough position of the "eye" detected by the reference point setting unit 40. FIG. 23 shows a frame image portion (I) in which the face faces the front and a frame image portion (II) in which the face faces to the left.
In each image portion shown, the distance between the left edge of the face area and the rough position coordinates of the left eye is the left edge width, and the distance between the right edge of the face area and the rough position coordinates of the right eye is the right edge width. In this case, when the face is facing the front as in the image portion (I), the left end width and the right end width have substantially the same size. Also, for example, when the face is facing left as in image part (II), the right end width is larger than the left end width, and conversely, when the face is facing right (not shown). If so, the left end width is considered to be larger than the right end width. The face orientation extraction unit 80 detects the orientation of the face of the frame image based on the above-described relationship between the left edge width and the right edge width.

【0107】具体例4の顔部品探索装置104によれ
ば、フレーム画像の顔の向きを検出することができ、検
出された顔の向きを示す情報を、例えば、顔部品の大ま
かな位置座標と共に顔部品抽出部50へ供給することに
より、当該顔部品抽出部50は、顔の向きを考慮して詳
細な顔部品を探索することができる。また、顔部品抽出
部50で抽出される顔部品の詳細な位置と共に、顔部品
探索装置104から出力することができる。
According to the face part searching apparatus 104 of the fourth specific example, the face direction of the frame image can be detected, and the information indicating the detected face direction can be obtained, for example, together with the rough position coordinates of the face part. By supplying the face part extraction unit 50, the face part extraction unit 50 can search for a detailed face part in consideration of the orientation of the face. Further, it can be output from the face part search device 104 together with the detailed positions of the face parts extracted by the face part extraction unit 50.

【0108】従来、顔が正面から左右を向いたときの両
目の間の距離変化や、目と鼻との相対的な位置関係等に
基づいて、顔の向きを検出する手法が知られているが、
顔が左右に向いているときは、前記した左端幅および右
端幅の差異が比較的現れやすいことから、顔部品探索装
置104のように、顔領域における目の相対的な位置に
着目することにより、顔の向きを容易に検出することが
できる。
Conventionally, there has been known a method of detecting the orientation of a face based on a change in the distance between both eyes when the face is facing left and right from the front, a relative positional relationship between the eyes and the nose, and the like. But,
When the face is facing left and right, the difference between the left end width and the right end width described above is relatively likely to appear. Therefore, by paying attention to the relative position of the eyes in the face area as in the face part search device 104. , The orientation of the face can be easily detected.

【0109】前記した具体例4では、基準点設定部40
で抽出された顔部品の大まかな位置座標に基づいて、顔
の向きが検出されたが、顔部品探索装置104に前記し
たトラッキング判定部60を備えることにより、直前の
フレーム画像における顔部品の詳細な位置に基づいて、
顔の向きを検出することができる。これにより、より正
確な顔の向きを検出することができる。また、フレーム
画像における顔部品の詳細な位置に基づいて、当該フレ
ーム画像の顔向きを検出し、検出した顔向きを、後続の
フレーム画像に利用することができる。
In the specific example 4 described above, the reference point setting unit 40
The orientation of the face is detected based on the rough position coordinates of the face part extracted in step 1. However, by providing the tracking determination unit 60 in the face part search device 104, details of the face part in the immediately preceding frame image are obtained. Based on the position
The orientation of the face can be detected. As a result, a more accurate face orientation can be detected. Further, it is possible to detect the face orientation of the frame image based on the detailed positions of the face parts in the frame image, and use the detected face orientation for the subsequent frame image.

【0110】〈利用形態〉本発明に係る顔部品探索装置
は、前記した具体例に限らず、以下の利用形態を採用す
ることができる。前記した具体例3および4では、顔の
傾きあるいは顔の向きが、目の位置に基づいて検出され
たが、これに代えて、例えば口の両端(口角)の位置を
利用することができる。
<Usage Form> The facial part searching apparatus according to the present invention is not limited to the above-described specific example, and the following usage forms can be adopted. In the above-mentioned specific examples 3 and 4, the inclination of the face or the direction of the face is detected based on the position of the eyes, but instead of this, for example, the positions of both ends (mouth corners) of the mouth can be used.

【0111】顔部品の詳細な位置を抽出する前記した顔
部品抽出部50は、顔特徴点の探索範囲の設定につい
て、前記した例に限らず、例えば両目に関する大まかな
位置座標の距離を瞳間距離とし、この瞳間距離を考慮し
た任意の領域を前記探索範囲とすることができる。
The face part extraction unit 50 for extracting the detailed positions of the face parts is not limited to the above-described example for setting the search range of the face feature points, and for example, the distance of rough position coordinates for both eyes is set between the pupils. A distance can be set, and an arbitrary region in consideration of this interpupillary distance can be set as the search range.

【0112】顔部品抽出部50で取り扱うテンプレート
に含まれる情報は、前記した標準的な顔部品画像に限ら
ず、顔領域から顔特徴点の候補を抽出できるものであれ
ば、他の情報を用いることができる。例えば、複数の顔
画像の平均的な顔部品を示す画像部分、あるいは、顔部
品の形状を模したフィルタあるいは色彩等の情報が含ま
れたテンプレートを用いることができる。例えば、目の
形状を模したフィルタの場合、このフィルタに円形度の
算出機能を与えることにより、目の部分で高出力が得ら
れる。また、顔部品毎に複数のテンプレートを設定する
ことができる。
The information contained in the template handled by the face part extraction section 50 is not limited to the standard face part image described above, but other information may be used as long as it can extract facial feature point candidates from the face area. be able to. For example, an image portion showing an average face part of a plurality of face images, or a template including information such as a filter or a color simulating the shape of the face part can be used. For example, in the case of a filter simulating the shape of an eye, a high output can be obtained in the eye part by providing this filter with a circularity calculation function. Also, a plurality of templates can be set for each face part.

【0113】さらに、顔部品抽出部50は、テンプレー
トの走査において、テンプレートとフレーム画像との整
合条件を緩和すべく、例えば、目や口のエッジ位置や、
エッジの色彩等に基づいて、両者の整合性を判定するこ
とができる。顔特徴点の候補から最適な候補を選定する
際に、候補の平均の位置座標が用いられたが、これに代
えて、例えば、予め用意した統計的な各顔部品間の位置
関係を利用することができる。
Further, the face part extraction section 50, for example, in order to ease the matching condition between the template and the frame image in scanning the template, for example, the edge positions of eyes and mouth,
The consistency between the two can be determined based on the color of the edge and the like. The average position coordinates of the candidates were used when selecting the optimum candidate from the facial feature point candidates, but instead of this, for example, the statistical positional relationship prepared in advance between the face parts is used. be able to.

【0114】前記した各顔特徴点に関する確信度は、前
記した統計的な各顔部品間の位置関係に基づいて修正す
ることができ、また、顔部品毎に求めた確信度を利用す
るに限らず、顔領域における全ての顔部品の確信度から
求められる平均の確信度を利用することができる。
The certainty factor relating to each facial feature point can be corrected based on the above-mentioned statistical positional relationship between each facial component, and the certainty factor obtained for each facial component is only used. Instead, it is possible to use the average reliability calculated from the reliability of all face parts in the face area.

【0115】[0115]

【発明の効果】本発明に係る顔部品探索装置によれば、
顔領域の探索に色彩パターンが用いられることから、探
索すべき顔に対する照明環境等に変化があっても、その
変化に対処することができる。また、顔領域を探索する
過程で、前記した色彩パターンおよび色彩の濃淡といっ
た相互に異なる複数のデータが用いられることから、単
一のデータに依存した探索よりも、信頼度の高い適正な
探索を行うことができる。
According to the facial part search device of the present invention,
Since the color pattern is used for searching the face area, even if there is a change in the illumination environment for the face to be searched, it is possible to cope with the change. Further, in the process of searching the face area, since a plurality of mutually different data such as the color pattern and the shade of the color described above are used, a more reliable and appropriate search can be performed than a search that depends on a single data. It can be carried out.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る具体例1の顔部品探索装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a facial part search device according to a specific example 1 of the present invention.

【図2】顔領域抽出部の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a face area extraction unit.

【図3】顔領域抽出部を説明するための説明図である。FIG. 3 is an explanatory diagram illustrating a face area extraction unit.

【図4】肌色モデルを説明するための説明図である。FIG. 4 is an explanatory diagram for explaining a skin color model.

【図5】顔色彩パターンを説明するための説明図であ
る。
FIG. 5 is an explanatory diagram for explaining a face color pattern.

【図6】顔領域抽出部の顔色彩パターン生成部を説明す
るための説明図である。
FIG. 6 is an explanatory diagram illustrating a face color pattern generation unit of a face area extraction unit.

【図7】顔領域抽出部の顔領域検出部を説明するための
説明図である。
FIG. 7 is an explanatory diagram illustrating a face area detection unit of a face area extraction unit.

【図8】顔領域抽出部の動作を示すフローチャート(そ
の1)である。
FIG. 8 is a flowchart (part 1) showing the operation of the face area extracting unit.

【図9】顔領域抽出部の動作を示すフローチャート(そ
の2)である。
FIG. 9 is a flowchart (No. 2) showing the operation of the face area extracting unit.

【図10】顔領域抽出部の動作を示すフローチャート
(その3)である。
FIG. 10 is a flowchart (No. 3) showing the operation of the face area extracting unit.

【図11】基準点設定部の動作を示すフローチャートで
ある。
FIG. 11 is a flowchart showing an operation of a reference point setting unit.

【図12】基準点設定部の低周波数フィルタ処理を説明
するための説明図である。
FIG. 12 is an explanatory diagram for explaining a low frequency filter process of a reference point setting unit.

【図13】基準点設定部を説明するための説明図(その
1)である。
FIG. 13 is an explanatory diagram (part 1) for explaining a reference point setting unit.

【図14】基準点設定部を説明するための説明図(その
2)である。
FIG. 14 is an explanatory diagram (Part 2) for explaining the reference point setting unit.

【図15】顔部品抽出部の構成を示すブロック図(その
1)である。
FIG. 15 is a block diagram (No. 1) showing a configuration of a face part extraction unit.

【図16】顔部品抽出部の構成を示すブロック図(その
2)である。
FIG. 16 is a block diagram (No. 2) showing the configuration of a face part extraction unit.

【図17】顔部品抽出部の構成を示すブロック図(その
3)である。
FIG. 17 is a block diagram (No. 3) showing the configuration of a face part extraction unit.

【図18】本発明に係る具体例2の顔部品探索装置の構
成を示すブロック図である。
FIG. 18 is a block diagram showing a configuration of a facial part search device according to a second specific example of the present invention.

【図19】具体例2の顔部品探索装置の動作を示すフロ
ーチャートである。
FIG. 19 is a flowchart showing the operation of the facial part searching device in the second specific example.

【図20】本発明に係る具体例3の顔部品探索装置の構
成を示すブロック図である。
FIG. 20 is a block diagram showing a configuration of a facial part search device according to a specific example 3 of the present invention.

【図21】具体例3の顔部品探索装置の動作を示すフロ
ーチャートである。
FIG. 21 is a flowchart showing the operation of the facial part searching device of the third specific example.

【図22】本発明に係る具体例4の顔部品探索装置の構
成を示すブロック図である。
FIG. 22 is a block diagram showing the configuration of a facial part search device in a specific example 4 according to the present invention.

【図23】顔向き抽出部の動作を説明するための説明図
である。
FIG. 23 is an explanatory diagram for explaining the operation of the face orientation extraction unit.

【符号の説明】[Explanation of symbols]

101、102、103、104 顔部品探索装置 10 画像取得部 20 顔領域抽出部 21 顔色彩パターン生成部 22 顔色彩パターン記憶部 23 顔領域検出部 24 顔領域検出制御部 40 基準点設定部 50 顔部品抽出部 51 探索領域設定部 52 候補抽出部 52a テンプレート格納部 53 候補選定部 60 トラッキング判定部 70 回転処理部 80 顔向き抽出部 101, 102, 103, 104 Face Part Searching Device 10 Image acquisition section 20 Face Area Extraction Unit 21 Face color pattern generator 22 Face color pattern storage 23 Face Area Detection Unit 24 Face Area Detection Control Unit 40 Reference point setting section 50 face parts extraction unit 51 Search Area Setting Section 52 Candidate extraction unit 52a template storage section 53 Candidate Selection Department 60 Tracking judgment section 70 Rotation processing unit 80 Face orientation extraction section

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B (72)発明者 政井 宏之 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 (72)発明者 渡辺 孝弘 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB12 CB16 CE05 CE06 DA08 DB02 DB06 DB09 DC16 DC23 DC25 5L096 AA02 AA06 BA18 CA04 EA14 FA06 FA37 FA69 GA38 GA40 GA55 HA02 JA18 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/60 150 G06T 7/60 150B (72) Inventor Hiroyuki Masai 1-7 Toranomon, Minato-ku, Tokyo No. 12 Oki Electric Industry Co., Ltd. (72) Inventor Takahiro Watanabe 1-7-12 Toranomon, Minato-ku, Tokyo F-term inside Oki Electric Industry Co., Ltd. (reference) 5B057 CA01 CA08 CA12 CA16 CB12 CB16 CE05 CE06 DA08 DB02 DB06 DB09 DC16 DC23 DC25 5L096 AA02 AA06 BA18 CA04 EA14 FA06 FA37 FA69 GA38 GA40 GA55 HA02 JA18

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 顔の部品を表す顔部品画像が含まれる色
彩画像から前記顔部品画像を探索する装置であって、 色彩画像を取得する画像取得部と、 取得した前記色彩画像から、顔の色彩に関するパターン
である顔色彩パターンに対応する画像領域を顔領域とし
て検出し、当該顔領域の画像部分を抽出する顔領域抽出
部と、 抽出された前記顔領域の前記画像部分から、該画像部分
の濃淡を検出し、該濃淡に基づいて、前記顔部品画像を
探索する基準位置を示す基準点を設定する基準点設定部
と、 設定された前記基準点に基づいて前記顔部品画像を検出
すると共に、当該顔部品画像の位置を求める顔部品検出
部とを備えることを特徴とする顔部品探索装置。
1. An apparatus for searching the face part image from a color image including a face part image representing a face part, the image acquiring section acquiring the color image, and acquiring the face image from the acquired color image. A face area extraction unit that detects an image area corresponding to a face color pattern that is a color-related pattern as a face area and extracts an image portion of the face area; and the image portion from the image portion of the extracted face area. And a reference point setting unit that sets a reference point indicating a reference position for searching the face part image based on the gray level, and detects the face part image based on the set reference point. In addition, a face part search device comprising: a face part detection unit that obtains the position of the face part image.
【請求項2】 前記顔領域抽出部は、前記画像取得部で
取得した前記色彩画像に基づいて前記顔色彩パターンを
生成する顔色彩パターン生成部と、生成された前記顔色
彩パターンを保持する記憶部と、該記憶部の前記顔色彩
パターンに基づいて前記顔領域の前記抽出を行う抽出部
とを有する請求項1記載の顔部品探索装置。
2. The face area extraction unit, a face color pattern generation unit that generates the face color pattern based on the color image acquired by the image acquisition unit, and a storage that holds the generated face color pattern. The facial part searching device according to claim 1, further comprising: a section and an extracting section that performs the extraction of the face area based on the facial color pattern of the storage section.
【請求項3】 前記顔色彩パターン生成部は、所定の色
空間における前記色彩画像の色彩パターンを生成し、該
生成された色彩パターンの中の、予め設定された色彩パ
ターンのモデルに対応する部分を前記顔色彩パターンと
して生成する請求項2記載の顔部品探索装置。
3. The face color pattern generation unit generates a color pattern of the color image in a predetermined color space, and a portion of the generated color pattern corresponding to a model of a preset color pattern. 3. The facial part searching device according to claim 2, wherein is generated as the facial color pattern.
【請求項4】 前記画像取得部は、一連の色彩画像を順
次取得し、 前記顔色彩パターン生成部は、前記一連の色彩画像のう
ちの所定の色彩画像に基づいて、前記顔色彩パターンを
生成する請求項2記載の顔部品探索装置。
4. The image acquisition unit sequentially acquires a series of color images, and the face color pattern generation unit generates the face color pattern based on a predetermined color image of the series of color images. The face part search device according to claim 2.
【請求項5】 前記抽出部は、予め設定された判定基準
に基づいて、前記顔領域の前記抽出の成否を判定し、 前記顔色彩パターン生成部は、前記抽出が成功しなかっ
たとの前記判定時に、当該色彩画像に引き続く他の色彩
画像のための新たな前記顔色彩パターンを設定する請求
項4記載の顔部品探索装置。
5. The extraction unit determines success or failure of the extraction of the face area based on a preset determination criterion, and the face color pattern generation unit determines that the extraction has not succeeded. The facial part searching device according to claim 4, wherein a new facial color pattern is set for another color image subsequent to the color image.
【請求項6】 前記基準点設定部は、前記顔領域の前記
濃淡で相互に直交する2方向における各ピーク値を検出
し、当該2方向の各ピーク値に対応する前記濃淡の部分
を、前記基準点として設定する請求項1記載の顔部品探
索装置。
6. The reference point setting unit detects peak values in two directions of the shade of the face area in two directions orthogonal to each other, and defines the shade portion corresponding to each peak value in the two directions as described above. The face part search device according to claim 1, wherein the face part search device is set as a reference point.
【請求項7】 前記基準点設定部は、顔の部品に関する
濃淡について予め顔の部品の位置に基づいて設定された
周波数帯に対応した低周波数フィルタを用いて、前記顔
領域から前記濃淡を検出する請求項6記載の顔部品探索
装置。
7. The reference point setting unit detects the shading from the face area by using a low frequency filter corresponding to a frequency band preset based on the position of the facial part for the shading of the facial part. The facial part search device according to claim 6.
【請求項8】 前記顔部品検出部は、顔の部品について
予め設定された画像に関する情報となる顔部品情報と、
該顔部品情報に対応した顔の部品における所定の位置を
示す特徴点情報とを含む顔部品データが与えられ、 前記基準点設定部で設定された前記基準点に基づいて、
前記顔部品データの走査範囲を設定する走査範囲設定部
と、 設定された前記走査範囲内で前記顔部品データを走査
し、該データの前記顔部品情報と前記基準点に対応した
画像部分との整合性に関する所定の基準を満たすときの
前記特徴点情報が示す前記位置を検出する走査部と、 検出された前記各位置の中から所定の位置に近似する位
置を選定し、選定した前記位置を、前記顔領域における
前記顔部品画像の位置と定める位置判定部とを有する請
求項1記載の顔部品探索装置。
8. The face part detection unit is face part information that is information related to a preset image of a face part,
Face part data including feature point information indicating a predetermined position in a face part corresponding to the face part information is given, and based on the reference point set by the reference point setting unit,
A scan range setting unit that sets a scan range of the face part data; and a scan part that scans the face part data within the set scan range, and the face part information of the data and an image portion corresponding to the reference point. A scanning unit that detects the position indicated by the characteristic point information when satisfying a predetermined criterion regarding consistency, and a position that is close to a predetermined position is selected from among the detected positions, and the selected position is set. The face part search device according to claim 1, further comprising a position determination unit that determines a position of the face part image in the face area.
【請求項9】 前記顔部品検出部は、さらに、前記色彩
画像における所定の顔部品画像について前記位置判定部
で定められた前記位置に基づいて、当該所定の顔部品画
像を除く他の顔部品画像のための前記走査の範囲を設定
し、設定した当該走査の範囲を前記走査部に供給する関
連走査範囲設定部を有する請求項8記載の顔部品探索装
置。
9. The face part detection unit further includes other face parts other than the predetermined face part image based on the position determined by the position determination unit for the predetermined face part image in the color image. 9. The facial part searching device according to claim 8, further comprising a related scan range setting unit that sets the scan range for an image and supplies the set scan range to the scanning unit.
【請求項10】 前記画像取得部は、一連の色彩画像を
順次取得し、 前記顔部品検出部は、前記色彩画像における顔部品画像
の位置を、当該色彩画像について前記基準点設定部で設
定された前記基準点、または、当該色彩画像の直前の色
彩画像について前記顔部品検出部で検出された顔部品画
像の位置に基づいて検出し、 さらに、前記顔部品検出部が前記検出を当該色彩画像の
前記基準点に基づいて行うべきか否かを判定するトラッ
キング判定部を備える請求項1記載の顔部品探索装置。
10. The image acquisition unit sequentially acquires a series of color images, and the face component detection unit sets the position of the face component image in the color image by the reference point setting unit for the color image. The reference point or the color image immediately before the color image is detected based on the position of the face component image detected by the face component detecting unit, and further, the face component detecting unit detects the detection by the color image. The facial part search device according to claim 1, further comprising a tracking determination unit that determines whether or not to perform the determination based on the reference point.
【請求項11】 前記顔部品画像が含まれる前記色彩画
像には、両目に対応する一対の顔部品画像を含む複数の
顔部品画像が含まれ、 さらに、前記基準点設定部で設定された、前記両目の前
記一対の顔部品画像に対応する2つの前記基準点に基づ
いて、水平方向に対する前記顔領域の傾き角度を求め、
該傾き角度の分、当該顔領域の傾きを前記水平方向に補
正すべく当該顔領域を回転させ、回転させた前記顔領域
における前記各顔部品画像の前記基準点を前記顔部品検
出部に供給する回転処理部を備える請求項1記載の顔部
品探索装置。
11. The color image including the face part image includes a plurality of face part images including a pair of face part images corresponding to both eyes, and further set by the reference point setting unit, Based on the two reference points corresponding to the pair of face part images of both eyes, the inclination angle of the face area with respect to the horizontal direction is obtained,
The face area is rotated to correct the inclination of the face area in the horizontal direction by the inclination angle, and the reference point of each face part image in the rotated face area is supplied to the face part detection unit. The facial part search device according to claim 1, further comprising:
【請求項12】 前記画像取得部は、一連の色彩画像を
順次取得し、 前記顔部品画像が含まれる前記色彩画像には、両目に対
応する一対の顔部品画像を含む複数の顔部品画像が含ま
れ、 さらに、前記基準点設定部で設定された、前記両目の前
記一対の顔部品画像に対応する2つの前記基準点、また
は、当該色彩画像の直前の色彩画像について前記顔部品
検出部で検出された両目の顔部品画像の位置に基づい
て、水平方向に対する当該色彩画像の前記顔領域の傾き
角度を求め、該傾き角度の分、当該顔領域の傾きを前記
水平方向に補正すべく当該顔領域を回転させ、回転させ
た前記顔領域における前記各顔部品画像の前記基準点を
前記顔部品検出部に供給する回転処理部と、 前記回転処理部が前記傾き角度を当該色彩画像の前記基
準点に基づいて求めるべきか否かを判定するトラッキン
グ判定部とを備える請求項1記載の顔部品探索装置。
12. The image acquisition unit sequentially acquires a series of color images, and the color image including the face part image includes a plurality of face part images including a pair of face part images corresponding to both eyes. Further, the face part detection section sets the two reference points corresponding to the pair of face part images of the eyes set by the reference point setting section or the color image immediately before the color image in the face part detection section. Based on the positions of the detected face part images of both eyes, the tilt angle of the face area of the color image with respect to the horizontal direction is obtained, and the tilt angle of the face area is corrected in the horizontal direction by the tilt angle. A rotation processing unit that rotates a face area and supplies the reference point of each face component image in the rotated face area to the face component detection unit, and the rotation processing unit sets the tilt angle to the tilt angle of the color image. Based on reference point The facial part search device according to claim 1, further comprising a tracking determination unit that determines whether or not to obtain it.
【請求項13】 前記顔部品画像が含まれる前記色彩画
像には、両目に対応する一対の顔部品画像を含む複数の
顔部品画像が含まれ、 さらに、前記両目の前記一対の顔部品画像のそれぞれ
と、前記顔領域の顔幅を規定する各端部であって前記一
対の顔部品画像のそれぞれの最も近傍にある各端部との
間の2つの距離を求め、該2つの距離の差分に基づい
て、当該色彩画像の顔の向きを検出する顔向き検出部を
備える請求項1記載の顔部品探索装置。
13. The color image including the face part image includes a plurality of face part images including a pair of face part images corresponding to both eyes, and further includes: The two distances between each of them and each of the end portions that define the face width of the face area and that are the closest to each of the pair of face part images are obtained, and the difference between the two distances is obtained. The face part search device according to claim 1, further comprising a face direction detection unit that detects the direction of the face of the color image based on.
【請求項14】 顔の部品を表す顔部品画像が含まれる
色彩画像から前記顔部品画像を探索する方法であって、 色彩画像を取得する画像取得ステップと、 取得した前記色彩画像から、顔の色彩に関するパターン
である顔色彩パターンに対応する画像領域を顔領域とし
て検出し、当該顔領域の画像部分を抽出する顔領域抽出
ステップと、 抽出された前記顔領域の前記画像部分から、該画像部分
の濃淡を検出し、該濃淡に基づいて、前記顔部品画像を
探索する基準位置を示す基準点を設定する基準点設定ス
テップと、 設定された前記基準点に基づいて前記顔部品画像を検出
すると共に、当該顔部品画像の位置を求める顔部品検出
ステップとを備えることを特徴とする顔部品探索方法。
14. A method of searching for a face part image from a color image including a face part image representing a face part, the image acquiring step of acquiring a color image, the step of acquiring a face image from the acquired color image. A face area extraction step of detecting an image area corresponding to a face color pattern that is a color-related pattern as a face area, and extracting an image portion of the face area; and extracting the image portion from the image portion of the extracted face area. A reference point setting step of setting a reference point indicating a reference position for searching the face part image based on the gray level; and detecting the face part image based on the set reference point. And a face part detecting step of obtaining the position of the face part image.
JP2002082862A 2002-03-25 2002-03-25 Facial component searching device and facial component searching method Pending JP2003281539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002082862A JP2003281539A (en) 2002-03-25 2002-03-25 Facial component searching device and facial component searching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002082862A JP2003281539A (en) 2002-03-25 2002-03-25 Facial component searching device and facial component searching method

Publications (1)

Publication Number Publication Date
JP2003281539A true JP2003281539A (en) 2003-10-03

Family

ID=29230887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002082862A Pending JP2003281539A (en) 2002-03-25 2002-03-25 Facial component searching device and facial component searching method

Country Status (1)

Country Link
JP (1) JP2003281539A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071614A1 (en) * 2004-01-27 2005-08-04 Seiko Epson Corporation Human face detection position shift correction method, correction system, and correction program
WO2006087789A1 (en) * 2005-02-17 2006-08-24 Fujitsu Limited Image processing method, image processing system, image processing device, and computer program
JP2006228061A (en) * 2005-02-18 2006-08-31 Fujitsu Ltd Face tracing program and face tracing method
JP2006277022A (en) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International Method for estimating parameter relating to arbitrary deformation to mouth image
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP2007065766A (en) * 2005-08-29 2007-03-15 Sony Corp Image processor and method, and program
JP2007200289A (en) * 2005-12-28 2007-08-09 Kao Corp Method for detection of location of eye
WO2007108225A1 (en) 2006-03-23 2007-09-27 Oki Electric Industry Co., Ltd. Face recognition system
JP2008146329A (en) * 2006-12-08 2008-06-26 Toshiba Corp Face feature point detection device and method
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
US8131013B2 (en) 2005-12-28 2012-03-06 Kao Corporation Method and detecting system for positions of facial parts
KR20140002540A (en) * 2012-06-29 2014-01-08 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Detection apparatus, apparatus for medical use, and program
CN113469041A (en) * 2021-06-30 2021-10-01 北京市商汤科技开发有限公司 Image processing method and device, computer equipment and storage medium

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813533B2 (en) 2003-10-06 2010-10-12 Fuji Xerox Co., Ltd. Operation-discerning apparatus and apparatus for discerning posture of subject
WO2005071614A1 (en) * 2004-01-27 2005-08-04 Seiko Epson Corporation Human face detection position shift correction method, correction system, and correction program
US7415140B2 (en) 2004-01-27 2008-08-19 Seiko Epson Corporation Method of correcting deviation of detection position for human face, correction system, and correction program
JPWO2006087789A1 (en) * 2005-02-17 2008-07-03 富士通株式会社 Image processing method, image processing system, image processing apparatus, and computer program
US8045765B2 (en) 2005-02-17 2011-10-25 Fujitsu Limited Image processing method, image processing system, image processing device, and computer program product
WO2006087789A1 (en) * 2005-02-17 2006-08-24 Fujitsu Limited Image processing method, image processing system, image processing device, and computer program
JP4592744B2 (en) * 2005-02-17 2010-12-08 富士通株式会社 Image processing method, image processing system, image processing apparatus, and computer program
JP2006228061A (en) * 2005-02-18 2006-08-31 Fujitsu Ltd Face tracing program and face tracing method
JP4645223B2 (en) * 2005-02-18 2011-03-09 富士通株式会社 Face tracking program and face tracking method
JP2006277022A (en) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International Method for estimating parameter relating to arbitrary deformation to mouth image
JP4725884B2 (en) * 2005-03-28 2011-07-13 株式会社国際電気通信基礎技術研究所 Method for estimating parameters related to arbitrary deformation of mouth image
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP2007065766A (en) * 2005-08-29 2007-03-15 Sony Corp Image processor and method, and program
US8249310B2 (en) 2005-08-29 2012-08-21 Sony Corporation Image processing apparatus and method and program
JP4595750B2 (en) * 2005-08-29 2010-12-08 ソニー株式会社 Image processing apparatus and method, and program
JP2007200289A (en) * 2005-12-28 2007-08-09 Kao Corp Method for detection of location of eye
US8131013B2 (en) 2005-12-28 2012-03-06 Kao Corporation Method and detecting system for positions of facial parts
WO2007108225A1 (en) 2006-03-23 2007-09-27 Oki Electric Industry Co., Ltd. Face recognition system
US8340366B2 (en) 2006-03-23 2012-12-25 Oki Electric Industry Co., Ltd. Face recognition system
JP4745207B2 (en) * 2006-12-08 2011-08-10 株式会社東芝 Facial feature point detection apparatus and method
JP2008146329A (en) * 2006-12-08 2008-06-26 Toshiba Corp Face feature point detection device and method
US8090151B2 (en) 2006-12-08 2012-01-03 Kabushiki Kaisha Toshiba Face feature point detection apparatus and method of the same
KR20140002540A (en) * 2012-06-29 2014-01-08 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Detection apparatus, apparatus for medical use, and program
JP2014008245A (en) * 2012-06-29 2014-01-20 Ge Medical Systems Global Technology Co Llc Detection device, medical apparatus, and program
KR101593272B1 (en) 2012-06-29 2016-02-11 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 Detection apparatus, apparatus for medical use, and program
US9733320B2 (en) 2012-06-29 2017-08-15 General Electric Company Detecting apparatus, medical apparatus and method for detecting a position of a predetermined part of a subject
CN113469041A (en) * 2021-06-30 2021-10-01 北京市商汤科技开发有限公司 Image processing method and device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
US7035461B2 (en) Method for detecting objects in digital images
EP1296279B1 (en) Method and computer program product for locating facial features
JP4505362B2 (en) Red-eye detection apparatus and method, and program
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
EP2315158B1 (en) Information processing apparatus, information processing method, and program
JP4755202B2 (en) Face feature detection method
KR0158038B1 (en) Apparatus for identifying person
EP1953675B1 (en) Image processing for face and face expression recognition
US8358838B2 (en) Red eye detecting apparatus, red eye detecting method and red eye detecting program stored on a computer readable medium
US6895103B2 (en) Method for automatically locating eyes in an image
JP5538909B2 (en) Detection apparatus and method
US8325998B2 (en) Multidirectional face detection method
JP2000082147A (en) Method for detecting human face and device therefor and observer tracking display
JP2000105829A (en) Method and device for face parts image detection
JP2003281539A (en) Facial component searching device and facial component searching method
JP2009015614A (en) Image processing apparatus, image processing method, and computer program
JP2010262601A (en) Pattern recognition system and pattern recognition method
JP2007025902A (en) Image processor and image processing method
JP2008003749A (en) Feature point detection device, method, and program
JP2007115109A (en) Image processor and processing method, program and storage medium
JPH1185988A (en) Face image recognition system
JP2003044853A (en) Face detection device, face pose detection device, partial image extraction device and methods for the devices
KR20110019969A (en) Apparatus for detecting face
JP2007026308A (en) Image processing method and image processor
RU2295152C1 (en) Method for recognizing face of an individual on basis of video image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060228