JP2006072770A - Face detection device and face direction estimation device - Google Patents
Face detection device and face direction estimation device Download PDFInfo
- Publication number
- JP2006072770A JP2006072770A JP2004256263A JP2004256263A JP2006072770A JP 2006072770 A JP2006072770 A JP 2006072770A JP 2004256263 A JP2004256263 A JP 2004256263A JP 2004256263 A JP2004256263 A JP 2004256263A JP 2006072770 A JP2006072770 A JP 2006072770A
- Authority
- JP
- Japan
- Prior art keywords
- face
- area
- image
- similarity
- divided
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像中から顔領域とその顔向きを検出する顔検出装置および顔向き推定装置に関するものである。 The present invention relates to a face detection device and a face direction estimation device that detect a face region and its face direction from an image.
人の顔の検出技術は、ビルの監視システムなどで用いられつつある。また、最近では、デジタルカメラにおける人物(顔)へのオートフォーカス機能や、自動露光補正機能、さらには顔認識による個人認証などでも使用されつつある。この他、デジタルビデオにおける画像検索やインデクシング、あるいは、画像アルバム整理などにおいて、動画や静止画から人物を抽出するための技術としても使用されつつある。 Human face detection technology is being used in building monitoring systems and the like. Recently, digital cameras are also being used for autofocus functions for humans (faces), automatic exposure correction functions, and personal authentication using face recognition. In addition, it is also being used as a technique for extracting a person from a moving image or a still image in image search and indexing in digital video or image album organization.
従来の顔検出技術では、一定の顔の向きに対するパラメータ、すなわち、正面顔用のパラメータや横向き顔用のパラメータなどを用いて顔検出を行うのが一般的であった(以下では、従来技術1と呼ぶ)。しかし、正面顔用のパラメータを使って顔検出を行う場合には、正面顔以外の顔の向きに対する検出率が低くなってしまうとの問題が生じる。つまり、パラメータと同じ顔の向きに対しては検出精度が高いが、他の顔の向きとなると、検出率がかなり落ちてしまうとの問題が生じる。 In the conventional face detection technique, face detection is generally performed using parameters for a certain face orientation, that is, parameters for a front face, parameters for a side face, and the like (hereinafter, Conventional Technique 1). Called). However, when face detection is performed using parameters for the front face, there is a problem that the detection rate for the face orientation other than the front face is low. That is, although the detection accuracy is high for the same face orientation as the parameter, there is a problem that the detection rate is considerably lowered when the orientation is another face.
そこで、最近では、顔向きに拘わらず検出精度を向上できる技術が開発されている。たとえば、このような技術として、
(1)多様な顔の向きの画像データベースから一つのパラメータを生成し、これをもとに顔検出を行う技術(以下では、従来技術2と呼ぶ)、
(2)複数の顔向きについてパラメータを準備(例えば、右用、正面用、左用など複数準備)し、これをもとに顔検出を行う技術(以下では、従来技術3と呼ぶ)、
の2つが知られている。
Therefore, recently, a technique has been developed that can improve detection accuracy regardless of the face orientation. For example,
(1) A technique for generating one parameter from an image database of various face orientations and performing face detection based on the parameter (hereinafter referred to as Conventional Technique 2),
(2) A technique for preparing parameters for a plurality of face orientations (for example, a plurality of preparations for right, front, left, etc.) and performing face detection based on the parameters (hereinafter referred to as prior art 3),
Two are known.
このうち、従来技術3に関しては、例えば、ピクセル差分特徴を用いて、顔の向き毎に作成した複数の検出器をツリー構造に組み合わせて識別器を構成し、顔向き変化に対応した顔検出を行う技術(非特許文献1、参照)や、Haarウェーブレット特徴を用いて、顔の向き毎に作成した複数の検出器をピラミッド型に組み合わせて識別器を構成することで、顔向き変化に対応した顔検出を行う技術(非特許文献2、参照)が知られている。
上記の従来技術2は、多様な顔向きの画像から特徴量を抽出し、これらを、例えば平均化するなどして、全ての顔の向きに汎用的に使用できる一つのパラメータを生成するものである。この技術によれば、一つのパラメータで対応可能なため、検出時間や使用メモリ量が従来技術1の場合と同程度で済むとのメリットがある。しかし、一般に、このように多様な顔向きの画像の特徴を一つに加味したパラメータを用いると、例えば正面近くの顔向き以外に関しては、検出精度が従来技術1と比べて向上するが、正面近くの顔向きにおいては、従来技術1と比べて検出精度が落ちてしまう、との欠点を有している。
The above-described
これに対し、従来技術3では、顔の向き毎に生成したパラメータを用いるため、どの顔の向きでも検出精度を高めることができる。しかし、この場合には、複数のパラメータを用いることから、従来技術1や2と比べて検出時間や使用メモリ量がかなり大きくなってしまうとの欠点を有する。
On the other hand, in the
そこで、本発明は、検出時間や使用メモリ量を低く抑えながら、どの顔の向きに対しても検出精度を高めることができる顔検出装置を提供することを課題とする。また、検出した顔がどの向きを向いているかを精度よく検出できる顔向き推定装置を提供することを課題とする。 Therefore, an object of the present invention is to provide a face detection apparatus that can improve detection accuracy for any face orientation while keeping the detection time and the amount of memory used low. It is another object of the present invention to provide a face direction estimation device that can accurately detect which direction the detected face is facing.
本発明は、一つの顔を検出する際に、従来技術1と異なり正面顔に関するパラメータを使用するのではなく、たとえば正面顔を左半分と右半分に分け、各々の顔情報に関するパラメータを使用して検出を行うものであり、正面の顔の検出率は従来技術1程度に維持し、かつ正面以外の顔の向きでも顔の検出率が従来技術3に匹敵する程度に向上する顔検出技術および顔向き推定技術に関する装置に関するものである。なお、パラメータの情報量が従来技術1と同程度となり、その結果、検索時間、使用メモリ量は従来技術1と同程度となる特徴も有する。
In the present invention, when detecting one face, unlike the
請求項1の発明に係る顔検出装置は、画像中に含まれる顔領域を当該画像の画像データをもとに検出する顔検出装置において、前記画像上に、フレーム領域を設定する領域設定手段と、前記フレーム領域を領域分割して得られる特定の分割領域に対応して個別に割り当てられたパラメータを格納する格納手段と、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データをもとに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する判別手段とを有する、ことを特徴とする。
A face detection device according to
請求項2の発明は前記請求項1に係る顔検出装置において、前記分割領域は、前記フレーム領域を左右に領域分割したときの領域であって、前記パラメータは、左右の分割領域に対応してそれぞれ準備されている、ことを特徴とする。 According to a second aspect of the present invention, in the face detection device according to the first aspect, the divided region is a region obtained by dividing the frame region into left and right regions, and the parameter corresponds to the left and right divided regions. Each of them is prepared.
請求項3の発明は前記請求項2に係る顔検出装置において、前記判別手段は、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データとを比較演算して当該パラメータにて規定される画像と当該分割領域の画像の類似度を求め、求めた類似度をもとに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する、ことを特徴とする。 According to a third aspect of the present invention, in the face detection apparatus according to the second aspect, the discrimination means compares the respective parameters with image data of a divided area to which the parameters are assigned, and is defined by the parameters. The similarity between the image to be processed and the image of the divided area is obtained, and based on the obtained similarity, it is determined whether the image area in which the frame area is set is a face area.
請求項4の発明は前記請求項3に係る顔検出装置において、前記判別手段は、前記左右の分割領域に対する類似度を閾値と比較し、少なくとも何れか一方の類似度が前記閾値以上であるときに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する、ことを特徴とする。 According to a fourth aspect of the present invention, in the face detection device according to the third aspect, the determination unit compares the similarity with respect to the left and right divided regions with a threshold, and at least one of the similarities is equal to or greater than the threshold. In addition, it is characterized in that it is determined whether the image area in which the frame area is set is a face area.
請求項5の発明は前記請求項1ないし4のいずれか一項に係る顔検出装置において、前記それぞれのパラメータは、正面顔の画像データベースから各分割領域の特徴量を抽出することにより生成されており、前記一つのフレーム領域に対して一つのみ準備されている、ことを特徴とする。 According to a fifth aspect of the present invention, in the face detection device according to any one of the first to fourth aspects, the respective parameters are generated by extracting feature amounts of each divided region from a front face image database. And only one is prepared for the one frame region.
請求項6の発明に係る顔向き推定装置は、フレーム領域に含まれる顔の向きを当該フレーム領域内の画像データをもとに検出する顔向き推定装置であって、前記フレーム領域を領域分割して得られる特定の分割領域に対応して個別に割り当てられたパラメータを格納する格納手段と、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データをもとに、当該フレーム領域に含まれる顔の向きを判別する判別手段とを有する、ことを特徴とする。 A face direction estimation apparatus according to a sixth aspect of the present invention is a face direction estimation apparatus that detects a face direction included in a frame area based on image data in the frame area, and divides the frame area into regions. Storage means for storing parameters individually assigned corresponding to the specific divided areas obtained in the above, the respective parameters, and the image data of the divided areas to which the parameters are assigned. And determining means for determining the orientation of the included face.
請求項7の発明は前記請求項6に係る顔向き推定装置において、前記分割領域は、前記フレーム領域を左右に領域分割したときの領域であって、前記パラメータは、左右の分割領域に対応してそれぞれ準備されている、ことを特徴とする。 According to a seventh aspect of the present invention, in the face direction estimation device according to the sixth aspect, the divided region is a region obtained by dividing the frame region into left and right regions, and the parameter corresponds to the left and right divided regions. Each of them is prepared.
請求項8の発明は前記請求項7に係る顔向き推定装置において、前記判別手段は、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データとを比較演算して当該パラメータにて規定される画像と当該分割領域の画像の類似度を求め、求めた類似度をもとに、当該フレーム領域に含まれる顔の左右方向の向きを判別する、ことを特徴とする。 According to an eighth aspect of the present invention, in the face direction estimating apparatus according to the seventh aspect, the discrimination means compares the respective parameters with image data of a divided region to which the parameters are assigned, and uses the parameters. It is characterized in that the degree of similarity between the prescribed image and the image of the divided area is obtained, and the direction of the face included in the frame area is discriminated based on the obtained degree of similarity.
請求項9の発明は前記請求項8に係る顔向き推定装置において、前記判別手段は、前記左右の分割領域に対する類似度の大小関係をもとに、当該フレーム領域に含まれる顔の左右方向の向きを判別する、ことを特徴とする。 According to a ninth aspect of the present invention, in the face orientation estimating apparatus according to the eighth aspect, the determining means is configured to detect the left-right direction of the face included in the frame region based on the magnitude relationship of the similarity to the left and right divided regions. It is characterized by discriminating the direction.
請求項10の発明は前記請求項9に係る顔向き推定装置において、前記判別手段は、前記左右の分割領域に対する類似度と閾値とを比較して、当該フレーム領域に含まれる顔の左右方向の向きの大きさを判別する、ことを特徴とする。 According to a tenth aspect of the present invention, in the face direction estimating apparatus according to the ninth aspect, the discrimination means compares the similarity to the left and right divided areas with a threshold value, and compares the left and right direction of the face included in the frame area. It is characterized by discriminating the size of the direction.
請求項1ないし5の発明によれば、パラメータが割り当てられた分割領域の画像が、当該パラメータによって規定される画像にどの程度マッチングするかによって、フレームが設定された画像領域が顔を含むか否かを判別するようにしたことにより、当該フレームが設定された画像領域内の顔がパラメータによる顔向きとは異なる向きを向いていても、当該画像領域が顔領域であると判別する率を高めることができる。 According to the first to fifth aspects of the present invention, whether or not the image area in which the frame is set includes a face, depending on how much the image of the divided area to which the parameter is assigned matches the image specified by the parameter. This makes it possible to increase the rate at which the image area is determined to be a face area even if the face in the image area where the frame is set faces in a direction different from the face direction by the parameter. be able to.
この場合、パラメータは、正面顔用のパラメータとすることができ、よって、本発明によれば、正面顔の検出精度を高く維持しながら、正面顔以外の顔向きに対しても、顔検出精度を高めることができる。 In this case, the parameter can be a parameter for the front face. Therefore, according to the present invention, the face detection accuracy can be applied to face orientations other than the front face while maintaining high detection accuracy of the front face. Can be increased.
また、分割領域毎にパラメータを保持するものであるから、全フレーム領域について足し合わせたときのパラメータの総容量は、全フレーム領域に対して一つのパラメータを保持する場合(上記従来技術1)と同程度とすることができ、上記従来技術3のように、パラメータの容量が飛躍的に大きくなることもない。また、分割領域毎のマッチング算出を同時平行で行えば、処理時間が長期化することもない。
Further, since the parameter is held for each divided area, the total capacity of the parameters when all the frame areas are added is the same as the case where one parameter is held for all the frame areas (the above prior art 1). The parameter capacity can be made substantially the same as in the
このように、本発明によれば、検出時間や使用メモリ量を低く抑えながら、どの顔の向きに対しても検出精度を高めることができる顔検出装置を提供することができる。 As described above, according to the present invention, it is possible to provide a face detection device capable of increasing the detection accuracy for any face orientation while keeping the detection time and the amount of used memory low.
より具体的には、請求項2ないし4のように構成すると、顔の左半分に関するパラメータ、顔の右半分に関するパラメータの2つのパラメータを使用することで、正面の顔の検出率は従来技術1程度に維持し、かつ正面以外の顔の向きでも顔の検出率を従来技術3に匹敵する程度に向上させることができる。すなわち、顔の左半分に関するパラメータ、顔の右半分に関するパラメータを用いるので、正面顔の検出率は従来技術1と比べて劣らない上、例えば、左向きの顔の場合には顔の右半分に関するパラメータによる検出率が高く、右向きの顔の場合には顔の左半分に関するパラメータによる検出率が高くなるので、正面以外の顔の向きでも顔の検出率を従来技術3に匹敵する程度に向上させることができる。
More specifically, according to the second to fourth aspects, by using two parameters, a parameter relating to the left half of the face and a parameter relating to the right half of the face, the detection rate of the front face can be increased according to the
なお、顔の左半分に関するパラメータ、顔の右半分に関するパラメータの2つで1つの顔に関するパラメータとなるので、パラメータの情報量が1つの顔に関する量とほぼ同じ、すなわち従来技術1と同程度となる。よって、使用メモリ量は従来技術1と同程度となり、また、左顔と右顔の検出処理を平行して行えば、処理速度も長期化することはない。
It should be noted that two parameters, the parameter relating to the left half of the face and the parameter relating to the right half of the face, are parameters relating to one face. Become. Therefore, the amount of memory used is about the same as that in the
また、請求項6ないし10によれば、パラメータが割り当てられた分割領域の画像が、当該パラメータによって規定される画像にどの程度マッチングするかによって、フレーム内に含まれる顔がどの方向を向いているかを判別するものであるから、簡単な処理により、顔向き方向を検出することができる。
Further, according to
特に、本発明は、上記請求項1ないし5の発明と同様、分割領域毎にパラメータを割り当て、分割領域毎のマッチング度合いをもとに判別を行うものであるから、上記請求項1ないし5の発明における処理結果をそのまま用いることができ、よって、請求項1ないし5の発明による顔検出結果に続いた顔向き推定処理を、処理ルーチンの複雑化を招くことなく行うことができる。すなわち、本発明は、上記請求項1ないし5の発明とともに用いることにより、飛躍的な処理ルーチンの簡素化を図ることができる。
In particular, since the present invention assigns parameters to each divided area and performs the discrimination based on the matching degree for each divided area, as in the first to fifth aspects of the present invention. The processing result in the invention can be used as it is, and therefore the face direction estimation processing following the face detection result according to the inventions of
より具体的には、請求項7ないし9のように構成すると、顔の左半分に関するパラメータによる検出結果(類似度)と、顔の右半分に関するパラメータによる検出結果(類似度)の双方の数値の組み合わせから、左右方向の顔の向きないしその大きさを円滑に検出することができる。 More specifically, when configured as in claims 7 to 9, the numerical values of both the detection result (similarity) based on the parameters related to the left half of the face and the detection result (similarity) based on the parameters related to the right half of the face From the combination, it is possible to smoothly detect the direction and size of the face in the left-right direction.
本発明の意義ないし効果は、以下に示す実施形態の説明により更に明らかとなろう。 The significance or effect of the present invention will become more apparent from the description of the embodiments given below.
ただし、以下の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. Absent.
以下、本発明の実施の形態につき図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本実施形態に係る顔検出および顔向き推定装置では、正面顔のサンプル画像データベースを学習処理して顔検出用のパラメータを生成し、これをもとに、対象画像に対する顔検出処理が行われる。ここで、パラメータは、一般的には、輝度情報やエッジ情報、これらの情報に関する統計学的データ、顔検出のために特徴を際立たせるアルゴリズムにおける設定要素、などから構成される。本実施例では、パラメータとしてエッジ情報を用い、これをもとに、正規化相互相間法にて類似度を算出し、顔検出を行っている。 In the face detection and face direction estimation apparatus according to the present embodiment, a face detection parameter is generated by performing learning processing on the front face sample image database, and face detection processing on the target image is performed based on this. Here, the parameter is generally composed of luminance information and edge information, statistical data related to such information, setting elements in an algorithm that highlights features for face detection, and the like. In the present embodiment, edge information is used as a parameter, and based on this, the degree of similarity is calculated by a normalized inter-phase method, and face detection is performed.
本実施形態では、顔全体に対して1つのパラメータを用いるのではなく、顔全体のうちの左半分(以下、左顔と呼ぶ)に関するパラメータと、右半分(以下、右顔と呼ぶ)に関するパラメータの2つが用いられる。すなわち、これらのパラメータは、図1(a)に示されている様に、1つの正面顔を、左顔、右顔に分割したときの、左顔に関するパラメータと、右顔に関するパラメータからなっている。各々のパラメータは、左顔用のサンプル画像データベース(正面顔)と左顔用のサンプル画像データベース(正面顔)について、それぞれ個別に学習処理を行うことによって生成される。パラメータの生成はオフラインで行われ、顔検出および顔向き推定装置内にストアされる。 In this embodiment, one parameter is not used for the entire face, but a parameter related to the left half (hereinafter referred to as the left face) and a parameter related to the right half (hereinafter referred to as the right face) of the entire face. Are used. That is, as shown in FIG. 1A, these parameters are composed of a parameter relating to the left face and a parameter relating to the right face when one front face is divided into a left face and a right face. Yes. Each parameter is generated by individually performing a learning process on the sample image database for the left face (front face) and the sample image database for the left face (front face). The parameters are generated off-line and stored in the face detection and face orientation estimation device.
図1(b)を参照して、顔検出および顔向き推定処理においては、画像データにおいて、顔があるかどうかの検出を行う領域(以下、この領域を注目領域と呼ぶ)を左、右の領域に等分割し、このうち左領域に対し右顔に関するパラメータを用いて比較演算(類似度の算出)を行い、右領域に対し左顔に関するパラメータを用いて比較演算を行う。なお、左領域および右領域の各々に対する演算を左右同時に行うようにしても良い。比較演算は、正規化相互相間法に従って行われ、その算出結果として類似度が、左領域と右領域の各々において別々に算出される。この左領域と右領域の類似度各々を、各レベル値(閾値)と比較し、左領域における比較結果、右領域における比較結果を用いて顔検出および顔向き推定を行う。 Referring to FIG. 1B, in the face detection and face direction estimation processing, a region for detecting whether or not there is a face in the image data (hereinafter, this region is referred to as a region of interest) is displayed on the left and right sides. The area is equally divided, a comparison operation (similarity calculation) is performed on the left area using the parameters related to the right face, and a comparison calculation is performed on the right area using the parameters related to the left face. Note that the calculation for each of the left region and the right region may be performed simultaneously on the left and right. The comparison operation is performed according to the normalized inter-phase method, and the similarity is calculated separately in each of the left region and the right region as a calculation result. Each similarity between the left region and the right region is compared with each level value (threshold value), and face detection and face orientation estimation are performed using the comparison result in the left region and the comparison result in the right region.
まず、図2に本実施の形態に係る顔検出および顔向き推定装置100の機能ブロック図を示す。
First, FIG. 2 shows a functional block diagram of the face detection and face
図2を参照して、10は顔検出および顔向き推定を行う対象画像などを検出処理終了まで記憶しておく画像記憶部、11は画像のエッジ情報を計算するエッジ情報計算部、12は各演算処理および各部の動作の処理や判断などの制御を行う演算処理部、13は検出処理の結果(顔領域情報や顔向き情報など)を検出装置100の後段に出力する出力部である。
Referring to FIG. 2, 10 is an image storage unit that stores a target image for face detection and face orientation estimation until the end of the detection process, 11 is an edge information calculation unit that calculates edge information of the image, and 12 is each An arithmetic processing unit 13 performs control such as arithmetic processing and processing and determination of operation of each unit, and 13 is an output unit that outputs a result of detection processing (such as face area information and face orientation information) to the subsequent stage of the
14および15は各々左顔および右顔に関するパラメータであって、当該検出装置100の内蔵メモリに格納されている。16は画像の左領域および右領域の各々について右顔および左顔に関するパラメータ14、15を用いて類似度を計算する類似度計算部、17および18は算出された左および右領域の各々についての類似度をもとに顔判定および顔向き判定を行う顔判定部および顔向き判定部である。19は演算結果や検出情報などを格納するメモリである。
14 and 15 are parameters relating to the left face and the right face, respectively, and are stored in the built-in memory of the
ここで、検出装置100の各部の動作について説明する。
Here, the operation of each part of the
まず、検出装置100に顔検出および顔向き推定を行う対象画像のデータが入力されると、この画像データは画像記憶部10に記憶される。この画像記憶部10から、画像データがエッジ情報計算部11に入力され、画像データのエッジ情報が計算される。注目領域の左領域および右領域の各々についてのエッジ情報はここから読み出される。本実施例ではこれらのエッジ情報をベクトル値として扱い、正規化相互相間法をもとに、類似度の計算を行う。なお、演算処理部12の制御により、一つの注目領域に対する検出処理が終了する毎に、画像の大きさに留意しながら、注目領域が横方向または縦方向に1画素ずれた領域に更新される。これにより、入力画像全体に亘って、顔検出および顔向き推定処理が行われる。さらに、演算処理部12は、後述のように、画像記憶部10に保存された画像を縮小する処理も行う。
First, when data of a target image to be subjected to face detection and face orientation estimation is input to the
類似度計算部16では、左領域および右領域の各々についてのエッジ情報のベクトル値と、左顔および右顔に関するパラメータ14および15を用いて、左領域および右領域の各々における類似度が計算される。顔判定部17および顔向き判定部18は、これら類似度と、所定のレベル値とを比較し、類似度がどのレベルにあるかを判別する(詳細は後述)。そして、その判別結果をもとに、顔検出、顔向き推定を行う(詳細は後述)。
The similarity calculation unit 16 calculates the similarity in each of the left region and the right region using the vector value of the edge information for each of the left region and the right region and the
なお、これらの検出結果から顔および顔の向きに関する情報、例えば、顔位置情報や顔領域情報、顔向き角度情報など、検出装置100の後段において有意義な情報が得られる。これらの情報はメモリ19に格納され、必要に応じて出力部13から出力される。
From these detection results, meaningful information is obtained in the subsequent stage of the
次に、検出装置100における顔検出および顔向き推定の動作フローについて説明する。
Next, an operation flow of face detection and face orientation estimation in the
本実施形態では、顔検出および顔向き推定用に一種類の大きさのテンプレートが設定され、このテンプレートを左右均等に分割した領域に、上記左顔用のパラメータと右顔用のパラメータが割り当てられる。上述の注目領域の大きさは、テンプレート領域と同サイズに設定されており、注目領域の左領域および右領域から取得したエッジ情報(ベクトル値)と、テンプレートの右顔用パラメータおよび左顔用パラメータとを比較演算することにより、当該注目領域の左領域画像および右領域画像と、右顔用パラメータおよび左顔用パラメータの類似度が算出される。 In the present embodiment, a template of one size is set for face detection and face orientation estimation, and the left face parameter and right face parameter are assigned to an area obtained by equally dividing the template into left and right. . The size of the attention area described above is set to the same size as the template area, the edge information (vector value) acquired from the left area and the right area of the attention area, the right face parameter and the left face parameter of the template And the left region image and the right region image of the region of interest, the right face parameter, and the left face parameter similarity are calculated.
なお、注目領域は、先に説明したように、検出処理が終了する毎に一画素ずつ左右方向または上下方向にずらされる。この際、演算処理部12は、注目領域が入力画像領域の右端または下端に至ったかの判定、すなわち、注目領域に対する領域判定処理を行う。これにより、注目領域は、検出処理が終了する都度、入力画像領域の左上から右下方向に向けて、ラスタースキャン方式で1画素ずつずらしながら、更新設定される。 Note that, as described above, the attention area is shifted in the horizontal direction or the vertical direction by one pixel each time the detection process is completed. At this time, the arithmetic processing unit 12 determines whether the attention area has reached the right end or the lower end of the input image area, that is, performs area determination processing for the attention area. As a result, each time the detection process ends, the attention area is updated and set by shifting one pixel at a time from the upper left to the lower right of the input image area in the raster scan method.
なお、本実施形態では、一種類の大きさのテンプレートを用いて入力画像内における様々な大きさの顔の検出を行えるよう、ラスタースキャン方式で入力画像の右下までの検出作業が終了する毎に、入力画像を定められた倍率で縮小し、再度、ラスタースキャン方式で上記の検出作業を入力画像の左上から右下方向に向けて行う処理が行われる。これを規定回数繰り返すことにより、入力画像における様々な大きさの顔が検出可能となっている。 In the present embodiment, every time the detection work up to the lower right of the input image is completed by the raster scan method, a single size template can be used to detect faces of various sizes in the input image. In addition, the input image is reduced at a predetermined magnification, and the above-described detection operation is again performed from the upper left to the lower right of the input image by the raster scan method. By repeating this a predetermined number of times, faces of various sizes in the input image can be detected.
図3を参照して、入力画像を徐々に縮小しながら、入力画像内における様々な大きさの顔の検出を行う動作について説明する。同図では、入力画像中に、顔Aと顔Bが含まれている。 With reference to FIG. 3, an operation for detecting faces of various sizes in an input image while gradually reducing the input image will be described. In the figure, the face A and the face B are included in the input image.
同図(a)は、入力画像上において、注目領域をラスタースキャン方式で1画素ずつ右方または下方にずらして顔検出を行う際の動作を示すものである。この場合、注目領域に比べて顔Aと顔Bが大きいため、顔A、顔Bの何れも検出することができない。 FIG. 6A shows an operation when face detection is performed by shifting the attention area to the right or below by one pixel in the raster scan method on the input image. In this case, since face A and face B are larger than the region of interest, neither face A nor face B can be detected.
同図(b)は、同図(a)の場合よりも入力画像を縮小し、その後、同図(a)の場合と同様に、注目領域をラスタースキャン方式で1画素ずつ右方または下方にずらして顔検出を行う際の動作を示すものである。この場合、顔Bが注目領域とほぼ一致する大きさとなるため、顔Bは検出されるが、顔Aは検出されない。 In FIG. 6B, the input image is reduced more than in the case of FIG. 5A, and thereafter, as in the case of FIG. The operation when performing face detection by shifting is shown. In this case, since the face B has a size that substantially matches the attention area, the face B is detected, but the face A is not detected.
同図(c)は、同図(b)の状態の後、縮小処理とスキャン処理を何度か繰り返した際の処理動作を示すものである。この場合、顔Aが注目領域とほぼ一致する大きさとなり、顔Aを検出することができる。 FIG. 6C shows the processing operation when the reduction process and the scan process are repeated several times after the state of FIG. In this case, the size of the face A substantially coincides with the attention area, and the face A can be detected.
これ以後も、入力画像の縮小処理と注目領域のスキャン処理を規定回数まで繰り返す。その結果、入力画像から顔Aと顔Bが検出され、入力画像のどこに顔があるか、その顔の向きとその角度はいくらか、などの情報がメモリ19に蓄積される。
Thereafter, the reduction process of the input image and the scan process of the attention area are repeated a predetermined number of times. As a result, the face A and the face B are detected from the input image, and information such as where the face is in the input image, the direction of the face and what the angle is is stored in the
さて、本実施形態では、類似度計算のアルゴリズムとして正規化相互相関を用いる。正規化相互相関では、計算式「S=(Vf-Mf)*(T-Mt)/(|Vf-Mf||T-Mt|)」で表される演算の結果から類似度Sが得られる。なお、式中の*はベクトル内積演算子、|A|はベクトルAの大きさを表す。Vfは注目領域のエッジ情報行列を行ベクトル(又は列ベクトル)表記したもの、Tはテンプレートのエッジ情報行列を行ベクトル(又は列ベクトル)表記したものである。Mfは、その全成分が、注目領域のエッジ情報ベクトルの全要素の平均値mであるベクトル、すなわち、「Mf=mE(E=[1,1,1…,1])」で表されるベクトルである。Mtは、その全成分が、テンプレートのエッジ情報ベクトルの全要素の平均値tであるベクトル、すなわち、「Mt=tE」で表されるベクトルである。なお、正規化相互相関におけるパラメータは、T、Mtである。 In the present embodiment, normalized cross-correlation is used as a similarity calculation algorithm. In the normalized cross-correlation, the similarity S is obtained from the result of the calculation represented by the calculation formula “S = (Vf−Mf) * (T−Mt) / (| Vf−Mf || T−Mt |)”. . Note that * in the equation represents a vector dot product operator, and | A | represents the size of the vector A. Vf is a row vector (or column vector) notation of the edge information matrix of the region of interest, and T is a row vector (or column vector) notation of the template edge information matrix. Mf is a vector whose all components are the average value m of all the elements of the edge information vector of the region of interest, that is, “Mf = mE (E = [1, 1, 1..., 1])”. Is a vector. Mt is a vector whose all components are the average value t of all elements of the edge information vector of the template, that is, a vector represented by “Mt = tE”. Note that parameters in normalized cross-correlation are T and Mt.
顔検出および顔向き推定動作の動作フローを図4に示す。なお、この動作フローでは、前段階として、顔検出および顔向き推定を行う画像が画像記憶部10に入力される処理が行われる。
FIG. 4 shows an operation flow of the face detection and face direction estimation operation. In this operation flow, as a previous step, processing for inputting an image for face detection and face orientation estimation to the
図4を参照して、ステップS1では、画像記憶部10に入力された画像または後述の縮小画像についてエッジ情報計算部11で、エッジ情報の計算を行う。
Referring to FIG. 4, in step S <b> 1, edge information is calculated by the edge
ステップS2では、顔検出および顔向き推定する領域、すなわち注目領域を特定し、注目領域における左右各領域のエッジ情報を取り出す。これにより、ベクトル値Vfが得られる(以下、画像ベクトルと呼ぶ)。 In step S2, an area for face detection and face orientation estimation, that is, an attention area is specified, and edge information of each of the left and right areas in the attention area is extracted. Thereby, a vector value Vf is obtained (hereinafter referred to as an image vector).
ステップS3では、画像ベクトルを用い、注目領域における、左右各領域内の顔検出、顔向き推定を行う。動作の詳細は後で述べる。 In step S3, face detection and face orientation estimation in the left and right regions in the attention region are performed using the image vector. Details of the operation will be described later.
ステップS4では、ステップS3で得られた検出結果をメモリ19へ格納する。
In step S4, the detection result obtained in step S3 is stored in the
ステップS5では、注目領域が入力画像の右下まで至ったかを判定することで、入力画像の全領域におけるスキャンが終了したかを判断する。終了した場合は、ステップS6へ進み。終了していない場合は、ステップS2へ戻り、注目領域を再設定する。 In step S <b> 5, it is determined whether the scan of the entire area of the input image has been completed by determining whether the attention area has reached the lower right of the input image. If completed, the process proceeds to step S6. If not completed, the process returns to step S2 to reset the attention area.
ステップS6では、規定回数まで入力画像の縮小がなされたかの判断を行う。規定回数まで縮小がなされた場合は、当該全検出動作の終了となる。終了していない場合は、ステップS7へ進む。 In step S6, it is determined whether the input image has been reduced to the specified number of times. When the reduction has been performed to the specified number of times, the entire detection operation ends. If not completed, the process proceeds to step S7.
ステップS7では、現在検出を行った対象画像の縮小画像を作成する。その後、当該縮小画像の顔検出および顔向き推定を行うため、ステップS1へ戻る。 In step S7, a reduced image of the target image currently detected is created. Thereafter, the process returns to step S1 in order to perform face detection and face orientation estimation of the reduced image.
顔および非顔検出動作(ステップS3)の動作フローを図5に示す。 FIG. 5 shows an operation flow of the face and non-face detection operation (step S3).
図5を参照して、ステップS31では、ステップS2で計算された注目領域のエッジ情報のうち左半分のものを取り出す。 Referring to FIG. 5, in step S31, the left half of the edge information of the attention area calculated in step S2 is extracted.
ステップS33では、ステップS2で計算された注目領域のエッジ情報のうち右半分のものを取り出す。 In step S33, the right half of the edge information of the attention area calculated in step S2 is extracted.
ステップS32、S34では、注目領域のうちの左領域、右領域の各々に関して、正規化相互相関を用いて類似度を計算する。詳細については、後で述べる。 In steps S32 and S34, the degree of similarity is calculated using normalized cross-correlation for each of the left region and the right region of the attention region. Details will be described later.
ステップS35では、ステップS32、S34で計算された左領域、右領域の各々の類似度を用いて顔検出、顔向き推定を行う。これも詳細については、後で述べる。その後、ステップS4へ進む。 In step S35, face detection and face orientation estimation are performed using the similarity between the left region and the right region calculated in steps S32 and S34. Details of this will be described later. Then, it progresses to step S4.
半顔における類似度計算動作(ステップS32またはS34)の動作フローを図6に示す。なお、ステップS32とステップS34の動作は同様なので、ここでは、ステップS32についてのみ述べる。 FIG. 6 shows an operation flow of the similarity calculation operation (step S32 or S34) in the half face. In addition, since operation | movement of step S32 and step S34 is the same, only step S32 is described here.
図6を参照して、ステップS321では、左顔用のテンプレート等のパラメータが左顔パラメータ14に読み込まれているか確認を行う。読み込まれていればステップS323へ進む。読み込まれていないときはステップS322へ進む。
Referring to FIG. 6, in step S <b> 321, it is confirmed whether parameters such as a left face template are read in
ステップS322では、左顔用のテンプレート等のパラメータの読み込みを行う。 In step S322, parameters such as a left face template are read.
ステップS323では、正規化相互相関を用いて類似度を計算する。具体的には、先に述べた計算式を用いて計算を行う。 In step S323, similarity is calculated using normalized cross-correlation. Specifically, the calculation is performed using the calculation formula described above.
ステップS324では、算出した類似度Sをメモリ19に格納する。
In step S324, the calculated similarity S is stored in the
顔および顔向きの検出動作(ステップS35)の動作フローを図7に示す。 FIG. 7 shows an operation flow of the face and face detection operation (step S35).
図7を参照して、ステップS351では、ステップS32で計算された左半顔における類似度SBが閾値TB以上であるか、またはステップS34で計算された右半顔における類似度SAが閾値TA以上であるかの判断を行う。少なくとも一方が満たされているときは、左顔領域および右顔領域の少なくとも一方が顔であると判断され、ステップS352へ進む。両方共に満たされないときは、左顔領域および右顔領域双方とも顔ではないと判断され、ステップS353へ進む。 Referring to FIG. 7, in step S351, the similarity S B in the left half face calculated in step S32 is greater than or equal to the threshold value T B , or the similarity S A in the right half face calculated in step S34 is the same. A determination is made as to whether or not the threshold value TA is greater than or equal to. When at least one of them is satisfied, it is determined that at least one of the left face area and the right face area is a face, and the process proceeds to step S352. When both are not satisfied, it is determined that both the left face area and the right face area are not faces, and the process proceeds to step S353.
ステップS352では、左顔領域および右顔領域の少なくとも一方が顔と判断できたので、注目領域は顔であると判定される。 In step S352, since at least one of the left face area and the right face area can be determined to be a face, it is determined that the attention area is a face.
ステップS353では、左顔領域および右顔領域の両方が顔ではないと判断されたので、注目領域は顔ではないと判定される。 In step S353, since it is determined that both the left face area and the right face area are not faces, it is determined that the attention area is not a face.
ステップS354では、類似度SAおよび類似度SBの各々が、例えば、テーブルにおいてどの範囲に位置しているかによって、判定された顔が入力画像においてどちらを向いているのかを検出する。 In step S354, it is detected which direction the determined face is facing in the input image depending on, for example, in which range each of the similarity S A and the similarity S B is located in the table.
以上のように、検出装置100において顔検出および顔向き推定の動作が行われる。
As described above, the
次に、正規化相互相関による類似度から、顔向き推定がどのように行われるのか(S354)について述べる。正規化相互相関における類似度の最大値は、先に述べた式から1であることが分かる(ベクトル(Vf-Mf)とベクトル(T-Mt)の向きが一致するとき)。例えば、顔向き判定部18には、図8に示すようなテーブルが格納されており、類似度計算部16にて算出された類似度SAおよび類似度SBの各々が、このテーブルにおいてどの範囲に位置していれば、入力画像において判定された顔が正面に対して何度左または右を向いているのかが分かる。顔向き判定部18は、算出された類似度SA、SBとテーブルとを比較し、顔向きの方向と角度を判別する。このテーブルでは、顔の向きの角度は、正面の場合を0度、右向きを負値、左向きを正値としている。 Next, how the face orientation is estimated from the similarity based on the normalized cross-correlation (S354) will be described. It can be seen that the maximum value of the similarity in the normalized cross-correlation is 1 (when the directions of the vector (Vf−Mf) and the vector (T−Mt) coincide). For example, a table as shown in FIG. 8 is stored in the face orientation determination unit 18, and each of the similarity S A and the similarity S B calculated by the similarity calculation unit 16 is stored in this table. If it is located in the range, it can be seen how many times the face determined in the input image faces left or right with respect to the front. The face orientation determination unit 18 compares the calculated similarities S A and S B with a table to determine the face orientation direction and angle. In this table, the angle of the face direction is 0 degree for the front, a negative value for the right direction, and a positive value for the left direction.
なお、テーブル中に示された閾値は一例であって、検証結果等に基づき適宜変更可能である。また、顔向き角度をこれより細かく設定しても良く、逆に、荒く設定しても良い。なお、顔向き角度を判別せずに、右と左の何れを向いているかのみを判別する場合には、類似度SA、SBのうち何れが閾値以上となっているかによって顔向きを判別するようにしても良い。このとき、類似度SA、SBのうち何れもが閾値以上となっている場合には、顔向き推定を正面とするか、あるいは、類似度の高い方を優先して顔向き方向の判別を行えばよい。なお、類似度SA、SBが同じ値の場合または略同じの場合は、図8のテーブルの場合と同様、正面を向いているとする。 Note that the threshold values shown in the table are examples, and can be changed as appropriate based on the verification result and the like. Further, the face orientation angle may be set finer than this, or conversely, it may be set rough. When determining only the right or left direction without determining the face angle, the face direction is determined depending on which of the similarity S A and S B is greater than or equal to the threshold value. You may make it do. At this time, if both the similarity S A and S B are equal to or greater than the threshold value, the face orientation estimation is set to the front, or the face orientation direction is determined by giving priority to the one with the higher similarity. Can be done. In the case where the similarities S A and S B are the same value or substantially the same, it is assumed that the front faces the front as in the case of the table of FIG.
ところで、上記実施形態では、類似度計算のアルゴリズムとして正規化相互相関を用いるようにしたが、顔検出において用いられているその他の類似度算出手法を用いることも勿論可能である。 In the above embodiment, normalized cross-correlation is used as the algorithm for calculating the similarity, but it is of course possible to use another similarity calculation method used in face detection.
例えば、顔画像の標本および顔以外(非顔)の画像の標本の確率分布を用いて類似度を計算してもよい。具体的には、多数の顔画像ならびに非顔画像を左右に2等分し、各々の画像(非顔画像に関しても顔画像と同様に各々を左顔画像、右顔画像と呼ぶ)に関する画像情報の標本を用いて、各々における正規化された確率分布に関する平均値Mと標準偏差σを算出する。なお、非顔画像には、顔検出の際に顔と紛らわしいと考えられる物の画像が選択される。この場合のパラメータは、以上の8つの値と、顔の確率分布と非顔の確率分布の差を際立たせるために使用する投影ベクトルであり、具体的には、顔画像および非顔画像の各々について、左、右顔画像各々の正規化確率分布における平均値Mと標準偏差σが4組と、顔画像と非顔画像で共通の左右顔画像の各投影ベクトルが2つである。 For example, the similarity may be calculated using a probability distribution of a face image sample and a non-face (non-face) image sample. Specifically, a large number of face images and non-face images are equally divided into left and right parts, and image information about each image (the non-face images are also referred to as left face images and right face images in the same manner as face images). Are used to calculate the mean value M and the standard deviation σ for the normalized probability distribution in each. As the non-face image, an image of an object that is considered to be confused with a face at the time of face detection is selected. The parameters in this case are the above eight values, and projection vectors used to highlight the difference between the probability distribution of the face and the probability distribution of the non-face. Specifically, each of the face image and the non-face image In the normalized probability distribution of each of the left and right face images, the average value M and the standard deviation σ are four sets, and there are two projection vectors of the left and right face images common to the face image and the non-face image.
類似度Sは、式「S=PF(V*T)/PNF(V*T)」で表され、左顔画像、右顔画像の各々について算出される。なお、式中の*はベクトル内積演算子であり、PF(x)、PNF(x)は各々、顔画像および非顔画像の正規分布N(M,σ2)に対する確率密度関数を表し、「x=V*T」の時の確率を表す。Vは、例えば、注目領域のエッジ情報行列を行ベクトル(又は列ベクトル)表記したものである。なお、上式はその領域の顔である確率と非顔である確率の比を表しており、注目領域に顔画像が含まれる場合には、類似度は大きくなることが分かる。なお、この場合の動作フローは正規化相互相関を用いた場合と同じである。 The similarity S is expressed by an expression “S = P F (V * T) / P NF (V * T)”, and is calculated for each of the left face image and the right face image. Note that * in the equation is a vector dot product operator, and P F (x) and P NF (x) each represent a probability density function for the normal distribution N (M, σ 2 ) of the face image and the non-face image. , “X = V * T” represents the probability. V is, for example, a row vector (or column vector) representation of the edge information matrix of the region of interest. Note that the above expression represents the ratio of the probability of being a face in the region to the probability of being a non-face, and it can be seen that the similarity increases when a face image is included in the region of interest. Note that the operation flow in this case is the same as that when using normalized cross-correlation.
また、本実施形態における類似度計算のアルゴリズムとして、線形判別式、差分自乗和による計算手法を用いてもよい。線形判別式は、顔画像のみの標本の正規化確率分布および投影ベクトルを用いる。類似度は式「S=(M―V*T)/σ」で表され、左顔画像、右顔画像の各々について算出される。なお、式中の文字、記号は、上で用いたものと同じである。 In addition, as a similarity calculation algorithm in this embodiment, a calculation method using a linear discriminant or a sum of squared differences may be used. The linear discriminant uses a normalized probability distribution and a projection vector of a sample of only a face image. The similarity is expressed by the equation “S = (M−V * T) / σ” and is calculated for each of the left face image and the right face image. The characters and symbols in the formula are the same as those used above.
差分自乗和は、類似度Sは式「S=(Mf−V)1/2」で表され、左顔画像、右顔画像の各々について算出される。Mf、Vは先に述べたものと同じである。 The difference sum of squares is calculated for each of the left face image and the right face image by calculating the similarity S by the expression “S = (Mf−V) 1/2 ”. Mf and V are the same as described above.
なお、線形判別式や差分自乗和を用いた場合の類似度Sは、正規化相互相関や正規分布の確率密度関数を用いた場合と異なり、マッチング度合いが高くなるほど類似度Sの値が小さくなる。よって、動作フローは、図7ではなくて図9に変更する必要がある。図9と図7のフローにおいて異なる点は、類似度Sと閾値Tの大小関係を規定する不等号の向きが逆向きとなっている点のみである。すなわち、図7のステップS351が図9においてステップS355に変更されている。なお、その他のステップは同じである。 Note that the similarity S in the case of using a linear discriminant or the sum of squared differences is different from the case of using a normalized cross-correlation or a probability distribution function of a normal distribution, and the value of the similarity S decreases as the matching degree increases. . Therefore, the operation flow needs to be changed to FIG. 9 instead of FIG. The only difference between the flowcharts of FIGS. 9 and 7 is that the direction of the inequality sign that defines the magnitude relationship between the similarity S and the threshold value T is reversed. That is, step S351 in FIG. 7 is changed to step S355 in FIG. The other steps are the same.
本実施形態によれば、多様な向きの顔に対応した円滑かつ適正に顔検出および顔向き推定を行うことができる。その検証結果を図10に示す。 According to this embodiment, face detection and face orientation estimation can be performed smoothly and appropriately corresponding to faces in various orientations. The verification result is shown in FIG.
図10を参照して、縦軸は類似度であり、横軸は顔の向きを示している。横軸の中央が正面を向いている場合で、中央より右に行くと左向顔となり、左に行くと右向き顔となる。横軸における数値は、横軸下方にある画像の画像No.を表している。 Referring to FIG. 10, the vertical axis represents the similarity and the horizontal axis represents the face orientation. When the center of the horizontal axis is facing the front, going to the right from the center turns left, and going to the left turns right. The numerical value on the horizontal axis indicates the image No. of the image below the horizontal axis. Represents.
図中のSAおよびSBは、右顔テンプレート(右顔用のパラメータ)および左顔テンプレート(左顔用のパラメータ)を用いた場合の類似度のグラフを示し、SWHOLEは正面顔全体をテンプレートに用いた場合の類似度(上記従来技術1)のグラフを示している。各テンプレートのパラメータは、正面顔の画像データベースを学習処理して生成されている。 S A and S B in the figure are graphs of similarity when using a right face template (parameter for the right face) and a left face template (parameter for the left face), and S WHOLE represents the entire front face. The graph of the similarity (the said prior art 1) at the time of using for a template is shown. The parameters of each template are generated by learning the front face image database.
なお、類似度の算出は、正規化相互相関法に従う算出アルゴリズムによって行った(T.Sim and S.Baker and M.Bsat,"The CMU Pose, Illumination, and Expression PIE Database", Proceedings of the 5th International Conference on Automatic Face and Gesture Recognition, 2002)。また、上記実施形態とは異なり、入力画像をスキャンする工程を行わずに、各テンプレートと入力画像の目の位置を人為的に合わせて各類似度の値の算出を行った。すなわち、右顔テンプレートは、その目の位置を入力画像の右顔の目の位置に合わせ、左顔テンプレートは、その目の位置を入力画像の左顔の目の位置に合わせて類似度の算出を行った。比較例(上記従来技術1)のテンプレートは、両目の位置を入力画像の左顔の目の位置に合わせて類似度の算出を行った。 The similarity was calculated by a calculation algorithm according to the normalized cross-correlation method (T. Sim and S. Baker and M. Bsat, “The CMU Pose, Illumination, and Expression PIE Database”, Proceedings of the 5th International Conference on Automatic Face and Gesture Recognition, 2002). Further, unlike the above embodiment, the similarity value is calculated by artificially matching the positions of the eyes of each template and the input image without performing the step of scanning the input image. That is, the right face template matches the position of the eye with the right face eye position of the input image, and the left face template matches the position of the eye with the left face eye position of the input image to calculate the degree of similarity. Went. In the template of the comparative example (the above prior art 1), the degree of similarity was calculated by matching the position of both eyes with the position of the left face eye of the input image.
上記実施形態のように1画素ずつラスタースキャンする場合にも、目の位置が合う状態は起こるため、図10と同様の特性が得られるものと想定される。すなわち、図10の特性は、各画像をラスタースキャンしたときに目の位置が合ったタイミングの類似度と見ることができる。 Even when raster scanning is performed on a pixel-by-pixel basis as in the above-described embodiment, it is assumed that the same characteristics as in FIG. That is, the characteristic of FIG. 10 can be regarded as the similarity of the timing when the eyes are aligned when each image is raster scanned.
なお、類似度の算出は、やや下向き、やや上向きの画像に対しても併せて行った。図中の画像番号C9、C25、C31の画像は、C27、C2、C14の画像に比べ、同じ左右の向き角度でやや下向きとなっている。また、画像番号C7の画像は、C27の画像に比べ、やや下向きとなっている。 It should be noted that the calculation of the similarity was also performed for slightly downward and slightly upward images. The images of image numbers C9, C25, and C31 in the figure are slightly downward with the same left and right orientation angles as compared to the images of C27, C2, and C14. Further, the image with the image number C7 is slightly downward compared to the image with C27.
同図を参照して、SWHOLEのグラフは、中央において類似度が一番高く横軸に沿って左右へ行くほど類似度が低下する特性を示している。つまり、正面顔の顔検出率は高いが、左右顔の顔検出率は低いことを示している。 Referring to the figure, the graph of S WHOLE shows the characteristic that the similarity is highest at the center, and the similarity decreases as it goes to the left and right along the horizontal axis. That is, the face detection rate of the front face is high, but the face detection rate of the left and right faces is low.
SAのグラフは横軸に沿って右へ行くほど類似度が向上する特性を示している。中央から右においてはSWHOLEの値よりも高い値となっている。しかし、中央から左においてはSWHOLEの値よりも低い値となっている。つまり、正面顔から右顔にかけての顔検出率はSWHOLEの場合よりも優れているが、左顔の顔検出率は劣っていることを示している。 Graph of S A represents the characteristic of improving the higher similarity to go right along the horizontal axis. From the center to the right, the value is higher than the value of SWHOLE . However, from the center to the left, the value is lower than the value of SWHOLE . That is, the face detection rate from the front face to the right face is better than that of SWHOLE , but the face detection rate of the left face is inferior.
一方、SBの特性は、横軸に沿って左へ行くほど類似度が向上する特性を示している。中央から左においてはSWHOLEの値よりも高い値となっている。しかし、中央から右においてはSWHOLEの値よりも低い値となっている。つまり、正面顔から左顔にかけての顔検出率はSWHOLEの場合よりも優れているが、右顔の顔検出率は劣っていることを示している。丁度SAの特性と逆となっている。 On the other hand, the characteristics of S B is the similarity toward the left along the horizontal axis represents a characteristic to be improved. From the center to the left, the value is higher than the value of SWHOLE . However, from the center to the right, the value is lower than the value of SWHOLE . That is, the face detection rate from the front face to the left face is better than that of SWHOLE , but the face detection rate of the right face is inferior. It has become a characteristic and the reverse of S A just.
上記実施形態では、SB≧TBであるか、または、SA≧TAのときに顔であると判別するものであるから、図10においては、画像が左向きの場合には類似度SBをもとに顔であると判別され、画像が右向きの場合には類似度SAをもとに顔であると判別されることとなる。結局、本実施形態では、図10において、正面から左向き側の領域における類似度SBと、正面から右向き側の領域における類似度SAとを併せた類似度特性を有するのと等価となる。 In the above embodiment, since S B ≧ T B , or S A ≧ T A , it is determined that the face is a face. Therefore, in FIG. The face is determined based on B, and if the image is rightward, the face is determined based on the similarity S A. After all, in the present embodiment, in FIG. 10, it is equivalent to having a similarity characteristic that combines the similarity S B in the region facing left from the front and the similarity S A in the region facing right from the front.
このように、本実施例によれば、正面顔全体をテンプレートに用いた従来技術1に比べ、正面顔に対する顔検出能力を同等に保ちながら、これ以外の向きに対しても、顔検出精度を高く維持することができる。本実施形態によれば、多様な向きにおける顔の検出能力を高めることができ、検出率の大幅な改善を図ることができる。
Thus, according to the present embodiment, compared with the
なお、本実施形態では左顔用と右顔用の2つのパラメータを使用したが、顔を左右対称と仮定する場合は、右顔用または左顔用のパラメータを簡単な変換により他方の顔のパラメータとして使用可能であるので、右顔用または左顔用のどちらか一方のパラメータのみを装置に具備しておけばよい。これにより、図2の左顔パラメータ14または右顔パラメータ15のどちらかが不要となり、パラメータのメモリ使用量を先述の従来技術1の半分程度に削減できる。
In this embodiment, two parameters for the left face and the right face are used. However, when the face is assumed to be symmetrical, the parameters for the right face or the left face are simply converted into the parameters of the other face. Since it can be used as a parameter, only one parameter for the right face or the left face needs to be provided in the apparatus. Accordingly, either the
また、本実施形態では画像のエッジ情報を使用したが、通常の画像の輝度情報に基づいて類似度を算出してもよい。この場合のパラメータは、前述のように、輝度情報と、これらの情報に関する統計学的データなどから構成される。 In this embodiment, the edge information of the image is used. However, the similarity may be calculated based on the luminance information of the normal image. As described above, the parameters in this case are composed of luminance information and statistical data related to the information.
なお、本実施の形態における顔検出装置および顔向き推定装置は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIなどで実現できる。また、ソフトウェア的には、メモリにロードされた顔検出および顔向き推定機能のあるプログラムなどによって実現される。図2には、ハードウェアおよびソフトウェアによって実現される顔検出および顔向き推定の機能ブロックが示されている。ただし、これらの機能ブロックが、ハードウェアのみ、ソフトウェアのみ、あるいは、それらの組合せ等、いろいろな形態で実現できることは言うまでもない。 It should be noted that the face detection device and face orientation estimation device in the present embodiment can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer. In terms of software, it is realized by a program having face detection and face orientation estimation functions loaded in a memory. FIG. 2 shows functional blocks for face detection and face orientation estimation realized by hardware and software. However, it goes without saying that these functional blocks can be realized in various forms such as hardware only, software only, or a combination thereof.
本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。 The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims.
10 画像記憶部
12 演算処理部
14 左顔パラメータ
15 右顔パラメータ
16 類似度計算部
17 顔判定部
18 顔向き判定部
100 顔検出および顔向き推定装置
DESCRIPTION OF
Claims (10)
前記画像上に、フレーム領域を設定する領域設定手段と、
前記フレーム領域を領域分割して得られる特定の分割領域に対応して個別に割り当てられたパラメータを格納する格納手段と、
前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データをもとに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する判別手段とを有する、
ことを特徴とする顔検出装置。 In a face detection device that detects a face area included in an image based on image data of the image,
An area setting means for setting a frame area on the image;
Storage means for storing individually assigned parameters corresponding to specific divided regions obtained by dividing the frame region into regions;
Based on the respective parameters and the image data of the divided areas to which the parameters are assigned, a determination unit that determines whether the image area in which the frame area is set is a face area,
A face detection device characterized by that.
前記分割領域は、前記フレーム領域を左右に領域分割したときの領域であって、前記パラメータは、左右の分割領域に対応してそれぞれ準備されている、
ことを特徴とする顔検出装置。 In claim 1,
The divided region is a region when the frame region is divided into left and right regions, and the parameters are prepared corresponding to the left and right divided regions, respectively.
A face detection device characterized by that.
前記判別手段は、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データとを比較演算して当該パラメータにて規定される画像と当該分割領域の画像の類似度を求め、求めた類似度をもとに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する、
ことを特徴とする顔検出装置。 In claim 2,
The determination means compares the respective parameters with the image data of the divided area to which the parameters are assigned to obtain the similarity between the image defined by the parameter and the image of the divided area. Based on the similarity, it is determined whether the image area in which the frame area is set is a face area,
A face detection device characterized by that.
前記判別手段は、前記左右の分割領域に対する類似度を閾値と比較し、少なくとも何れか一方の類似度が前記閾値以上であるときに、前記フレーム領域が設定された画像領域が顔領域であるかを判別する、
ことを特徴とする顔検出装置。 In claim 3,
The discrimination means compares the similarity to the left and right divided areas with a threshold value, and if at least one of the similarity degrees is equal to or greater than the threshold value, whether the image area in which the frame area is set is a face area To determine the
A face detection device characterized by that.
前記それぞれのパラメータは、正面顔の画像データベースから各分割領域の特徴量を抽出することにより生成されており、前記一つのフレーム領域に対して一つのみ準備されている、
ことを特徴とする顔検出装置。 In any one of Claims 1 thru | or 4,
Each of the parameters is generated by extracting the feature amount of each divided region from the front face image database, and only one is prepared for the one frame region.
A face detection device characterized by that.
前記フレーム領域を領域分割して得られる特定の分割領域に対応して個別に割り当てられたパラメータを格納する格納手段と、
前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データをもとに、当該フレーム領域に含まれる顔の向きを判別する判別手段とを有する、
ことを特徴とする顔向き推定装置。 A face orientation estimation device that detects a face orientation included in a frame area based on image data in the frame area,
Storage means for storing individually assigned parameters corresponding to specific divided regions obtained by dividing the frame region into regions;
Based on each of the parameters and image data of the divided region to which the parameter is assigned, a determination unit that determines the orientation of the face included in the frame region,
A face orientation estimation device characterized by the above.
前記分割領域は、前記フレーム領域を左右に領域分割したときの領域であって、前記パラメータは、左右の分割領域に対応してそれぞれ準備されている、
ことを特徴とする顔向き推定装置。 In claim 6,
The divided region is a region when the frame region is divided into left and right regions, and the parameters are prepared corresponding to the left and right divided regions, respectively.
A face orientation estimation device characterized by the above.
前記判別手段は、前記それぞれのパラメータと、このパラメータが割り当てられた分割領域の画像データとを比較演算して当該パラメータにて規定される画像と当該分割領域の画像の類似度を求め、求めた類似度をもとに、当該フレーム領域に含まれる顔の左右方向の向きを判別する、
ことを特徴とする顔向き推定装置。 In claim 7,
The determination means compares the respective parameters with the image data of the divided area to which the parameters are assigned to obtain the similarity between the image defined by the parameter and the image of the divided area. Based on the degree of similarity, determine the horizontal direction of the face included in the frame area,
A face orientation estimation device characterized by the above.
前記判別手段は、前記左右の分割領域に対する類似度の大小関係をもとに、当該フレーム領域に含まれる顔の左右方向の向きを判別する、
ことを特徴とする顔向き推定装置。 In claim 8,
The determining means determines the orientation of the face included in the frame region in the left-right direction based on the magnitude relationship of the similarity to the left and right divided regions.
A face orientation estimation device characterized by the above.
前記判別手段は、前記左右の分割領域に対する類似度と閾値とを比較して、当該フレーム領域に含まれる顔の左右方向の向きの大きさを判別する、
ことを特徴とする顔向き推定装置。 In claim 9,
The determining means compares the degree of similarity with the left and right divided regions and a threshold value to determine the size of the face in the left-right direction included in the frame region;
A face orientation estimation device characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004256263A JP2006072770A (en) | 2004-09-02 | 2004-09-02 | Face detection device and face direction estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004256263A JP2006072770A (en) | 2004-09-02 | 2004-09-02 | Face detection device and face direction estimation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006072770A true JP2006072770A (en) | 2006-03-16 |
Family
ID=36153322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004256263A Withdrawn JP2006072770A (en) | 2004-09-02 | 2004-09-02 | Face detection device and face direction estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006072770A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249852A (en) * | 2006-03-17 | 2007-09-27 | Sony Corp | Information processor and method, recording medium and program |
JP2008015814A (en) * | 2006-07-06 | 2008-01-24 | Megachips System Solutions Inc | Image analysis device and object recognition method |
JP2008130095A (en) * | 2006-11-17 | 2008-06-05 | Shindorico Co Ltd | Face area detection device and correction method for photograph printing |
JP2008287704A (en) * | 2007-04-20 | 2008-11-27 | Panasonic Corp | Face image detection device, face image detection method and photographing device |
JP2009031760A (en) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | Imaging apparatus and automatic focus control method |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
JP2010108138A (en) * | 2008-10-29 | 2010-05-13 | Toyota Central R&D Labs Inc | Person detection device and program |
WO2011000841A1 (en) * | 2009-06-29 | 2011-01-06 | Tessera Technologies Ireland Limited | Methods and apparatuses for half-face detection |
US7916903B2 (en) | 2006-11-21 | 2011-03-29 | Sony Corporation | Personal identification device, personal identification method, updating method for identification dictionary data, and updating program for identification dictionary data |
US7962629B2 (en) | 2005-06-17 | 2011-06-14 | Tessera Technologies Ireland Limited | Method for establishing a paired connection between media devices |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
US8005265B2 (en) | 2003-06-26 | 2011-08-23 | Tessera Technologies Ireland Limited | Digital image processing using face detection information |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
US8064655B2 (en) | 2007-04-20 | 2011-11-22 | Panasonic Corporation | Face image detection device, face image detection method and imaging apparatus |
US8134604B2 (en) | 2006-11-13 | 2012-03-13 | Sanyo Electric Co., Ltd. | Camera shake correction device, camera shake correction method and imaging device |
JP2012203691A (en) * | 2011-03-25 | 2012-10-22 | Toshiba Corp | Image identification device and image identification method |
US8432475B2 (en) | 2008-03-03 | 2013-04-30 | Sanyo Electric Co., Ltd. | Imaging device |
US8520089B2 (en) | 2008-07-30 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Eye beautification |
US8526761B2 (en) | 2009-12-17 | 2013-09-03 | Sanyo Electric Co., Ltd. | Image processing apparatus and image sensing apparatus |
US8633999B2 (en) | 2009-05-29 | 2014-01-21 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for foreground, top-of-the-head separation from background |
US8681241B2 (en) | 2008-07-30 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Automatic face and skin beautification using face detection |
US8929598B2 (en) | 2011-06-29 | 2015-01-06 | Olympus Imaging Corp. | Tracking apparatus, tracking method, and storage medium to store tracking program |
US8971628B2 (en) | 2010-07-26 | 2015-03-03 | Fotonation Limited | Face detection using division-generated haar-like features for illumination invariance |
WO2016043872A1 (en) * | 2014-09-19 | 2016-03-24 | Intel Corporation | Real time skin smoothing image enhancement filter |
-
2004
- 2004-09-02 JP JP2004256263A patent/JP2006072770A/en not_active Withdrawn
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8224108B2 (en) | 2003-06-26 | 2012-07-17 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8131016B2 (en) | 2003-06-26 | 2012-03-06 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8126208B2 (en) | 2003-06-26 | 2012-02-28 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8005265B2 (en) | 2003-06-26 | 2011-08-23 | Tessera Technologies Ireland Limited | Digital image processing using face detection information |
US7962629B2 (en) | 2005-06-17 | 2011-06-14 | Tessera Technologies Ireland Limited | Method for establishing a paired connection between media devices |
JP4556891B2 (en) * | 2006-03-17 | 2010-10-06 | ソニー株式会社 | Information processing apparatus and method, recording medium, and program |
US7844108B2 (en) | 2006-03-17 | 2010-11-30 | Sony Corporation | Information processing apparatus and method, recording medium and program |
JP2007249852A (en) * | 2006-03-17 | 2007-09-27 | Sony Corp | Information processor and method, recording medium and program |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
JP2008015814A (en) * | 2006-07-06 | 2008-01-24 | Megachips System Solutions Inc | Image analysis device and object recognition method |
US8134604B2 (en) | 2006-11-13 | 2012-03-13 | Sanyo Electric Co., Ltd. | Camera shake correction device, camera shake correction method and imaging device |
JP2012185827A (en) * | 2006-11-17 | 2012-09-27 | Shindorico Co Ltd | Face area detection device and correction method for photo printing |
JP2008130095A (en) * | 2006-11-17 | 2008-06-05 | Shindorico Co Ltd | Face area detection device and correction method for photograph printing |
US7916903B2 (en) | 2006-11-21 | 2011-03-29 | Sony Corporation | Personal identification device, personal identification method, updating method for identification dictionary data, and updating program for identification dictionary data |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
US8064655B2 (en) | 2007-04-20 | 2011-11-22 | Panasonic Corporation | Face image detection device, face image detection method and imaging apparatus |
JP2008287704A (en) * | 2007-04-20 | 2008-11-27 | Panasonic Corp | Face image detection device, face image detection method and photographing device |
JP2009031760A (en) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | Imaging apparatus and automatic focus control method |
US8170299B2 (en) | 2008-02-28 | 2012-05-01 | Seiko Epson Corporation | Image output method, image output device, and image output program |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
US8432475B2 (en) | 2008-03-03 | 2013-04-30 | Sanyo Electric Co., Ltd. | Imaging device |
US8902326B2 (en) | 2008-07-30 | 2014-12-02 | DigitalOptics Corporation Europe Limited | Automatic face and skin beautification using face detection |
US8681241B2 (en) | 2008-07-30 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Automatic face and skin beautification using face detection |
US8520089B2 (en) | 2008-07-30 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Eye beautification |
JP2010108138A (en) * | 2008-10-29 | 2010-05-13 | Toyota Central R&D Labs Inc | Person detection device and program |
US8633999B2 (en) | 2009-05-29 | 2014-01-21 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for foreground, top-of-the-head separation from background |
WO2011000841A1 (en) * | 2009-06-29 | 2011-01-06 | Tessera Technologies Ireland Limited | Methods and apparatuses for half-face detection |
US8605955B2 (en) | 2009-06-29 | 2013-12-10 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for half-face detection |
JP2012530994A (en) * | 2009-06-29 | 2012-12-06 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | Method and apparatus for half-face detection |
US8526761B2 (en) | 2009-12-17 | 2013-09-03 | Sanyo Electric Co., Ltd. | Image processing apparatus and image sensing apparatus |
US8971628B2 (en) | 2010-07-26 | 2015-03-03 | Fotonation Limited | Face detection using division-generated haar-like features for illumination invariance |
US8977056B2 (en) | 2010-07-26 | 2015-03-10 | Fotonation Limited | Face detection using division-generated Haar-like features for illumination invariance |
JP2012203691A (en) * | 2011-03-25 | 2012-10-22 | Toshiba Corp | Image identification device and image identification method |
US8929598B2 (en) | 2011-06-29 | 2015-01-06 | Olympus Imaging Corp. | Tracking apparatus, tracking method, and storage medium to store tracking program |
WO2016043872A1 (en) * | 2014-09-19 | 2016-03-24 | Intel Corporation | Real time skin smoothing image enhancement filter |
US9390478B2 (en) | 2014-09-19 | 2016-07-12 | Intel Corporation | Real time skin smoothing image enhancement filter |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006072770A (en) | Face detection device and face direction estimation device | |
JP6631179B2 (en) | Foreground image division method and apparatus, program, and recording medium | |
EP3413265B1 (en) | Panoramic video processing method and device and non-transitory computer-readable medium | |
JP5406705B2 (en) | Data correction apparatus and method | |
US8849035B2 (en) | Image processing apparatus image processing method, and control program to perform face-detection processing | |
US8577099B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US8155396B2 (en) | Method, apparatus, and program for detecting faces | |
JP2011134114A (en) | Pattern recognition method and pattern recognition apparatus | |
US8416989B2 (en) | Image processing apparatus, image capture apparatus, image processing method, and program | |
JP2000132688A (en) | Method and device for detecting parts of face | |
US20110069155A1 (en) | Apparatus and method for detecting motion | |
US20150131853A1 (en) | Stereo matching system and method for generating disparity map using same | |
JP2010165052A (en) | Image processor and image processing method | |
EP2790154A1 (en) | Method and apparatus for determining an alpha value for alpha matting | |
JP2018088049A (en) | Device, method and program for image processing | |
JP6429466B2 (en) | Image processing apparatus, control method therefor, imaging apparatus, and program | |
KR20130091441A (en) | Object tracking device and method for controlling thereof | |
JP2010257267A (en) | Device, method and program for detecting object area | |
US11647152B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US11210551B2 (en) | Iterative multi-directional image search supporting large template matching | |
JP4455980B2 (en) | Moving image processing method, moving image processing apparatus, moving image processing program, and recording medium recording the program | |
EP3076370B1 (en) | Method and system for selecting optimum values for parameter set for disparity calculation | |
JP2006031392A (en) | Template matching device and method | |
JP5643147B2 (en) | Motion vector detection apparatus, motion vector detection method, and motion vector detection program | |
JP2010039968A (en) | Object detecting apparatus and detecting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070112 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090603 |