JP2006293720A - Face detection apparatus, face detection method, and face detection program - Google Patents

Face detection apparatus, face detection method, and face detection program Download PDF

Info

Publication number
JP2006293720A
JP2006293720A JP2005114102A JP2005114102A JP2006293720A JP 2006293720 A JP2006293720 A JP 2006293720A JP 2005114102 A JP2005114102 A JP 2005114102A JP 2005114102 A JP2005114102 A JP 2005114102A JP 2006293720 A JP2006293720 A JP 2006293720A
Authority
JP
Japan
Prior art keywords
face
unit
area
image
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005114102A
Other languages
Japanese (ja)
Other versions
JP4708835B2 (en
Inventor
Rie Yamada
理絵 山田
Kensaku Fujii
憲作 藤井
Kyoko Sudo
恭子 数藤
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005114102A priority Critical patent/JP4708835B2/en
Publication of JP2006293720A publication Critical patent/JP2006293720A/en
Application granted granted Critical
Publication of JP4708835B2 publication Critical patent/JP4708835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face detection technology capable of detecting a face of a person at high speed and highly precisely from among images which a user has photographed. <P>SOLUTION: The face detection apparatus for detecting a face of a person from images has: an image input part 11 for inputting the photographed images; a face area candidate extraction part 12 for applying space frequency filtering locally to the images to extract face area candidates; a face area decision part 13 for deciding whether or not a face is included in the extracted face area candidates; and a detection result output part 14 for outputting a face to a detected person on the basis of the decision result in the face area decision part 13. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像に含まれる人物の顔を、識別するための顔検出技術に関する。   The present invention relates to a face detection technique for identifying a human face included in an image.

カメラ付き携帯電話やデジタルカメラの普及により、個人の扱う画像数は増大した。こうした画像を人物画像とそれ以外の画像とによる分類、人数による分類、検索等を行うためには、画像中から人物の顔のみを正確に検出する必要がある。   With the proliferation of mobile phones with cameras and digital cameras, the number of images handled by individuals has increased. In order to classify such an image by a person image and other images, classify by number of people, search, etc., it is necessary to accurately detect only the face of the person from the image.

画像中から人物の顔を検出する画像処理の技術は様々な研究がされている。例えば、顔と顔でないもの(以下、非顔と記述)とを学習して顔を判別する方法が研究されている(例えば、非特許文献1参照。)。この方法では非顔の学習により、類似パターンの誤検出を低減した精度の良い顔検出を行うことができるが、処理速度が遅い。   Various researches have been conducted on image processing techniques for detecting a human face in an image. For example, a method of discriminating a face by learning a face and a non-face (hereinafter, described as non-face) has been studied (for example, see Non-Patent Document 1). With this method, accurate face detection with reduced false detection of similar patterns can be performed by non-face learning, but the processing speed is slow.

これに対し、高速なパターン認識の手法として、Haar型の特徴量を用い、AdaBoost学習法、及びカスケード構造検出器による方法が研究されている(例えば、非特許文献2参照)。しかし、いずれの手法も、類似パターンの誤検出は存在する。しかも、顔の向きに対応する識別器を作成するためには、複数の識別器を用意しなければならず、識別器の数に応じて誤検出は累積的に増大するという問題がある。
栗田多喜夫,田口俊晴,堀田一弘,三島健稔,「カーネル判別分析を用いた顔と顔以外の識別」、電子情報通信学会パターン認識・メディア理解研究会,Vol.PRMU2001−208,pp.17−24,2002.1 勞世≡,山下隆義,岡本卓也,川出雅人,“高速全方向顔検出”,電子情報通信学会 画像の認識・理解シンポジウム(MIRU2004),pp.271−276,2004年7月
On the other hand, as a high-speed pattern recognition method, an AdaBoost learning method and a method using a cascade structure detector using a Haar type feature amount have been studied (for example, see Non-Patent Document 2). However, both methods have false detection of similar patterns. Moreover, in order to create a discriminator corresponding to the orientation of the face, a plurality of discriminators must be prepared, and there is a problem that erroneous detection increases cumulatively according to the number of discriminators.
Takio Kurita, Toshiharu Taguchi, Kazuhiro Hotta, Kengo Mishima, “Identification of Faces and Faces Using Kernel Discriminant Analysis”, IEICE Pattern Recognition and Media Understanding Study Group, Vol. PRMU 2001-208, pp. 17-24, 2002.1 Sayo ≡, Takayoshi Yamashita, Takuya Okamoto, Masato Kawade, “Fast Omnidirectional Face Detection”, IEICE Image Recognition and Understanding Symposium (MIRU 2004), pp. 271-276, July 2004

上記のように、ユーザが、人物の有無、人数、撮影環境、撮像機器によらず、任意に撮影した画像群中から、必ずしも正面向きでない人物の顔を検出しようとする場合、処理速度や誤検出が問題となっていた。   As described above, when a user tries to detect a face of a person who is not necessarily front-facing from a group of images arbitrarily taken regardless of the presence / absence of a person, the number of people, a shooting environment, and an imaging device, Detection was a problem.

本発明の目的は、ユーザが撮影した画像中から、人物の顔を高速に検出することができる顔検出技術、及び人物の顔を精度よく検出することができる顔検出技術を提供することにある。   An object of the present invention is to provide a face detection technique capable of detecting a human face at high speed from an image taken by a user, and a face detection technique capable of accurately detecting a human face. .

そこで、上記課題を解決するために、請求項1に記載の発明は、画像から人物の顔を検出する顔検出装置であって、撮影画像を入力する画像入力部と、前記画像に対して空間周波数フィルタリングを局所的に行い、顔領域候補を抽出する顔領域候補抽出部と、前記抽出した顔領域候補に顔が含まれるかを、前記顔領域候補抽出とは異なる特徴量を用いて判定する顔領域判定部と、前記顔領域判定部における判定結果に基づいて、検出した顔領域を出力する検出結果出力部と、を有することを特徴とする。   Accordingly, in order to solve the above problem, the invention according to claim 1 is a face detection device for detecting a human face from an image, an image input unit for inputting a captured image, and a space for the image. A face area candidate extraction unit that performs frequency filtering locally and extracts face area candidates, and determines whether a face is included in the extracted face area candidates using a feature amount different from the face area candidate extraction. And a detection result output unit that outputs a detected face region based on a determination result in the face region determination unit.

また、請求項2に記載の発明は、前記顔領域候補抽出部は、前記画像入力部に入力した画像のスケールを変換する画像スケール変換部と、前記スケール変換画像から検出対象である部分領域を切り出す対象領域切出部と、前記部分領域の空間周波数を分析する空間周波数分析部と、前記空間周波数分析結果に基づいて前記部分領域が顔領域候補となり得るかを判断する顔候補判定部と、前記入力した画像に対して候補と判断された顔領域、及びスケールを含む顔領域候補情報を付与して記憶する顔候補情報記憶部と、を有することを特徴とする。   The face area candidate extraction unit may include an image scale conversion unit that converts a scale of an image input to the image input unit, and a partial region that is a detection target from the scale conversion image. A target region cutout unit to be cut out, a spatial frequency analysis unit that analyzes a spatial frequency of the partial region, a face candidate determination unit that determines whether the partial region can be a face region candidate based on the spatial frequency analysis result, And a face candidate information storage unit that stores face areas determined to be candidates for the input image and face area candidate information including a scale.

また、請求項3に記載の発明は、前記顔領域判定部は、顔と非顔とを学習して得る顔度算出辞書を読み込む辞書読込部と、前記顔領域候補抽出部にて算出された顔領域候補情報が付与された画像に対して当該顔領域候補情報に基づいて処理対象となる部分領域を切り出す対象領域切出部と、前記顔度算出辞書を参照して対象領域の顔度を算出する顔度算出部と、前記顔度に基づいて対象領域が顔か非顔かを判定する顔非顔判定部と、各顔領域候補に対して判定結果を記憶する判定結果記憶部と、を有することを特徴とする。   In the invention according to claim 3, the face area determination unit is calculated by a dictionary reading unit that reads a face degree calculation dictionary obtained by learning a face and a non-face, and the face area candidate extraction unit. A target area cutout unit that cuts out a partial area to be processed based on the face area candidate information with respect to the image to which the face area candidate information is assigned, and the face degree of the target area by referring to the face degree calculation dictionary A face calculation unit for calculating, a face non-face determination unit that determines whether the target region is a face or a non-face based on the face degree, a determination result storage unit that stores a determination result for each face region candidate, It is characterized by having.

また、請求項4に記載の発明は、前記顔領域判定部は、顔領域の一部を顔とし、それ以外を非顔として学習し、生成した識別器を用いて顔と非顔との判定を行うことを特徴とする。   Further, in the invention according to claim 4, the face area determination unit learns a part of the face area as a face and the other as a non-face, and determines a face and a non-face using the generated discriminator. It is characterized by performing.

また、請求項5に記載の発明は、前記顔領域判定部は、顔と非顔とを判定する識別器に、サポートベクターマシンを用いること、を特徴とする。   Further, the invention according to claim 5 is characterized in that the face area determination unit uses a support vector machine as a discriminator for determining a face and a non-face.

また、請求項6に記載の発明は、画像から人物の顔を検出する顔検出装置における顔検出方法であって、画像入力部が、撮影画像を入力する画像入力ステップと、顔領域候補抽出部が、前記画像に対して空間周波数フィルタリングを局所的に行い、顔領域候補を抽出する顔領域候補抽出ステップと、顔領域判定部が、前記抽出した顔領域候補に顔が含まれるかを、前記顔領域候補抽出とは異なる特徴量を用いて判定する顔領域判定ステップと、検出結果出力部が、前記顔領域判定部における判定結果に基づいて、検出した顔領域を出力する検出結果出力ステップと、を有することを特徴とする。   According to a sixth aspect of the present invention, there is provided a face detection method in a face detection device for detecting a human face from an image, wherein the image input unit inputs an image input step of inputting a photographed image, and a face region candidate extraction unit. Is a face region candidate extraction step that performs spatial frequency filtering on the image locally to extract a face region candidate, and a face region determination unit determines whether the extracted face region candidate includes a face. A face area determination step that uses a feature amount different from the face area candidate extraction, and a detection result output step in which the detection result output unit outputs the detected face area based on the determination result in the face area determination unit; It is characterized by having.

また、請求項7に記載の発明は、前記顔領域候補抽出ステップは、画像スケール変換部が、前記画像入力部に入力した画像のスケールを変換する画像スケール変換ステップと、対象領域切出部が、前記スケール変換画像から検出対象である部分領域を切り出す対象領域切出ステップと、空間周波数分析部が、前記部分領域の空間周波数を分析する空間周波数分析ステップと、顔候補判定部、前記空間周波数分析結果に基づいて前記部分領域が顔領域候補となり得るかを判断する顔候補判定ステップと、顔候補情報記憶部が、前記入力した画像に対して候補と判断された顔領域、及びスケールを含む顔領域候補情報を付与して記憶する顔候補情報記憶ステップと、を有することを特徴とする。   In the invention according to claim 7, the face area candidate extraction step includes: an image scale conversion step in which an image scale conversion unit converts a scale of an image input to the image input unit; and a target region extraction unit. A target region cutting step of cutting out a partial region that is a detection target from the scale-converted image, a spatial frequency analyzing unit that analyzes a spatial frequency of the partial region, a face candidate determining unit, and the spatial frequency A face candidate determination step for determining whether the partial area can be a face area candidate based on an analysis result, and a face candidate information storage unit includes a face area determined as a candidate for the input image, and a scale A face candidate information storing step for storing face area candidate information and storing the face area candidate information.

また、請求項8に記載の発明は、前記顔領域判定ステップは、辞書読込部が、顔と非顔とを学習して得る顔度算出辞書を読み込む辞書読込ステップと、対象領域切出部が、前記顔領域候補抽出部にて算出された顔領域候補情報が付与された画像に対して当該顔領域候補情報に基づいて処理対象となる部分領域を切り出す対象領域切出ステップと、顔度算出部が、前記顔度算出辞書を参照して対象領域の顔度を算出する顔度算出ステップと、顔非顔判定部が、前記顔度に基づいて対象領域が顔か非顔かを判定する顔非顔判定ステップと、判定結果記憶部が、各顔領域候補に対して判定結果を記憶する判定結果記憶ステップと、を有することを特徴とする。   In the invention according to claim 8, the face area determination step includes a dictionary reading step in which the dictionary reading unit reads a face degree calculation dictionary obtained by learning a face and a non-face, and a target area cutting unit includes A target area cutting step of cutting out a partial area to be processed based on the face area candidate information from the image to which the face area candidate information calculated by the face area candidate extraction unit is added; A face degree calculating step for calculating a face degree of the target area with reference to the face degree calculation dictionary, and a face non-face determining unit for determining whether the target area is a face or a non-face based on the face degree The face non-face determination step and the determination result storage unit include a determination result storage step of storing a determination result for each face area candidate.

また、請求項9に記載の発明は、前記顔領域判定ステップは、顔領域の一部を顔とし、それ以外を非顔として学習し、生成した識別器を用いて顔と非顔との判定を行うことを特徴とする。   In the invention according to claim 9, in the face region determination step, a part of the face region is learned as a face and the other is learned as a non-face, and the determination of a face and a non-face is performed using the generated discriminator. It is characterized by performing.

また、請求項10に記載の発明は、上記の請求項1〜9いずれか1項に記載の顔検出装置又は顔検出方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とする。   The invention described in claim 10 is characterized in that the face detection device or the face detection method described in any one of claims 1 to 9 is described in a computer program and can be executed. To do.

請求項1〜10に記載の発明では、顔領域候補抽出部が入力画像から顔領域候補を絞り込み、顔領域判定部がこの顔領域候補のみについて顔領域候補決定とは異なる特徴量を用いて最終的な顔検出を行う。   In the first to tenth aspects of the present invention, the face area candidate extraction unit narrows down face area candidates from the input image, and the face area determination unit uses only feature values different from the face area candidate determination for the face area candidates. Face detection.

請求項1〜10に記載の発明によれば、顔領域候補のみについて顔領域候補決定とは異なる特徴量を用いて最終的な顔検出を行うので、高速、かつ高精度に顔を検出することが可能となる。   According to the first to tenth aspects of the present invention, since the final face detection is performed using only the face area candidate using the feature amount different from the face area candidate determination, the face can be detected at high speed and with high accuracy. Is possible.

また、請求項4及び9に記載の発明によれば、顔の部分領域を対象とする識別器を用いるので、1つの識別器で広範囲な向きの顔検出が可能となり、識別器数を増大させることによる誤検出を生じない。   Further, according to the inventions according to claims 4 and 9, since the classifier targeting the partial region of the face is used, it is possible to detect a face in a wide range of directions with one classifier and increase the number of classifiers. Will not cause false detection.

以下、本発明の実施形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明による顔検出装置の構成の概略を示す図である。図1に示すように、顔検出装置は、画像入力部11、顔領域候補抽出部12、顔領域判定部13、及び検出結果出力部14から構成される。   FIG. 1 is a diagram showing a schematic configuration of a face detection apparatus according to the present invention. As shown in FIG. 1, the face detection apparatus includes an image input unit 11, a face region candidate extraction unit 12, a face region determination unit 13, and a detection result output unit 14.

画像入力部11では、撮影された画像を取得する。   The image input unit 11 acquires a captured image.

顔領域候補抽出部12では、入力画像のスケール変換を行い、各スケールの画像中から部分領域を切り出して空間周波数分析を行うことによって、画像中から顔である可能性が高い領域を抽出する。   The face area candidate extraction unit 12 performs scale conversion of the input image, extracts partial areas from the images of each scale and performs spatial frequency analysis, thereby extracting an area that is highly likely to be a face from the image.

顔領域判定部13では、顔領域候補となった領域で詳細な顔検出を行う。具体的には、顔領域候補内の一部を部分領域として切り出し、顔度を算出することによって、領域内の顔の有無判定を行う。   The face area determination unit 13 performs detailed face detection in an area that is a face area candidate. Specifically, a part of the face area candidate is cut out as a partial area, and the face degree is calculated by calculating the facial degree.

検出結果出力部14では、顔領域判定部による判定結果に基づき、入力画像に顔領域に関する情報を付与し、出力する。   The detection result output unit 14 assigns and outputs information related to the face area to the input image based on the determination result by the face area determination unit.

図2は、顔領域候補抽出部12の構成を示す図である。この図2を用いて顔領域候補抽出部12について説明する。図2に示すように、顔領域候補抽出部12は、画像スケール変換部21、検出対象領域切出部22、空間周波数分析部23、顔候補判定部24、及び顔候補情報記憶部25から構成される。   FIG. 2 is a diagram illustrating a configuration of the face area candidate extraction unit 12. The face area candidate extraction unit 12 will be described with reference to FIG. As shown in FIG. 2, the face area candidate extraction unit 12 includes an image scale conversion unit 21, a detection target region extraction unit 22, a spatial frequency analysis unit 23, a face candidate determination unit 24, and a face candidate information storage unit 25. Is done.

画像スケール変換部21では、画像入力部11に入力された画像のスケール変換を行う。ここで、最小画像サイズ、及びスケール変換幅はあらかじめ設定されているものとする。スケールごとに顔領域候補を探索し、全てのスケールでの探索終了時に顔領域候補抽出部12での処理が終了となる。   The image scale conversion unit 21 performs scale conversion of the image input to the image input unit 11. Here, it is assumed that the minimum image size and the scale conversion width are set in advance. Face area candidates are searched for each scale, and the process in the face area candidate extraction unit 12 ends when the search is completed for all scales.

検出対象領域切出部22では、スケール変換された画像から既定のサイズの領域の切り出しを行う。ただし、ここで扱う領域の形状は、任意形状であってよいものとする。   The detection target region cutout unit 22 cuts out a region having a predetermined size from the scale-converted image. However, the shape of the region handled here may be an arbitrary shape.

空間周波数分析部23では、切り出された領域に対し空間周波数フィルタリングを行う。例えば、AdaBoost学習手法、及びカスケード検出器構造をもつ、Haar型の特徴量検出による手法を用いてもよい。この手法は、文献P.Viola,M.Jones, “Rapid object Detection using a Boosted Cascade of Simple Features”, In Proc.IEEE Conf.on Computer Vision and Pattern Recognition,Kauai,USA,2001に詳しいので、詳細はここでは省略する。   The spatial frequency analysis unit 23 performs spatial frequency filtering on the cut out region. For example, an AdaBoost learning method and a Haar type feature amount detection method having a cascade detector structure may be used. This technique is described in the literature P.A. Viola, M .; Jones, “Rapid object Detection using a Boosted Cascade of Simple Features”, In Proc. IEEE Conf. on Computer Vision and Pattern Recognition, Kauai, USA, 2001, the details are omitted here.

顔候補判定部24では、空間周波数分析部23の出力値をもとに、領域が顔領域候補となり得るかを判定する。   The face candidate determination unit 24 determines whether the region can be a face region candidate based on the output value of the spatial frequency analysis unit 23.

顔候補情報記憶部25では、顔領域候補及び候補検出時のスケールを記憶する。   The face candidate information storage unit 25 stores face area candidates and a scale at the time of candidate detection.

図3は、顔領域判定部13の構成を示す図である。この図3を用いて顔領域判定部13について説明する。図3に示すように、顔領域判定部13は、顔度算出辞書31、辞書読み込み部32、対象領域切出部33、顔度算出部34、顔非顔判定部35、及び判定結果記憶部36から構成される。   FIG. 3 is a diagram illustrating a configuration of the face area determination unit 13. The face area determination unit 13 will be described with reference to FIG. As shown in FIG. 3, the face area determination unit 13 includes a face degree calculation dictionary 31, a dictionary reading part 32, a target area cutout part 33, a face degree calculation part 34, a face non-face determination part 35, and a determination result storage part. 36.

顔情報の詳細を見るための顔度算出辞書31は、あらかじめ作成してあるものとする。顔度算出辞書31は、作成時に学習判別手法としてサポートベクターマシンなどを用い、既定のサイズの領域に限定した顔(以下、部分顔と記載)と非顔とを学習し、作成するものとする。顔と非顔との学習判別にはサポートベクターマシンなどの学習判別手法を用いる。この手法は、文献”「サポートベクターマシン〜基本的仕組みと最近の発展」数理科学NO.444サイエンス社,JUNE 2000 赤穂ら”に詳しいので、詳細はここでは省略する。   It is assumed that a face degree calculation dictionary 31 for viewing details of face information is created in advance. The face degree calculation dictionary 31 uses a support vector machine or the like as a learning discrimination method at the time of creation, and learns and creates a face (hereinafter referred to as a partial face) limited to a predetermined size area and a non-face. . A learning discrimination method such as a support vector machine is used for learning discrimination between a face and a non-face. This method is described in the literature "" Support Vector Machines-Basic Mechanism and Recent Development "Mathematical Sciences NO. 444 Science Inc., JUNE 2000 Ako et al. ", And the details are omitted here.

顔度算出辞書31内には、顔度算出部34で使用するパラメータが含まれるものとし、顔と非顔とを判別する顔度を算出するのに必要な情報を含むものとする。すなわち、学習データをもとに、特徴空間において算出される顔クラスと非顔クラスとの識別面を定義する式の係数を含むものとし、顔度は、この式により表される識別面からの距離により算出されるものとする。   It is assumed that the face degree calculation dictionary 31 includes parameters used by the face degree calculation unit 34 and includes information necessary for calculating the face degree for discriminating between a face and a non-face. That is, based on the learning data, it includes the coefficient of the formula that defines the discrimination surface between the face class and the non-face class calculated in the feature space, and the facial degree is the distance from the discrimination surface represented by this equation It shall be calculated by.

辞書読み込み部32は、顔度算出辞書31を読み込み、顔度算出部34で用いることができるようにする。   The dictionary reading unit 32 reads the face degree calculation dictionary 31 so that the face degree calculation unit 34 can use it.

対象領域切出部33では、入力画像及び顔領域候補抽出部12で算出された顔領域候補情報に基づき、顔領域候補領域から検出対象とする部分領域の切り出しを行う。   The target area cutout unit 33 cuts out a partial area to be detected from the face area candidate area based on the input image and the face area candidate information calculated by the face area candidate extraction unit 12.

顔度算出部34は、辞書読み込み部32で読み込まれた顔度算出辞書31を参照し、対象領域切出部33で対象とした領域の顔度を算出する。   The face degree calculation unit 34 refers to the face degree calculation dictionary 31 read by the dictionary reading unit 32 and calculates the face degree of the target region by the target region cutout unit 33.

顔非顔判定部35では、顔度算出部34により算出された顔度が顔に相当するものであるか、非顔に相当するものであるかを判定する。   The face non-face determination unit 35 determines whether the face degree calculated by the face degree calculation unit 34 corresponds to a face or a non-face.

判定結果記憶部36では、顔非顔判定部35で算出された判定情報を記憶する。   The determination result storage unit 36 stores the determination information calculated by the face non-face determination unit 35.

判定結果は、検出結果出力部14において、顔検出装置からの検出結果として出力される。   The determination result is output as a detection result from the face detection device in the detection result output unit 14.

図4は、顔領域判定部13で、顔領域判定を行う際に対象領域とする部分顔の一例を示した図である。   FIG. 4 is a diagram illustrating an example of a partial face that is used as a target area when the face area determination unit 13 performs face area determination.

部分顔として、正面向きの顔の全領域を使用して辞書を作成した例を(a)に示す。この場合、検出される顔の向きは正面のみになり、横向き、上下向きの顔は検出されない。   An example in which a dictionary is created using the entire area of a face facing forward as a partial face is shown in (a). In this case, the direction of the detected face is only the front, and the face facing sideways and up and down is not detected.

部分顔として、顔の半面を使用して辞書を作成した例を(b)に示す。この場合、検出される顔の向きは正面から横向きとなり、広い角度範囲の顔が検出できる。   An example of creating a dictionary using a half face as a partial face is shown in FIG. In this case, the detected face orientation is lateral from the front, and a face in a wide angle range can be detected.

例えば、顔が回転運動をするとき、回転軸が画像平面に平行な場合には、回転により見え方の変化量が少ない領域が存在する。よって、顔の領域のうち、撮影角度により、輝度値の変動が小さい領域を使用することができる。具体的には、検出対象が顔画像である場合は、左半面の目や口の形の形状は、多少の右回転変動による変動が小さい。また、頬の輝度値を基準としたときの目や口、鼻の輝度値の大きさも変化が少ない。   For example, when the face rotates, when the rotation axis is parallel to the image plane, there is a region where the amount of change in appearance is small due to the rotation. Therefore, it is possible to use an area of the face area where the variation of the luminance value is small depending on the shooting angle. Specifically, when the detection target is a face image, the shape of the left half-face eye or mouth shape is small due to slight clockwise rotation fluctuation. In addition, the luminance values of the eyes, mouth, and nose when the luminance value of the cheek is used as a reference are little changed.

よって、目と口の位置で正規化した顔の左半面領域を切り出して、大きさや輝度分布による正規化を行い、作成したテンプレートを用いることができる。したがって、例えば正面向きから右30度までの顔を検出したい場合には、被写人物の目、鼻、口を含む左反面をその特徴としてもよい。   Therefore, it is possible to use a template created by cutting out the left half surface area of the face normalized by the position of the eyes and mouth and performing normalization by size and luminance distribution. Therefore, for example, when it is desired to detect a face from the front direction to 30 degrees to the right, the left side including the subject's eyes, nose, and mouth may be characterized.

こうした顔領域の大きさは、大きさの正規化の基準となり得る特徴点、例えば、目、眉、鼻、口の端点等の存在を調べ、共通する特徴点のみが含まれるように、決定してもよい。   The size of such a face region is determined so that only common feature points are included by examining the presence of feature points that can serve as a standard for size normalization, such as the eyes, eyebrows, nose, and mouth end points. May be.

このように、検出したい顔向き範囲にあわせて辞書を作成し、検出に使用してもよい。また、複数の辞書をあわせもち、システム利用時にユーザが用途に合わせて選択できるようにしてもよい。   In this way, a dictionary may be created according to the face orientation range desired to be detected and used for detection. Also, a plurality of dictionaries may be combined so that the user can select according to the purpose when using the system.

図5は、顔検出装置において、顔領域候補抽出を行う際の処理の流れを示す図である。図5に示すように、具体的なステップは以下の通りである。   FIG. 5 is a diagram showing a flow of processing when face area candidate extraction is performed in the face detection apparatus. As shown in FIG. 5, the specific steps are as follows.

ステップ51:画像入力部11に入力された画像の取得を行う。   Step 51: The image input to the image input unit 11 is acquired.

ステップ52:画像の縮小処理を行うスケールパラメータを初期化する。ステップ53以降の処理は、画像をスケールパラメータにしたがって縮小しながらの繰り返し処理となる。ここで、スケールパラメータの繰り返し処理ごとの更新は、あらかじめ規定された最小スケールまで、規定のステップ幅で行われるものとする。   Step 52: Initialize scale parameters for image reduction processing. The processing after step 53 is repeated processing while reducing the image according to the scale parameter. Here, it is assumed that the update for each repetitive processing of the scale parameter is performed with a predetermined step width up to a predetermined minimum scale.

ステップ53:入力画像から対象領域の切り出しを行う。   Step 53: Cut out the target area from the input image.

ステップ54:切り出された領域の空間周波数フィルタリングを行う。   Step 54: Perform spatial frequency filtering of the extracted region.

ステップ55:ステップ54の結果として得られる数値が、規定の顔領域候補となる得る閾値以上の値であれば、顔領域候補と判断し、閾値以下の値であれば、顔領域候補外とする。切り出された領域が顔領域候補である場合には、ステップ56へ進み、それ以外は、ステップ57へ進む。   Step 55: If the numerical value obtained as a result of Step 54 is a value equal to or greater than a threshold value that can be a prescribed face area candidate, it is determined as a face area candidate. . If the clipped area is a face area candidate, the process proceeds to step 56; otherwise, the process proceeds to step 57.

ステップ56:切り出された領域を顔領域候補として、画像中における位置、スケールを顔候補情報記憶部25に記憶する。   Step 56: The cut out area is set as a face area candidate, and the position and scale in the image are stored in the face candidate information storage unit 25.

ステップ57:画像中の全領域を対象領域としたかを判断。全領域を対象領域として探索を終了した場合は、ステップ58へ進み、それ以外は、ステップ53に戻り、走査式に次の領域を対象領域とする。   Step 57: Judge whether all the areas in the image are the target areas. When the search is completed with the entire area as the target area, the process proceeds to step 58, and otherwise, the process returns to step 53, and the next area is set as the target area in a scanning manner.

ステップ58:現在処理しているスケールが、入力画像に対し、最小スケールとなるものであるかを判断。最小スケールであれば処理を終了し、それ以外は、ステップ59へ進む。   Step 58: It is determined whether the currently processed scale is the minimum scale for the input image. If it is the minimum scale, the process ends. Otherwise, the process proceeds to step 59.

ステップ59:指定ステップ幅で入力画像を縮小(スケール変換)する。   Step 59: The input image is reduced (scale conversion) by the designated step width.

図6は、顔検出装置において、顔領域判定を行う際の処理の流れを示す図である。図6に示すように、具体的なステップは以下の通りである。   FIG. 6 is a diagram illustrating a flow of processing when performing face area determination in the face detection apparatus. As shown in FIG. 6, the specific steps are as follows.

ステップ61:顔度算出辞書31の読み込みを行う。   Step 61: The face degree calculation dictionary 31 is read.

ステップ62:顔領域候補抽出部12で記憶された顔領域候補の読み込みを行う。なお、一度に読み込む顔領域候補の情報は1つとし、ステップ62以下のステップは領域候補数分、繰り返し処理を行う。   Step 62: The face area candidate stored in the face area candidate extraction unit 12 is read. Note that one face area candidate information is read at a time, and the steps after step 62 are repeated for the number of area candidates.

ステップ63:顔候補情報記憶部25から顔領域候補抽出部12で候補領域を抽出したスケールを読み出すとともに、候補領域から対象領域を切り出し、読み出したスケールに変換する。   Step 63: The scale obtained by extracting the candidate area by the face area candidate extracting unit 12 is read from the face candidate information storage unit 25, and the target area is cut out from the candidate area and converted into the read scale.

ステップ64:対象領域の顔度を算出する。   Step 64: The face degree of the target area is calculated.

ステップ65:対象領域が顔領域であるかを判定する。ステップ64で算出された対象領域の顔度と、あらかじめ設定された顔度の数値との大小を比較し、対象領域の顔度の方が大きい場合は顔と判定し、小さい場合は非顔と判定する。顔と判定された場合はステップ66へ進み、それ以外は、ステップ69へ進む。   Step 65: Determine whether the target area is a face area. The face degree of the target area calculated in step 64 is compared with a preset face degree value. If the face degree of the target area is larger, it is determined as a face, and if it is smaller, it is determined as a non-face. judge. If it is determined that the face is determined, the process proceeds to step 66; otherwise, the process proceeds to step 69.

ステップ66:顔と判定された領域が、顔として判定結果記憶部36に記憶されている領域(記憶のステップはステップ67及び68)と重なりがあるかを判断し、重なりがある場合には、ステップ67へ進み、それ以外は、ステップ68へ進む。   Step 66: It is determined whether the area determined to be a face overlaps with the area stored as a face in the determination result storage unit 36 (the storage steps are Steps 67 and 68). Proceed to step 67, otherwise proceed to step 68.

ステップ67:重なりがある場合には、両領域の顔度を比較し、顔度の低い方の領域の情報を削除するとともに、顔度の大きい方の領域を顔として判定結果記憶部に記憶する(この記憶情報は、ステップ6でも使用する)。   Step 67: When there is an overlap, the facial values of both regions are compared, information on the region with the lower facial value is deleted, and the region with the higher facial value is stored as a face in the determination result storage unit. (This stored information is also used in step 6).

ステップ68:記憶された領域を顔とし、判定結果記憶部36に記憶する(この記憶情報は、ステップ66でも使用する)。   Step 68: The stored area is set as a face and stored in the determination result storage unit 36 (this stored information is also used in step 66).

ステップ69:全顔領域候補を探索したかを判断し、探索し終えた場合は、処理を終了し、それ以外の場合は、ステップ62へ進む。   Step 69: It is determined whether or not all face area candidates have been searched. If the search has been completed, the process is terminated. Otherwise, the process proceeds to Step 62.

図7は、顔検出装置の利用の一例を示す図である。図7に示すように、屋内外に設置された監視カメラの画像を入力画像とし、顔検出装置をクライアントサーバ型で利用したときの処理の流れを示す。   FIG. 7 is a diagram illustrating an example of use of the face detection apparatus. As shown in FIG. 7, the flow of processing when the image of a surveillance camera installed indoors and outdoors is used as an input image and the face detection apparatus is used in a client server type is shown.

ユーザは、設定として、入力画像に監視カメラで撮影した画像を設定する。ここで設定の仕方は、顔検出装置に直接入力するものであってもよいし、ネットワークを介して入力するものであってもよい。   As a setting, the user sets an image captured by the monitoring camera as the input image. Here, the setting method may be input directly to the face detection apparatus or input via a network.

顔検出装置では、撮影画像を入力画像として、最小スケールまでスケール変換を繰り返しながら、画像中から検出対象領域を切り出し、検出対象領域を走査させながら、顔領域候補を探索する。顔領域候補が存在した場合には、該当する領域及びスケールを記憶する。   In the face detection apparatus, a detection target area is cut out from the image while repeating the scale conversion up to the minimum scale using the captured image as an input image, and a face area candidate is searched while scanning the detection target area. If a face area candidate exists, the corresponding area and scale are stored.

次に、顔領域候補が存在した場合には、顔領域候補中から詳細検出を行うため、顔度算出辞書を読み込み、顔領域候補中の検出対象領域を切り出し、対象領域の顔度を算出し、顔度により顔と非顔を判別する。顔と判別された領域は候補領域を顔として記憶する。ここで、顔領域候補に重なりがある場合、すなわち、記憶しようとした顔領域がすでに記憶された領域と重なりをもつ場合には、両領域の顔度の大きい方を顔領域として更新記憶する。   Next, when a face area candidate exists, in order to perform detailed detection from the face area candidates, the face degree calculation dictionary is read, the detection target area in the face area candidate is cut out, and the face degree of the target area is calculated. The face and the non-face are discriminated based on the face degree. The area determined as the face stores the candidate area as a face. Here, if there is an overlap in face area candidates, that is, if the face area to be stored overlaps with an already stored area, the larger face degree of both areas is updated and stored as the face area.

顔領域候補が存在しない場合には、入力画像中に顔はないものとして結果表示する。   If no face area candidate exists, the result is displayed as if there is no face in the input image.

顔領域候補が存在し、その領域が顔と判別された場合には、その領域を顔として結果表示する。   If a face area candidate exists and the area is determined to be a face, the area is displayed as a result.

ここで、表示形態はユーザ端末にそのまま表示するのでもよいし、携帯端末や遠隔端末にネットワークを送信して提示するものでもよい。   Here, the display form may be displayed as it is on the user terminal, or may be displayed by transmitting the network to a mobile terminal or a remote terminal.

なお、上記実施形態において、顔検出装置は、例えば、顔検出装置を構成するコンピュータ装置が有するCPUによって実現され、顔領域候補抽出、顔領域判定などをアプリケーションプログラムとして搭載することができる。   In the above-described embodiment, the face detection device is realized by, for example, a CPU included in a computer device constituting the face detection device, and can include face area candidate extraction, face area determination, and the like as application programs.

また、顔領域候補抽出、顔領域判定などで行った処理結果、計算結果、当該処理に必要な情報等のデータを内部メモリや外部記憶装置等に書き込み・読み出しができるようにしてもよい。   In addition, data such as processing results obtained by face area candidate extraction, face area determination, etc., calculation results, and information necessary for the processing may be written to and read from an internal memory or an external storage device.

また、顔検出装置の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム、又は装置に供給し、そのシステム、又は装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出し実行することも可能である。この場合、記憶媒体から読み出されたプログラムコード自体が上記実施形態の機能を実現することになり、このプログラムコードを記憶した記憶媒体としては、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、及びHDD等がある。   In addition, a recording medium in which a program code of software for realizing the function of the face detection apparatus is recorded is supplied to the system or apparatus, and the CPU (MPU) of the system or apparatus reads the program code stored in the storage medium. It is also possible to execute. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and examples of the storage medium storing the program code include CD-ROM, DVD-ROM, and CD-R. , CD-RW, MO, and HDD.

顔検出装置の構成図。The block diagram of a face detection apparatus. 顔領域候補抽出部の構成図。The block diagram of a face area candidate extraction part. 顔領域判定部の構成図。The block diagram of a face area | region determination part. 顔領域判定を行う際に対象領域とする部分顔の一例を示した図。The figure which showed an example of the partial face made into a target area when performing face area determination. 顔領域候補抽出を行う際の処理の流れを示す図。The figure which shows the flow of a process at the time of performing face area candidate extraction. 顔領域判定を行う際の処理の流れを示す図。The figure which shows the flow of a process at the time of performing face area determination. 顔検出装置の利用の一例を示す図。The figure which shows an example of utilization of a face detection apparatus.

符号の説明Explanation of symbols

11…画像入力部
12…顔領域候補抽出部
13…顔領域判定部
14…検出結果出力部
21…画像スケール変換部
22…検出対象領域切出部
23…空間周波数分析部
24…顔候補判定部
25…顔候補情報記憶部
31…顔度算出辞書
32…辞書読込部
33…対象領域切出部
34…顔度算出部
35…顔非顔判定部
36…判定結果記憶部
DESCRIPTION OF SYMBOLS 11 ... Image input part 12 ... Face area candidate extraction part 13 ... Face area determination part 14 ... Detection result output part 21 ... Image scale conversion part 22 ... Detection object area | region extraction part 23 ... Spatial frequency analysis part 24 ... Face candidate determination part 25 ... Face candidate information storage unit 31 ... Facial degree calculation dictionary 32 ... Dictionary reading unit 33 ... Target area extraction unit 34 ... Facial degree calculation unit 35 ... Face non-face determination unit 36 ... Determination result storage unit

Claims (10)

画像から人物の顔を検出する顔検出装置であって、
撮影画像を入力する画像入力部と、
前記画像に対して空間周波数フィルタリングを局所的に行い、顔領域候補を抽出する顔領域候補抽出部と、
前記抽出した顔領域候補に顔が含まれるかを、前記顔領域候補抽出とは異なる特徴量を用いて判定する顔領域判定部と、
前記顔領域判定部における判定結果に基づいて、検出した顔領域を出力する検出結果出力部と、を有することを特徴とする顔検出装置。
A face detection device for detecting a human face from an image,
An image input unit for inputting a photographed image;
A facial region candidate extraction unit that locally performs spatial frequency filtering on the image and extracts facial region candidates;
A face area determination unit that determines whether a face is included in the extracted face area candidate using a feature amount different from the face area candidate extraction;
A face detection apparatus comprising: a detection result output unit that outputs a detected face region based on a determination result in the face region determination unit.
前記顔領域候補抽出部は、
前記画像入力部に入力した画像のスケールを変換する画像スケール変換部と、
前記スケール変換画像から検出対象である部分領域を切り出す対象領域切出部と、
前記部分領域の空間周波数を分析する空間周波数分析部と、
前記空間周波数分析結果に基づいて前記部分領域が顔領域候補となり得るかを判断する顔候補判定部と、
前記入力した画像に対して候補と判断された顔領域、及びスケールを含む顔領域候補情報を付与して記憶する顔候補情報記憶部と、を有することを特徴とする請求項1に記載の顔検出装置。
The face area candidate extraction unit
An image scale converter for converting the scale of the image input to the image input unit;
A target area cutout unit that cuts out a partial area that is a detection target from the scale-converted image;
A spatial frequency analysis unit for analyzing the spatial frequency of the partial region;
A face candidate determination unit that determines whether the partial region can be a face region candidate based on the spatial frequency analysis result;
The face according to claim 1, further comprising: a face area determined as a candidate for the input image, and a face candidate information storage unit that stores face area candidate information including a scale. Detection device.
前記顔領域判定部は、
顔と非顔とを学習して得る顔度算出辞書を読み込む辞書読込部と、
前記顔領域候補抽出部にて算出された顔領域候補情報が付与された画像に対して当該顔領域候補情報に基づいて処理対象となる部分領域を切り出す対象領域切出部と、
前記顔度算出辞書を参照して対象領域の顔度を算出する顔度算出部と、
前記顔度に基づいて対象領域が顔か非顔かを判定する顔非顔判定部と、
各顔領域候補に対して判定結果を記憶する判定結果記憶部と、を有することを特徴とする請求項1又は2に記載の顔検出装置。
The face area determination unit
A dictionary reading unit that reads a face degree calculation dictionary obtained by learning a face and a non-face;
A target area cutout unit that cuts out a partial area to be processed based on the face area candidate information with respect to the image to which the face area candidate information calculated by the face area candidate extraction unit is attached;
A face degree calculation unit for calculating the face degree of the target region with reference to the face degree calculation dictionary;
A face non-face determination unit that determines whether the target region is a face or a non-face based on the face degree;
The face detection apparatus according to claim 1, further comprising: a determination result storage unit that stores a determination result for each face area candidate.
前記顔領域判定部は、顔領域の一部を顔とし、それ以外を非顔として学習し、生成した識別器を用いて顔と非顔との判定を行うことを特徴とする請求項1〜3いずれかに記載の顔検出装置。   The face area determination unit learns a part of the face area as a face and the other as a non-face, and determines a face and a non-face using the generated discriminator. 3. The face detection device according to any one of 3. 前記顔領域判定部は、顔と非顔とを判定する識別器に、サポートベクターマシンを用いること、を特徴とする請求項1〜4いずれかに記載の顔検出装置。   The face detection apparatus according to claim 1, wherein the face area determination unit uses a support vector machine as a discriminator that determines a face and a non-face. 画像から人物の顔を検出する顔検出装置における顔検出方法であって、
画像入力部が、撮影画像を入力する画像入力ステップと、
顔領域候補抽出部が、前記画像に対して空間周波数フィルタリングを局所的に行い、顔領域候補を抽出する顔領域候補抽出ステップと、
顔領域判定部が、前記抽出した顔領域候補に顔が含まれるかを、前記顔領域候補抽出とは異なる特徴量を用いて判定する顔領域判定ステップと、
検出結果出力部が、前記顔領域判定部における判定結果に基づいて、検出した顔領域を出力する検出結果出力ステップと、を有することを特徴とする顔検出方法。
A face detection method in a face detection device for detecting a human face from an image,
An image input unit for inputting a photographed image;
A face area candidate extracting unit that performs spatial frequency filtering on the image locally to extract face area candidates; and
A face area determination step in which a face area determination unit determines whether a face is included in the extracted face area candidate using a feature amount different from the face area candidate extraction;
A detection result output unit, wherein the detection result output unit includes a detection result output step of outputting a detected face region based on a determination result in the face region determination unit.
前記顔領域候補抽出ステップは、
画像スケール変換部が、前記画像入力部に入力した画像のスケールを変換する画像スケール変換ステップと、
対象領域切出部が、前記スケール変換画像から検出対象である部分領域を切り出す対象領域切出ステップと、
空間周波数分析部が、前記部分領域の空間周波数を分析する空間周波数分析ステップと、
顔候補判定部、前記空間周波数分析結果に基づいて前記部分領域が顔領域候補となり得るかを判断する顔候補判定ステップと、
顔候補情報記憶部が、前記入力した画像に対して候補と判断された顔領域、及びスケールを含む顔領域候補情報を付与して記憶する顔候補情報記憶ステップと、を有することを特徴とする請求項6に記載の顔検出方法。
The face area candidate extraction step includes:
An image scale conversion unit for converting a scale of an image input to the image input unit;
A target region cutting step, wherein the target region cutting unit cuts out a partial region that is a detection target from the scale-converted image;
A spatial frequency analysis step, wherein the spatial frequency analysis unit analyzes the spatial frequency of the partial region;
A face candidate determination unit that determines whether the partial region can be a face region candidate based on the spatial frequency analysis result; and
The face candidate information storage unit includes a face candidate information storage step of adding and storing a face area determined as a candidate for the input image and face area candidate information including a scale. The face detection method according to claim 6.
前記顔領域判定ステップは、
辞書読込部が、顔と非顔とを学習して得る顔度算出辞書を読み込む辞書読込ステップと、
対象領域切出部が、前記顔領域候補抽出部にて算出された顔領域候補情報が付与された画像に対して当該顔領域候補情報に基づいて処理対象となる部分領域を切り出す対象領域切出ステップと、
顔度算出部が、前記顔度算出辞書を参照して対象領域の顔度を算出する顔度算出ステップと、
顔非顔判定部が、前記顔度に基づいて対象領域が顔か非顔かを判定する顔非顔判定ステップと、
判定結果記憶部が、各顔領域候補に対して判定結果を記憶する判定結果記憶ステップと、を有することを特徴とする請求項6又は7に記載の顔検出方法。
The face area determination step includes
A dictionary reading step in which a dictionary reading unit reads a face degree calculation dictionary obtained by learning a face and a non-face;
A target area cutout unit that cuts out a partial area to be processed based on the face area candidate information from the image to which the face area candidate information calculated by the face area candidate extraction unit is added. Steps,
A face degree calculating unit that calculates the face degree of the target region with reference to the face degree calculation dictionary;
A face non-face determination unit for determining whether the target region is a face or a non-face based on the face degree;
The face detection method according to claim 6, wherein the determination result storage unit includes a determination result storage step of storing a determination result for each face area candidate.
前記顔領域判定ステップは、顔領域の一部を顔とし、それ以外を非顔として学習し、生成した識別器を用いて顔と非顔との判定を行うことを特徴とする請求項6〜8いずれかに記載の顔検出方法。   The face region determination step includes learning a part of the face region as a face and the other as a non-face, and determining a face and a non-face using the generated discriminator. 8. The face detection method according to any one of the above. 上記の請求項1〜9いずれか1項に記載の顔検出装置又は顔検出方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とするプログラム。   A program characterized in that the face detection device or the face detection method according to any one of claims 1 to 9 described above is described in a computer program and can be executed.
JP2005114102A 2005-04-12 2005-04-12 Face detection device, face detection method, and face detection program Active JP4708835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005114102A JP4708835B2 (en) 2005-04-12 2005-04-12 Face detection device, face detection method, and face detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005114102A JP4708835B2 (en) 2005-04-12 2005-04-12 Face detection device, face detection method, and face detection program

Publications (2)

Publication Number Publication Date
JP2006293720A true JP2006293720A (en) 2006-10-26
JP4708835B2 JP4708835B2 (en) 2011-06-22

Family

ID=37414232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005114102A Active JP4708835B2 (en) 2005-04-12 2005-04-12 Face detection device, face detection method, and face detection program

Country Status (1)

Country Link
JP (1) JP4708835B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949189B2 (en) 2008-02-29 2011-05-24 Casio Computer Co., Ltd. Imaging apparatus and recording medium
JP2012038357A (en) * 2011-11-24 2012-02-23 Seiko Epson Corp Image processing apparatus
WO2013035445A1 (en) * 2011-09-09 2013-03-14 株式会社メガチップス Object detection device
JP2016502165A (en) * 2012-10-19 2016-01-21 オートリブ ディベロップメント エービー Driver attention detection method and apparatus
DE112021003723T5 (en) 2020-07-13 2023-06-22 Omron Corporation INFORMATION PROCESSING PROCEDURES, CORRECTION PROCEDURES AND PROGRAM
DE112021007212T5 (en) 2021-03-08 2024-01-04 Omron Corporation Object detection device, object detection method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949189B2 (en) 2008-02-29 2011-05-24 Casio Computer Co., Ltd. Imaging apparatus and recording medium
WO2013035445A1 (en) * 2011-09-09 2013-03-14 株式会社メガチップス Object detection device
JP2013058160A (en) * 2011-09-09 2013-03-28 Mega Chips Corp Object detection device
US9373027B2 (en) 2011-09-09 2016-06-21 Megachips Corporation Object detection device
JP2012038357A (en) * 2011-11-24 2012-02-23 Seiko Epson Corp Image processing apparatus
JP2016502165A (en) * 2012-10-19 2016-01-21 オートリブ ディベロップメント エービー Driver attention detection method and apparatus
DE112021003723T5 (en) 2020-07-13 2023-06-22 Omron Corporation INFORMATION PROCESSING PROCEDURES, CORRECTION PROCEDURES AND PROGRAM
DE112021007212T5 (en) 2021-03-08 2024-01-04 Omron Corporation Object detection device, object detection method and program

Also Published As

Publication number Publication date
JP4708835B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
US20230117712A1 (en) Feature density object classification, systems and methods
US10810423B2 (en) Iris liveness detection for mobile devices
Chakraborty et al. An overview of face liveness detection
CN106557726B (en) Face identity authentication system with silent type living body detection and method thereof
CN105512632B (en) Biopsy method and device
US20130251246A1 (en) Method and a device for training a pose classifier and an object classifier, a method and a device for object detection
JP5361524B2 (en) Pattern recognition system and pattern recognition method
JP2015207280A (en) target identification method and target identification device
JP2008146539A (en) Face authentication device
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP2014093023A (en) Object detection device, object detection method and program
JP2009230751A (en) Age estimation device
JP5241606B2 (en) Object identification device and object identification method
WO2014074959A1 (en) Real-time face detection using pixel pairs
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP6287827B2 (en) Information processing apparatus, information processing method, and program
JP4708835B2 (en) Face detection device, face detection method, and face detection program
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
JP2012068948A (en) Face attribute estimating apparatus and method therefor
JP4816874B2 (en) Parameter learning apparatus, parameter learning method, and program
US20140050404A1 (en) Combining Multiple Image Detectors
Sun et al. Dual camera based feature for face spoofing detection
KR101031369B1 (en) Apparatus for identifying face from image and method thereof
Xiong et al. Improved information maximization based face and facial feature detection from real-time video and application in a multi-modal person identification system
Dixit et al. SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People)

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090508

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090909

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20091009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110317

R150 Certificate of patent or registration of utility model

Ref document number: 4708835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350