JP2012238111A - Face image recognition device and face image recognition program - Google Patents

Face image recognition device and face image recognition program Download PDF

Info

Publication number
JP2012238111A
JP2012238111A JP2011105546A JP2011105546A JP2012238111A JP 2012238111 A JP2012238111 A JP 2012238111A JP 2011105546 A JP2011105546 A JP 2011105546A JP 2011105546 A JP2011105546 A JP 2011105546A JP 2012238111 A JP2012238111 A JP 2012238111A
Authority
JP
Japan
Prior art keywords
face
person
template
area
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011105546A
Other languages
Japanese (ja)
Other versions
JP5702663B2 (en
Inventor
Clippingdale Simon
クリピングデル サイモン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011105546A priority Critical patent/JP5702663B2/en
Publication of JP2012238111A publication Critical patent/JP2012238111A/en
Application granted granted Critical
Publication of JP5702663B2 publication Critical patent/JP5702663B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a face image recognition device and a face image recognition program capable of processing face image recognition jobs faster and performing registration work more simply.SOLUTION: A face image recognition device 20 that recognizes a face of a person in an image comprises: template storage means 24 in which person specification templates of face images of persons to be recognized keeping their eyes front and person unspecified templates of average face images facing desired orientations other than front of a lot of people are registered; face area extracting means 22 that extracts from an image a face area having a face of a person; and face recognition means 23 that extracts features of the extracted face area, compares the features of the face area and the person specification templates stored in the template storage means 24 to recognize the face of a person in the face area while tracing the orientation of a face of a person recognized in the face area by comparing the features of the face area and the person unspecified templates registered in the template storage means 24.

Description

本発明は顔画像認識装置及び顔画像認識プログラムに係り、特に映像中の人物の顔を認識する顔画像認識装置及び顔画像認識プログラムに関する。   The present invention relates to a face image recognition device and a face image recognition program, and more particularly to a face image recognition device and a face image recognition program for recognizing a human face in a video.

従来の顔画像認識手法では、認識対象となる人物の顔が複数の向きで映った画像を集めて、各顔画像から可変テンプレートを構築してデータベース(DB)に登録する。そして従来の顔画像認識手法では、入力映像中の人物の顔が映る顔領域を検出し、その顔領域から抽出した特徴を各可変テンプレートと照合して類似度を算出することにより、誰の顔であるかを認識し、各フレームに映った各顔領域に、どの向きで誰の顔が映っているかを推定していた(例えば非特許文献1及び2参照)。   In the conventional face image recognition method, images in which the faces of persons to be recognized are shown in a plurality of directions are collected, a variable template is constructed from each face image, and registered in a database (DB). In the conventional face image recognition method, a face area in which a person's face in the input video is reflected is detected, and the feature extracted from the face area is compared with each variable template to calculate the degree of similarity. And which face is reflected in each face area reflected in each frame (for example, see Non-Patent Documents 1 and 2).

図1は従来の顔画像認識システムの一例の構成図である。図1の顔画像認識システム100は顔領域検出部101、顔部品追跡部102、可変テンプレートDB103を有する構成である。顔領域検出部101は入力映像中の人物の顔が写る顔領域を検出する。入力映像から顔領域を検出する技術はOpenCVライブラリーが提供するViola−Jones系の顔検出器など、既存の技術を利用できる(例えば非特許文献3参照)。   FIG. 1 is a configuration diagram of an example of a conventional face image recognition system. The face image recognition system 100 of FIG. 1 has a configuration including a face area detection unit 101, a face part tracking unit 102, and a variable template DB 103. A face area detection unit 101 detects a face area in which a person's face is captured in the input video. As a technique for detecting a face area from an input video, an existing technique such as a Viola-Jones face detector provided by the OpenCV library can be used (for example, see Non-Patent Document 3).

顔部品追跡部102は、顔領域検出部101によって検出された顔領域の特徴を抽出し、抽出した特徴を可変テンプレートと照合することにより、誰の顔であるかを認識し、各フレームに映った各顔領域に、どの向きで誰の顔が映っているかを推定していた。   The face part tracking unit 102 extracts the features of the face area detected by the face region detection unit 101, recognizes who the face is by comparing the extracted features with a variable template, and displays it in each frame. In addition, it was estimated which face was reflected in each face area.

Simon CLIPPINGDALE,伊藤崇之,“動画像の顔検出・追跡・認識への統一されたアプローチ”,電子情報通信学会 PRMU 98−200,1999年1月.Simon CLIPPINGDALE, Takayuki Ito, “A unified approach to face detection, tracking, and recognition of moving images”, IEICE PRMU 98-200, January 1999. S.Clippingdale,M.Fujii,M.Shibata,Multimedia Databases for VideoIndexing: Toward Automatic Face Image Registration,Proc.IEEE InternationalSymposium on Multimedia 2009, pp. 639-644,2009.S. Clippingdale, M. Fujii, M. Shibata, Multimedia Databases for VideoIndexing: Toward Automatic Face Image Registration, Proc. IEEE International Symposium on Multimedia 2009, pp. 639-644, 2009. S. Clippingdale,“顔部品の実時間追跡システムの開発”,映像情報メディア学会冬季大会,2010.S. Clippingdale, “Development of Real-time Tracking System for Facial Parts”, IEICE Winter Conference, 2010.

従来の顔画像認識システム100では、入力映像の各フレームに顔領域検出の処理をかけて、検出された顔領域において可変テンプレートマッチングを初期化して、人物を認識する。従来の顔画像認識システム100では、顔の向きが正面から離れて顔領域の検出が出来なくなっても、前フレームでの可変テンプレートマッチング結果に基づいて、正面以外の向きでのテンプレートと照合して、人物の追跡と認識を続ける。   In the conventional face image recognition system 100, each frame of the input video is subjected to face area detection processing, variable template matching is initialized in the detected face area, and a person is recognized. In the conventional face image recognition system 100, even if the face direction is away from the front and the face area cannot be detected, the face image is not detected based on the variable template matching result in the previous frame. Continue tracking and recognizing people.

従来の顔画像認識システム100では正面以外の向きでも、認識対象となる人物の人数分の各向きの可変テンプレートが必要であった。したがって、図1に示す従来の顔画像認識システム100では以下のような問題点があった。   In the conventional face image recognition system 100, variable templates in each direction for the number of persons to be recognized are necessary even in directions other than the front. Therefore, the conventional face image recognition system 100 shown in FIG. 1 has the following problems.

第1の問題点として、従来の顔画像認識システム100では可変テンプレートとの照合を初期化するために、先ず入力映像中の顔でありそうな領域を顔領域として検出する必要がある。顔領域検出部101による顔領域の検出処理は入力映像のフレームの全画面をスキャンするので、計算量が大きく、時間が掛かるという問題があった。   As a first problem, in the conventional face image recognition system 100, in order to initialize collation with a variable template, it is necessary to first detect an area that is likely to be a face in the input video as a face area. Since the face area detection processing by the face area detection unit 101 scans the entire screen of the frame of the input video, there is a problem that the calculation amount is large and time is required.

第2の問題点として、従来の顔画像認識システム100では認識対象となる人物の顔が複数の向きで映った画像を集めて、各顔画像から可変テンプレートを構築してDBに登録する必要がある。しかし、認識対象となる人物の顔が複数の向きで映った画像を集めることは容易なことではない。   As a second problem, in the conventional face image recognition system 100, it is necessary to collect images in which a person's face to be recognized is reflected in a plurality of directions, construct a variable template from each face image, and register it in the DB. is there. However, it is not easy to collect images in which the faces of persons to be recognized are reflected in a plurality of directions.

第3の問題点として、従来の顔画像認識システム100では認識対象となる人物の顔が複数の向きで映った画像を集めることができたとしても、入力映像中に写っている顔の向きと、可変テンプレートDB103に登録されている顔の向きとが近ければ近いほど、照合して算出される類似度が高くなる傾向にある。   As a third problem, even if the conventional face image recognition system 100 can collect images in which a person's face to be recognized is reflected in a plurality of directions, the orientation of the face shown in the input video is determined. The closer the face orientation registered in the variable template DB 103 is, the higher the similarity calculated by collation tends to be.

それ故に、従来の顔画像認識システム100では、入力映像中に写っている人物(本人)の顔の向きに、別の人物(他人)の可変テンプレートの顔の向きが本人の可変テンプレートの顔の向きより近い場合、本人が他人として誤認識されることがあった。   Therefore, in the conventional face image recognition system 100, the orientation of the face of the variable template of another person (other person) is different from that of the face of the person's variable template in the direction of the face of the person (person) reflected in the input video. If it is closer than the direction, the person may be misrecognized as another person.

第4の問題点として、従来の顔画像認識システム100では認識対象となる人物の顔が複数の同じ向きで写った画像(一致する方向を向いた認識対象となる全人物の顔の画像)があれば第3の問題は発生しないが、複数の向きごとに認識対象となる人物の人数分の可変テンプレートがある故に、照合に必要な計算量が多いという問題があった。   As a fourth problem, in the conventional face image recognition system 100, a plurality of images of the face of a person to be recognized appear in the same direction (images of faces of all persons to be recognized in a matching direction). If there is, the third problem does not occur, but there is a problem that a large amount of calculation is required for collation because there are variable templates for the number of persons to be recognized for each of a plurality of orientations.

本発明は上記の点に鑑みなされたものであり、顔画像認識の処理の高速化及び登録作業の簡単化が可能な顔画像認識装置及び顔画像認識プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a face image recognition apparatus and a face image recognition program capable of speeding up face image recognition processing and simplifying registration work.

上記課題を解決するため、本発明は、映像中の人物の顔を認識する顔画像認識装置であって、認識対象となる人物の正面の向きの顔画像の人物特定テンプレート及び多数の人物の目標とする正面以外の向きの平均的な顔画像の人物不特定テンプレートが登録されたテンプレート格納手段と、映像から人物の顔が写っている顔領域を抽出する顔領域抽出手段と、抽出された顔領域の特徴を抽出し、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物特定テンプレートとを照合して、前記顔領域に写っている人物の顔を認識すると共に、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物不特定テンプレートとを照合して、前記顔領域に写っている前記認識した人物の顔の向きを追跡する顔認識手段とを有することを特徴とする。   In order to solve the above-mentioned problems, the present invention is a face image recognition device for recognizing a person's face in a video, and a person identification template of a face image facing the front of a person to be recognized and a number of person's targets A template storage means in which a person unspecified template of an average face image in a direction other than the front is registered, a face area extraction means for extracting a face area in which a person's face is shown from an image, and an extracted face A feature of the region is extracted, the feature of the face region is compared with the person identification template registered in the template storage means, and the face of the person in the face region is recognized, and the face region A face recognizing unit that tracks the direction of the face of the recognized person in the face region by comparing the feature with the person unspecified template registered in the template storage unit. And wherein the door.

なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。   In addition, what applied the component, expression, or arbitrary combination of the component of this invention to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.

本発明によれば、顔画像認識の処理の高速化及び登録作業の簡単化が可能な顔画像認識装置及び顔画像認識プログラムを提供することができる。   According to the present invention, it is possible to provide a face image recognition apparatus and a face image recognition program capable of speeding up the face image recognition process and simplifying the registration work.

従来の顔画像認識システムの一例の構成図である。It is a block diagram of an example of the conventional face image recognition system. PCの一例のハードウェア構成図である。It is a hardware block diagram of an example of PC. 本実施例の顔画像認識装置の一例の機能構成図である。It is a functional block diagram of an example of the face image recognition apparatus of a present Example. 肌色領域抽出の概要を示す一例の説明図である。It is explanatory drawing of an example which shows the outline | summary of skin color area | region extraction. 可変テンプレートの内容を示す一例の説明図である。It is explanatory drawing of an example which shows the content of a variable template. ある向きにおける人物不特定可変テンプレートの構築方法を示す一例の説明図である。It is explanatory drawing of an example which shows the construction method of the person unspecified variable template in a certain direction. 顔部品追跡部の一例の機能構成図である。It is a function block diagram of an example of a face component tracking part.

次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明していく。   Next, modes for carrying out the present invention will be described based on the following embodiments with reference to the drawings.

<本発明の概要>
本発明はコンピュータによる顔画像認識において、映像中の人物の顔を追跡しながら、顔画像のデータベースに登録してある人物の顔と照合して、誰の顔であるかを認識する。本発明は複数の人物と複数の顔の向きとに対応することに伴う計算量の増加及び登録作業の複雑化に対応するため、人物の顔が正面に近い向きで映ったときに顔画像のデータベースに登録してある人物の顔と照合して、誰の顔であるかを認識する。
<Outline of the present invention>
According to the present invention, in face image recognition by a computer, the face of a person in a video is tracked, and the face of the person registered in the face image database is compared to recognize who the face is. The present invention copes with the increase in the amount of calculation associated with the correspondence between a plurality of people and the orientation of a plurality of faces and the complexity of the registration work. The face of a person registered in the database is compared to recognize who the face is.

また、本発明は人物の顔が正面から離れた向きで映ったときに、特別に用意した顔テンプレート(人物不特定可変テンプレート)を使用し、顔領域を追跡して認識結果を保持する。なお、人物不特定可変テンプレートの詳細については後述するが、認識対象となる人物の人数によらず、向きごとに一つの人物不特定可変テンプレートを使用すればよいため、顔領域を追跡する為の計算量が大幅に削減される。   Further, the present invention uses a specially prepared face template (person unspecified variable template) when a person's face appears in a direction away from the front, tracks the face area, and holds the recognition result. Although details of the person unspecified variable template will be described later, it is sufficient to use one person unspecified variable template for each orientation regardless of the number of persons to be recognized. The calculation amount is greatly reduced.

このように、本発明は顔領域を追跡する為の追跡技術の計算量が、複数の人物の様々な向きの顔を認識する計算量に比べて少ないため、様々な顔の向きに対応する頑健性が高く、高速な顔画像認識の処理を実現できる。   As described above, since the calculation amount of the tracking technique for tracking the face area is smaller than the calculation amount for recognizing faces of a plurality of persons in various directions, the robustness corresponding to various face directions is achieved. High-performance face image recognition processing can be realized.

<ハードウェア構成>
本実施例の顔画像認識装置は、PCやワークステーション等により実現することができる。ここでは、本実施例の顔画像認識装置をPCにより実現する例について説明する。なお、顔画像認識装置は必ずしも一つの筐体で構成されることを示すものではない。また、本実施例の顔画像認識装置は顔画像認識システムのように複数の装置に機能を分散させる構成とすることもできる。
<Hardware configuration>
The face image recognition apparatus of the present embodiment can be realized by a PC, a workstation, or the like. Here, an example in which the face image recognition apparatus of the present embodiment is realized by a PC will be described. It should be noted that the face image recognition device does not necessarily indicate that it is composed of one housing. In addition, the face image recognition apparatus according to the present embodiment may be configured such that functions are distributed to a plurality of apparatuses like a face image recognition system.

本実施例の顔画像認識装置は例えば図2に示すようなハードウェア構成のPCにより実現される。図2はPCの一例のハードウェア構成図である。PC10はバス19で相互に接続されている入力装置11、出力装置12、記録媒体読取装置13、補助記憶装置14、主記憶装置15、演算処理装置16、インタフェース装置17を含む。   The face image recognition apparatus of this embodiment is realized by a PC having a hardware configuration as shown in FIG. FIG. 2 is a hardware configuration diagram of an example of a PC. The PC 10 includes an input device 11, an output device 12, a recording medium reading device 13, an auxiliary storage device 14, a main storage device 15, an arithmetic processing device 16, and an interface device 17 that are connected to each other via a bus 19.

入力装置11はキーボードやマウス等である。入力装置11は各種信号を入力するために用いられる。出力装置12はディスプレイ装置等である。出力装置12は各種ウィンドウやデータ等を表示するために用いられる。インタフェース装置17は、モデム,LANカード等である。インタフェース装置17は、ネットワークに接続するために用いられる。   The input device 11 is a keyboard or a mouse. The input device 11 is used for inputting various signals. The output device 12 is a display device or the like. The output device 12 is used to display various windows and data. The interface device 17 is a modem, a LAN card, or the like. The interface device 17 is used for connecting to a network.

顔画像認識装置に搭載される顔画像認識プログラムは、PC10を制御する各種プログラムの少なくとも一部である。顔画像認識プログラムは例えば記録媒体18の配布やネットワーク等からのダウンロードなどによって提供される。   The face image recognition program installed in the face image recognition device is at least a part of various programs for controlling the PC 10. The face image recognition program is provided by, for example, distribution of the recording medium 18 or downloading from a network or the like.

記録媒体18はCD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The recording medium 18 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, or a semiconductor that electrically records information, such as a ROM or flash memory. Various types of recording media such as a memory can be used.

顔画像認識プログラムを記録した記録媒体18が記録媒体読取装置13にセットされると、顔画像認識プログラムは記録媒体18から記録媒体読取装置13を介して補助記憶装置14にインストールされる。ネットワーク等からダウンロードされた顔画像認識プログラムはインタフェース装置17を介して補助記憶装置14にインストールされる。   When the recording medium 18 on which the face image recognition program is recorded is set in the recording medium reader 13, the face image recognition program is installed from the recording medium 18 to the auxiliary storage device 14 via the recording medium reader 13. The face image recognition program downloaded from the network or the like is installed in the auxiliary storage device 14 via the interface device 17.

補助記憶装置14は、インストールされた顔画像認識プログラム、必要なファイル、データ等を格納する。主記憶装置15は顔画像認識プログラムの起動時に、補助記憶装置14から顔画像認識プログラムを読み出して格納する。そして、演算処理装置16は主記憶装置15に格納された顔画像認識プログラムに従って、後述するような各種処理を実現している。   The auxiliary storage device 14 stores the installed face image recognition program, necessary files, data, and the like. The main storage device 15 reads and stores the face image recognition program from the auxiliary storage device 14 when the face image recognition program is started. The arithmetic processing unit 16 implements various processes as described later according to the face image recognition program stored in the main storage device 15.

<機能構成>
図3は本実施例の顔画像認識装置の一例の機能構成図である。図3の顔画像認識装置20は肌色領域抽出部21、顔領域検出部22、顔部品追跡部23、可変テンプレートDB24を有する構成である。
<Functional configuration>
FIG. 3 is a functional configuration diagram of an example of the face image recognition apparatus according to the present embodiment. The face image recognition apparatus 20 of FIG. 3 has a configuration including a skin color area extraction unit 21, a face area detection unit 22, a face part tracking unit 23, and a variable template DB 24.

肌色領域抽出部21は入力映像中から肌色の領域を抽出する。入力映像中から肌色の領域を抽出する処理の詳細は後述する。顔領域検出部22は肌色領域抽出部21によって抽出された肌色の領域から、人物の顔が写っている顔領域を抽出する。顔領域を抽出する技術は上記した既存の技術を利用すればよい。   The skin color area extracting unit 21 extracts a skin color area from the input video. Details of the process of extracting the skin color area from the input video will be described later. The face area detection unit 22 extracts a face area in which a person's face is shown from the skin color area extracted by the skin color area extraction unit 21. As the technique for extracting the face area, the existing technique described above may be used.

顔部品追跡部23は、顔領域検出部22によって検出された顔領域の特徴を抽出し、抽出した特徴を可変テンプレートDB24に登録した可変テンプレートと照合することにより、検出された各顔領域に、どの向きで誰の顔が映っているかを推定する。顔部品追跡部23の処理の詳細は後述する。   The face part tracking unit 23 extracts the features of the face area detected by the face region detection unit 22, and collates the extracted features with the variable template registered in the variable template DB 24. Estimate which face is reflected in which direction. Details of the processing of the face part tracking unit 23 will be described later.

なお、本実施例で利用する可変テンプレートDB24は以下のように従来の可変テンプレートDB103と異なっている。可変テンプレートDB24は正面の向きの可変テンプレート(以下、人物特定可変テンプレートという)と、正面以外の向きの可変テンプレート(以下、人物不特定可変テンプレートという)とを登録している。人物特定可変テンプレートは認識対象となる人物の正面の向きの顔画像の可変テンプレートである。人物不特定可変テンプレートは必ずしも認識対象とはならない多数の人物の目標とする向きの顔画像を集めて構築した平均的な顔画像の可変テンプレートである。   Note that the variable template DB 24 used in this embodiment is different from the conventional variable template DB 103 as follows. The variable template DB 24 registers a variable template of the front direction (hereinafter referred to as a person specific variable template) and a variable template of a direction other than the front (hereinafter referred to as a person unspecified variable template). The person specifying variable template is a variable template of a face image in the front direction of the person to be recognized. The person unspecified variable template is a variable template of an average face image constructed by collecting face images of target orientations of a large number of persons that are not necessarily recognition targets.

可変テンプレートDB24は正面以外の向きについて、認識対象となる人物の人数分の人物特定可変テンプレートを、一つの人物不特定可変テンプレートに置き換えたものである。可変テンプレートDB24の詳細は後述する。   The variable template DB 24 is obtained by replacing the person specifying variable templates corresponding to the number of persons to be recognized in one direction other than the front with one person unspecified variable template. Details of the variable template DB 24 will be described later.

顔部品追跡部23は、顔領域検出部22によって検出された顔領域の特徴を抽出し、抽出した特徴を可変テンプレートDB24に登録した人物特定可変テンプレートと照合することにより、検出された各顔領域に誰の顔が映っているかを推定し、抽出した特徴を可変テンプレートDB24に登録した人物不特定可変テンプレートと照合することにより、検出された各顔領域に、どの向きで顔が映っているかを推定する。   The face part tracking unit 23 extracts the features of the face region detected by the face region detection unit 22, and collates the extracted features with the person specifying variable template registered in the variable template DB 24, thereby detecting each detected face region. It is estimated which face is reflected in each face area by collating the extracted feature with the person unspecified variable template registered in the variable template DB 24. presume.

顔部品追跡部23は、正面に近い向きで顔が写っている顔領域と人物特定可変テンプレートとの照合により人物の認識を行い、その後、顔が正面の向きから回転して離れても、正面以外の向きで顔が写っている顔領域と人物不特定可変テンプレートとの照合により顔を追跡することで、顔領域と対応付けて人物の認識結果を保持することができる。   The face component tracking unit 23 recognizes a person by collating the face area in which the face is reflected in the direction close to the front with the person specifying variable template, and then the face is rotated even if the face is rotated away from the front. By tracking the face by comparing the face area in which the face appears in a direction other than the face and the person unspecified variable template, the recognition result of the person can be held in association with the face area.

本実施例の顔画像認識装置20は上記した第1の問題点について、顔領域を抽出する処理の対象範囲を肌色の領域に絞ることで解決する。また、本実施例の顔画像認識装置20は上記した第2〜第4の問題点について、人物不特定可変テンプレートを利用することで解決する。   The face image recognition apparatus 20 of the present embodiment solves the first problem described above by narrowing the target range of the process for extracting the face area to the skin color area. Further, the face image recognition apparatus 20 of the present embodiment solves the above second to fourth problems by using a person unspecified variable template.

<肌色領域抽出>
肌色領域抽出部21は正規化CbCr手法により入力フレームの各画素のRGB値が肌色に相当するか否かを判定する(例えば非特許文献3参照)。肌色領域抽出部21はRGB値をYCbCr空間に変換し、CbとCrとの値を式(1)により正規化する。
<Skin color area extraction>
The skin color area extraction unit 21 determines whether or not the RGB value of each pixel of the input frame corresponds to the skin color by a normalized CbCr method (see, for example, Non-Patent Document 3). The skin color region extraction unit 21 converts the RGB values into the YCbCr space, and normalizes the values of Cb and Cr by the equation (1).

Figure 2012238111
なお、Yは輝度信号である。CbはB信号から輝度信号Yを差し引いた色差信号B−Yに特定の定数を掛けた値である。また、CrはR信号から輝度信号Yを差し引いた色差信号R−Yに特定の定数を掛けた値である。
Figure 2012238111
Y is a luminance signal. Cb is a value obtained by multiplying the color difference signal BY obtained by subtracting the luminance signal Y from the B signal by a specific constant. Cr is a value obtained by multiplying the color difference signal RY obtained by subtracting the luminance signal Y from the R signal by a specific constant.

肌色領域抽出部21は、ある画素xに対応する(Cb′,Cr,′)(x)の位置が肌色代表点から一定の距離以内にあれば、式(2)に示すように、その画素xを肌色と判定する。   If the position of (Cb ′, Cr, ′) (x) corresponding to a certain pixel x is within a certain distance from the skin color representative point, the skin color region extraction unit 21 will obtain that pixel as shown in Expression (2). x is determined to be a skin color.

Figure 2012238111
肌色領域抽出部21は一般化されたメディアンフィルタにより、肌色または肌色ではないと判定され孤立した画素を除去する。以下の式(3)ではa=0.5の場合に、メディアンフィルタとなる。以下の式(3)では、aの値により少なめ又は多めに画素がON(q(x)=1)になる。
Figure 2012238111
The skin color region extraction unit 21 removes an isolated pixel that is determined not to be a skin color or skin color by a generalized median filter. In the following formula (3), a median filter is obtained when a = 0.5. In the following formula (3), the number of pixels is turned ON or less (q (x) = 1) depending on the value of a.

Figure 2012238111
肌色領域抽出部21は連接領域抽出(connected component labeling)の処理と連接領域の外周ボックスに条件(閾値)をかけることにより、安定した肌色領域を抽出する。
Figure 2012238111
The skin color area extraction unit 21 extracts a stable skin color area by applying a condition (threshold value) to a connected area labeling process and a peripheral box of the connected area.

図4は肌色領域抽出の概要を示す一例の説明図である。肌色領域抽出部21は各画素のRGB値をYCbCr空間に変換し、CbとCrとの値を式(1)により正規化して、Y=128平面に射影している。肌色領域抽出部21は、肌色代表点に近ければ画素を肌色と判定する。   FIG. 4 is an explanatory diagram of an example showing an outline of skin color region extraction. The skin color area extraction unit 21 converts the RGB value of each pixel into a YCbCr space, normalizes the values of Cb and Cr by equation (1), and projects them onto the Y = 128 plane. If the skin color area extraction unit 21 is close to the skin color representative point, the pixel is determined to be a skin color.

肌色領域抽出部21は一般化されたメディアンフィルタにより独立画素を取り除いた領域を出力する。また、肌色領域抽出部21は連接領域抽出の処理により肌色領域リストを出力する。肌色領域抽出部21はメディアンフィルタ及び連接領域抽出の処理により安定した肌色領域を抽出する。   The skin color area extraction unit 21 outputs an area from which independent pixels are removed by a generalized median filter. Further, the skin color area extracting unit 21 outputs a skin color area list by the process of extracting the connected area. The skin color area extraction unit 21 extracts a stable skin color area by a median filter and a connected area extraction process.

<可変テンプレートの構築>
従来の顔画像認識システム100で用いていた可変テンプレートは例えば図5に示すような成分を有する。図5は可変テンプレートの内容を示す一例の説明図である。従来の顔画像認識システム100で用いていた可変テンプレートは登録した顔画像において、顔の向きによって見えている最大9点の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを成分として有する。
<Construction of variable template>
The variable template used in the conventional face image recognition system 100 has components as shown in FIG. FIG. 5 is an explanatory diagram of an example showing the contents of the variable template. The variable template used in the conventional face image recognition system 100 includes, as components, the coordinates of up to nine feature points that are visible according to the orientation of the face and the Gabor wavelet features measured at each feature point in the registered face image. Have.

なお、図5では特徴点の数をNFP=9点としているが、その他の数を採用することもできる。特徴点は目頭、目尻など顔の部品に対して指定されるので顔画像の二次元的な形状を反映する。 In FIG. 5, the number of feature points is N FP = 9, but other numbers may be used. Since the feature points are specified for facial parts such as the eyes and the corners of the eyes, the two-dimensional shape of the face image is reflected.

また、図5ではガボールウェーブレット特徴が5つの解像度×8つの方位を使用しているが、その他の数を採用することもできる。ガボールウェーブレット特徴は各解像度と各方位において、特徴点の近傍に、顔画像にどの程度の信号エネルギーがあるかを表現するものであるため、画像の輝度パターンを反映する。   Also, in FIG. 5, the Gabor wavelet feature uses 5 resolutions × 8 orientations, but other numbers may be employed. The Gabor wavelet feature expresses how much signal energy is present in the face image in the vicinity of the feature point at each resolution and each orientation, and therefore reflects the luminance pattern of the image.

従来の顔画像認識システム100では、各向きに対して登録人数分(認識対象となる人物の人数分)の可変テンプレートを準備する必要があった。本発明では正面以外の向きの登録人数分の可変テンプレートを一つの人物不特定可変テンプレートに置き換える。   In the conventional face image recognition system 100, it is necessary to prepare variable templates corresponding to the number of registered persons (the number of persons to be recognized) for each direction. In the present invention, the variable templates for the registered number of persons in directions other than the front are replaced with one variable variable template.

図6は、ある向きにおける人物不特定可変テンプレートの構築方法を示す一例の説明図である。まず、ある向きにおける人物不特定可変テンプレートの構築方法では、必ずしも認証対象の人物を含まない多数の人物k,0≦k<Kの、目標とする各向きの顔画像I(x),0≦k<Kを集めて、特徴点 FIG. 6 is an explanatory diagram illustrating an example of a method for constructing a person unspecified variable template in a certain direction. First, in the construction method of the person unspecified variable template in a certain direction, face images I k (x), 0 in each target direction of a large number of persons k, 0 ≦ k <K that do not necessarily include the person to be authenticated. ≦ k <K, and feature points

Figure 2012238111
の位置(座標)を手動で指定する。各特徴点の平均位置
Figure 2012238111
Manually specify the position (coordinates). Average position of each feature point

Figure 2012238111
と各特徴点のガボールウェーブレット特徴
Figure 2012238111
And Gabor wavelet features of each feature point

Figure 2012238111
を計測する。次に、ある向きにおける人物不特定可変テンプレートの構築方法では各特徴点n,0≦n<NFPについて、各画像でその特徴点nを平均位置にずらしてアラインした平均画像A(x)を算出する。
Figure 2012238111
Measure. Next, in the method for constructing a person unspecified variable template in a certain direction, for each feature point n, 0 ≦ n <N FP , an average image A n (x) in which the feature point n is shifted to the average position in each image and aligned. Is calculated.

Figure 2012238111
次に、ある向きにおける人物不特定可変テンプレートの構築方法ではガボールウェーブレット特徴cnを、平均画像A(x)での各平均特徴点位置
Figure 2012238111
Next, in the method for constructing the person unspecified variable template in a certain direction, the Gabor wavelet feature c n is converted into each average feature point position in the average image A n (x).

Figure 2012238111
で計測する。次に、ある向きにおける人物不特定可変テンプレートの構築方法では人物kの顔画像Iと各特徴点nとで、ガボールウェーブレット特徴cnを平均画像A(x)において、各平均特徴点位置
Figure 2012238111
Measure with Next, in the method for constructing a person unspecified variable template in a certain direction, a Gabor wavelet feature c n is represented in the average image A n (x) with each face image I k of the person k and each feature point n.

Figure 2012238111
で計測する。次に、ある向きにおける人物不特定可変テンプレートの構築方法では顔画像Iと各特徴点nとで、ガボールウェーブレット特徴
Figure 2012238111
Measure with Next, in the method for constructing a person unspecified variable template in a certain direction, a Gabor wavelet feature is represented by a face image I k and each feature point n

Figure 2012238111
とcとの位相の差分より、顔画像Iの特徴点nが平均画像A(x)での平均特徴点
Figure 2012238111
Average feature point between the phase difference between c n, the face image I k feature points n is the average image A n of (x)

Figure 2012238111
から、どれだけずれているか、その位置ずれ
Figure 2012238111
The amount of deviation from the position

Figure 2012238111
を推定する。次に、ある向きにおける人物不特定可変テンプレートの構築方法では推定した位置ずれを新たに顔画像I(x)に適用して特徴点ごとに、更にずらされた平均画像を算出する。
Figure 2012238111
Is estimated. Next, in the method for constructing a person unspecified variable template in a certain direction, the estimated positional deviation is newly applied to the face image I k (x), and an average image further shifted is calculated for each feature point.

Figure 2012238111
次に、ある向きにおける人物不特定可変テンプレートの構築方法では、新たに
Figure 2012238111
Next, in the method of constructing a person unspecified variable template in a certain direction,

Figure 2012238111
において、平均特徴点位置
Figure 2012238111
Mean feature point position

Figure 2012238111
でガボールウェーブレット特徴
Figure 2012238111
With Gabor wavelet features

Figure 2012238111
を計測する。人物不特定可変テンプレートは各平均特徴点位置
Figure 2012238111
Measure. Individual unspecified variable template is the average feature point position

Figure 2012238111
とガボールウェーブレット特徴
Figure 2012238111
And Gabor wavelet features

Figure 2012238111
を有する。
Figure 2012238111
Have

次に、ある向きにおける人物不特定可変テンプレートの構築方法では、正面以外の向きの登録人数分の可変テンプレートを一つの人物不特定可変テンプレートで置き替える。正面の向きの登録人数分の可変テンプレート(人物特定可変テンプレート)は、従来の顔画像認識システム100と同様、登録人数分の可変テンプレートのままとする。   Next, in the construction method of the person unspecified variable template in a certain direction, the variable templates for the registered number of persons other than the front direction are replaced with one person unspecified variable template. As in the conventional face image recognition system 100, the variable templates for the registered number of persons in the front direction remain the same as the variable templates for the registered number of persons.

<顔部品追跡部23の構成>
図7は顔部品追跡部の一例の機能構成図である。図7の顔部品追跡部23は認識部31、追跡部32を有する構成である。
<Configuration of Facial Parts Tracking Unit 23>
FIG. 7 is a functional configuration diagram of an example of the face part tracking unit. 7 has a configuration including a recognition unit 31 and a tracking unit 32.

認識部31は顔領域検出部22によって検出された顔領域の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを抽出し、抽出した特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを可変テンプレートDB24に登録した人物特定可変テンプレートと照合することにより、検出された各顔領域に、どの向きで誰の顔が映っているかを推定する。   The recognizing unit 31 extracts the coordinates of the feature points of the face area detected by the face area detecting unit 22 and the Gabor wavelet features measured at each feature point, and the coordinates of the extracted feature points and the measured feature points are measured. By collating the Gabor wavelet feature with the person specifying variable template registered in the variable template DB 24, it is estimated which face is reflected in which direction in each detected face area.

追跡部32は顔領域検出部22によって検出された顔領域の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを抽出し、抽出した特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを可変テンプレートDB24に登録した人物不特定可変テンプレートと照合することにより、検出された各顔領域に、どの向きで顔が写っているかを追跡する。   The tracking unit 32 extracts the coordinates of the feature points of the face region detected by the face region detection unit 22 and the Gabor wavelet features measured at each feature point, and the coordinates of the extracted feature points and the feature points are measured. By collating the Gabor wavelet feature with the person unspecified variable template registered in the variable template DB 24, it is traced in which direction the face appears in each detected face area.

ところで、顔領域検出部22は肌色の領域に、正面に近い向きの顔が写っているときに顔領域として抽出する。言い換えれば顔領域検出部22によって抽出された顔領域には正面に近い向きで顔が写っていることになる。結果として、顔領域検出部22によって抽出された顔領域の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とは人物特定可変テンプレートと最もマッチングすることになる。   By the way, the face area detection unit 22 extracts a face area when a face in a direction close to the front is shown in the skin color area. In other words, the face area extracted by the face area detection unit 22 shows a face in a direction close to the front. As a result, the coordinates of the feature points of the face area extracted by the face area detection unit 22 and the Gabor wavelet features measured at each feature point most closely match the person specifying variable template.

その後、顔領域に写っている顔が正面の向きから回転して離れると、顔領域の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とは人物不特定可変テンプレートと最もマッチングすることになる。ただし、人物不特定可変テンプレートは多数の人物の顔画像を集めて構築した平均的な可変テンプレートである。そこで、人物不特定可変テンプレートと最もマッチングするとき、認識部31は既に人物特定可変テンプレートによって推定した推定(認識)結果を維持する。   After that, when the face in the face area is rotated away from the front direction, the coordinates of the feature points of the face area and the Gabor wavelet features measured at each feature point match the person unspecified variable template most. become. However, the person unspecified variable template is an average variable template constructed by collecting face images of a large number of persons. Therefore, when matching most with the person unspecified variable template, the recognition unit 31 maintains the estimation (recognition) result already estimated by the person specifying variable template.

このように、図7の顔部品追跡部23は顔領域に写っている顔が正面の向きから回転して離れても、追跡部32により顔の追跡を行い、認識部31により認識結果を維持(保持)することで、様々な顔の向きの人物を認識することを可能としている。   As described above, the face component tracking unit 23 in FIG. 7 tracks the face by the tracking unit 32 and maintains the recognition result by the recognition unit 31 even if the face shown in the face area rotates away from the front direction. (Holding) makes it possible to recognize people with various face orientations.

つまり、本実施例の顔画像認識装置20は登録人数分の可変テンプレートが無くても、正面の向きで顔が認識されれば、認識には使用できない人物不特定テンプレートにより顔の向きの追跡を行い、既に認識した認識結果を連続的に引き継いでいくことにより、様々な向きの顔画像に対して人物の認識結果を付与することができる。   In other words, the face image recognition apparatus 20 of this embodiment can track the face direction using a person unspecified template that cannot be used for recognition if the face is recognized in the front direction even if there are no variable templates for the number of registered persons. The recognition result of the person can be given to the face images of various orientations by continuously taking over the already recognized recognition result.

<効果>
本実施例の顔画像認識装置20は顔領域検出部22による顔領域の検出を肌色領域抽出部21によって抽出された肌色の領域に絞ることにより、顔領域の検出の処理時間を、ほぼ(肌色の領域/画面の面積)という比率で低減できる。
<Effect>
The face image recognition apparatus 20 of the present embodiment reduces the detection time of the face area by the face area detection unit 22 to the skin color area extracted by the skin color area extraction unit 21, thereby reducing the processing time of the face area detection to almost (skin color). Area / screen area).

また、本実施例の顔画像認識装置20は以前の顔画像認識システム100と比べて顔部品追跡部23の計算量を大幅に省くことができる。顔部品追跡部23の計算量は、正面以外の向きで顔が写っているとき、ほぼ(1/登録人数)に低減できる。   Further, the face image recognition apparatus 20 of the present embodiment can greatly reduce the calculation amount of the face part tracking unit 23 as compared with the previous face image recognition system 100. The calculation amount of the face part tracking unit 23 can be reduced to almost (1 / registered number of people) when the face is shown in a direction other than the front.

また、本実施例の顔画像認識装置20は認識対象となる人物の顔が正面の向きで映った画像を集めればよいため、可変テンプレートDB24の登録作業が依然の顔画像認識システム100と比べて大幅に簡単化できる。   Further, since the face image recognition apparatus 20 of the present embodiment only has to collect images in which the faces of the person to be recognized are reflected in the front direction, the registration work of the variable template DB 24 is compared with the face image recognition system 100 that is still used. It can be greatly simplified.

また、本実施例の顔画像認識装置20の可変テンプレートDB24は正面以外の向きについて、認識対象となる人物の人数分の人物特定可変テンプレートを一つの人物不特定可変テンプレートに置き換えているため、上記した第3の問題点が発生しない。つまり、本実施例の顔画像認識装置20は可変テンプレートDB24の作りによる性能差を少なくできる。   Further, since the variable template DB 24 of the face image recognition apparatus 20 of the present embodiment replaces the person specifying variable templates for the number of persons to be recognized with respect to the direction other than the front, the variable template DB 24 is replaced with one person unspecified variable template. The third problem does not occur. That is, the face image recognition apparatus 20 of the present embodiment can reduce the performance difference due to the creation of the variable template DB 24.

本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。なお、特許請求の範囲に記載したテンプレート格納手段は可変テンプレートDB24に相当し、顔領域抽出手段は顔領域検出部22に相当し、顔認識手段は顔部品追跡部23に相当し、肌色領域抽出手段は肌色領域抽出部21に相当し、認識手段は認識部31に相当し、追跡手段は追跡部32に相当し、人物特定テンプレートは人物特定可変テンプレートに相当し、人物不特定テンプレートは人物不特定可変テンプレートに相当する。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. The template storage means described in the claims corresponds to the variable template DB 24, the face area extraction means corresponds to the face area detection section 22, the face recognition means corresponds to the face part tracking section 23, and the skin color area extraction. The means corresponds to the skin color area extraction unit 21, the recognition means corresponds to the recognition unit 31, the tracking means corresponds to the tracking unit 32, the person specifying template corresponds to the person specifying variable template, and the person unspecified template It corresponds to a specific variable template.

10 PC
11 入力装置
12 出力装置
13 記録媒体読取装置
14 補助記憶装置
15 主記憶装置
16 演算処理装置
17 インタフェース装置
18 記録媒体
19 バス
20 顔画像認識装置
21 肌色領域抽出部
100 顔画像認識システム
22、101 顔領域検出部
23、102 顔部品追跡部
24、103 可変テンプレートDB
31 認識部
32 追跡部
10 PC
DESCRIPTION OF SYMBOLS 11 Input device 12 Output device 13 Recording medium reading device 14 Auxiliary storage device 15 Main storage device 16 Arithmetic processing device 17 Interface device 18 Recording medium 19 Bus 20 Face image recognition device 21 Skin color area extraction unit 100 Face image recognition system 22, 101 Face Area detection unit 23, 102 Face component tracking unit 24, 103 Variable template DB
31 recognition unit 32 tracking unit

Claims (5)

映像中の人物の顔を認識する顔画像認識装置であって、
認識対象となる人物の正面の向きの顔画像の人物特定テンプレート及び多数の人物の目標とする正面以外の向きの平均的な顔画像の人物不特定テンプレートが登録されたテンプレート格納手段と、
映像から人物の顔が写っている顔領域を抽出する顔領域抽出手段と、
抽出された顔領域の特徴を抽出し、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物特定テンプレートとを照合して、前記顔領域に写っている人物の顔を認識すると共に、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物不特定テンプレートとを照合して、前記顔領域に写っている前記認識した人物の顔の向きを追跡する顔認識手段と
を有することを特徴とする顔画像認識装置。
A face image recognition device for recognizing a person's face in a video,
A template storage unit in which a person identification template of a face image in the front direction of a person to be recognized and a person unspecified template of an average face image in a direction other than the front of a number of persons are registered;
A face area extracting means for extracting a face area in which a person's face is reflected from an image;
Extracting the features of the extracted face area, comparing the features of the face area with the person identification template registered in the template storage means, and recognizing the face of a person appearing in the face area; Face recognition means for tracking the orientation of the face of the recognized person in the face area by comparing the feature of the face area with the person unspecified template registered in the template storage means. A face image recognition device characterized by the above.
映像から肌色領域を抽出する肌色領域抽出手段を更に有し、
前記顔領域抽出手段は、抽出された肌色領域から前記人物の顔が写っている顔領域を抽出すること
を特徴とする請求項1記載の顔画像認識装置。
A skin color area extracting means for extracting a skin color area from the video;
2. The face image recognition apparatus according to claim 1, wherein the face area extracting unit extracts a face area in which the face of the person is reflected from the extracted skin color area.
前記顔認識手段は、前記顔領域の特徴と前記人物特定テンプレートとを照合して前記顔領域に正面の向きで写っている人物の顔を認識する認識手段と、
前記顔領域の特徴と前記人物不特定テンプレートとを照合して、前記顔領域に正面以外の向きで写っている前記認識した人物の顔の向きを追跡する追跡手段と
を有し、
前記認識手段は前記顔領域に正面以外の向きで写っている前記認識した人物の認識結果を保持すること
を特徴とする請求項1又は2記載の顔画像認識装置。
Recognizing means for recognizing a face of a person appearing in a front direction in the face area by comparing the feature of the face area with the person identification template;
Tracking means for comparing the characteristics of the face area and the person-unspecified template to track the orientation of the face of the recognized person appearing in the face area in a direction other than the front;
3. The face image recognition apparatus according to claim 1 or 2, wherein the recognition means holds a recognition result of the recognized person appearing in the face area in a direction other than the front.
前記人物特定テンプレート及び前記人物不特定テンプレートは複数の特徴点の座標と各特徴点で計測されたガボールウェーブレット特徴とを成分として有しており、
前記人物不特定テンプレートは、目標とする正面以外の向きの複数の顔画像の各特徴点について、前記顔画像で前記特徴点を平均位置にずらして調整した第1の平均画像を算出し、
前記第1の平均画像の各平均特徴点で計測されたガボールウェーブレット特徴と前記複数の顔画像の各特徴点で計測されたガボールウェーブレット特徴との位相の差分により位置ずれを推定し、
推定した位置ずれを新たに前記複数の顔画像に適用して、複数の顔画像の各特徴点について、前記特徴点ごとに更にずらされた第2の平均画像を算出し、前記第2の平均画像の各平均特徴点で計測されたガボールウェーブレット特徴を成分として有すること
を特徴とする請求項1乃至3何れか一項記載の顔画像認識装置。
The person specifying template and the person non-specific template have, as components, coordinates of a plurality of feature points and Gabor wavelet features measured at each feature point,
The person unspecified template calculates, for each feature point of a plurality of face images in a direction other than the target front, a first average image adjusted by shifting the feature point to an average position in the face image,
Estimating a positional shift by a phase difference between a Gabor wavelet feature measured at each average feature point of the first average image and a Gabor wavelet feature measured at each feature point of the plurality of face images;
The estimated positional deviation is newly applied to the plurality of face images, and for each feature point of the plurality of face images, a second average image further shifted for each feature point is calculated, and the second average image is calculated. 4. The face image recognition apparatus according to claim 1, further comprising a Gabor wavelet feature measured at each average feature point of the image as a component.
コンピュータを、
認識対象となる人物の正面の向きの顔画像の人物特定テンプレート及び多数の人物の目標とする正面以外の向きの平均的な顔画像の人物不特定テンプレートが登録されたテンプレート格納手段と、
映像から人物の顔が写っている顔領域を抽出する顔領域抽出手段と、
抽出された顔領域の特徴を抽出し、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物特定テンプレートとを照合して、前記顔領域に写っている人物の顔を認識すると共に、前記顔領域の特徴と前記テンプレート格納手段に登録された前記人物不特定テンプレートとを照合して、前記顔領域に写っている前記認識した人物の顔の向きを追跡する顔認識手段と
して機能させるための顔画像認識プログラム。
Computer
A template storage unit in which a person identification template of a face image in the front direction of a person to be recognized and a person unspecified template of an average face image in a direction other than the front of a number of persons are registered;
A face area extracting means for extracting a face area in which a person's face is reflected from an image;
Extracting the features of the extracted face area, comparing the features of the face area with the person identification template registered in the template storage means, and recognizing the face of a person appearing in the face area; To collate the feature of the face area with the person unspecified template registered in the template storage means to function as face recognition means for tracking the orientation of the face of the recognized person in the face area. Face image recognition program.
JP2011105546A 2011-05-10 2011-05-10 Face image recognition apparatus and face image recognition program Active JP5702663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105546A JP5702663B2 (en) 2011-05-10 2011-05-10 Face image recognition apparatus and face image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105546A JP5702663B2 (en) 2011-05-10 2011-05-10 Face image recognition apparatus and face image recognition program

Publications (2)

Publication Number Publication Date
JP2012238111A true JP2012238111A (en) 2012-12-06
JP5702663B2 JP5702663B2 (en) 2015-04-15

Family

ID=47460973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105546A Active JP5702663B2 (en) 2011-05-10 2011-05-10 Face image recognition apparatus and face image recognition program

Country Status (1)

Country Link
JP (1) JP5702663B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164343A (en) * 2013-02-21 2014-09-08 Ricoh Co Ltd Image processing apparatus, image processing system, and program
WO2014155922A1 (en) 2013-03-29 2014-10-02 日本電気株式会社 Target object identifying device, target object identifying method and target object identifying program
US10552713B2 (en) 2014-04-28 2020-02-04 Nec Corporation Image analysis system, image analysis method, and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034756A (en) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> Object recognition device and recording medium
JP2003346147A (en) * 2002-05-23 2003-12-05 Nippon Hoso Kyokai <Nhk> Object discriminating method, object discriminating device, object discriminating program, and recording medium having the object discriminating program recorded therein

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034756A (en) * 1999-07-21 2001-02-09 Nippon Hoso Kyokai <Nhk> Object recognition device and recording medium
JP2003346147A (en) * 2002-05-23 2003-12-05 Nippon Hoso Kyokai <Nhk> Object discriminating method, object discriminating device, object discriminating program, and recording medium having the object discriminating program recorded therein

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200600751006; タンスリヤボン スリヨン 外2名: '移動人物を対象とする多方向顔画像取得と認識' 映像情報メディア学会誌 第60巻 第7号 第60巻 第7号, 20060701, p.1085-1094, (社)映像情報メディア学会 *
JPN6014038116; タンスリヤボン スリヨン 外2名: '移動人物を対象とする多方向顔画像取得と認識' 映像情報メディア学会誌 第60巻 第7号 第60巻 第7号, 20060701, p.1085-1094, (社)映像情報メディア学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164343A (en) * 2013-02-21 2014-09-08 Ricoh Co Ltd Image processing apparatus, image processing system, and program
WO2014155922A1 (en) 2013-03-29 2014-10-02 日本電気株式会社 Target object identifying device, target object identifying method and target object identifying program
US10430666B2 (en) 2013-03-29 2019-10-01 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
US11210527B2 (en) 2013-03-29 2021-12-28 Nec Corporation Target object identifying device, target object identifying method and target object identifying program
US10552713B2 (en) 2014-04-28 2020-02-04 Nec Corporation Image analysis system, image analysis method, and storage medium
US11157778B2 (en) 2014-04-28 2021-10-26 Nec Corporation Image analysis system, image analysis method, and storage medium

Also Published As

Publication number Publication date
JP5702663B2 (en) 2015-04-15

Similar Documents

Publication Publication Date Title
Kim et al. Spatiotemporal saliency detection and its applications in static and dynamic scenes
Priesnitz et al. An overview of touchless 2D fingerprint recognition
US8824797B2 (en) Graph-based segmentation integrating visible and NIR information
US8401250B2 (en) Detecting objects of interest in still images
KR20190094352A (en) System and method for performing fingerprint based user authentication using a captured image using a mobile device
Fang et al. Efficient and robust fragments-based multiple kernels tracking
Kalas Real time face detection and tracking using OpenCV
CN111695386A (en) Fingerprint image enhancement, fingerprint identification and application program starting method
Dahmane et al. Head pose estimation based on face symmetry analysis
Piuri et al. Fingerprint biometrics via low-cost sensors and webcams
Shen et al. Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement
JP5656768B2 (en) Image feature extraction device and program thereof
Li et al. Design and learn distinctive features from pore-scale facial keypoints
Singh et al. A novel face liveness detection algorithm with multiple liveness indicators
JP5702663B2 (en) Face image recognition apparatus and face image recognition program
Zhi-fang et al. Face detection and facial feature extraction in color image
Ghadiri et al. From superpixel to human shape modelling for carried object detection
Wu et al. Facial feature extraction and applications: A review
JP6434718B2 (en) Face image recognition apparatus and face image recognition program
Lin et al. Vision-based patient identification recognition based on image content analysis and support vector machine for medical information system
Dubey et al. Echelon Based Pose Generalization of Facial Images Approaches
US7957555B2 (en) Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part
Gupta et al. HaarCascade and LBPH Algorithms in Face Recognition Analysis
Hu et al. Efficient human detection in crowded environment
Shyam et al. Automatic face recognition in digital world

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150220

R150 Certificate of patent or registration of utility model

Ref document number: 5702663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250