JP5618594B2 - Face image matching device - Google Patents

Face image matching device Download PDF

Info

Publication number
JP5618594B2
JP5618594B2 JP2010083602A JP2010083602A JP5618594B2 JP 5618594 B2 JP5618594 B2 JP 5618594B2 JP 2010083602 A JP2010083602 A JP 2010083602A JP 2010083602 A JP2010083602 A JP 2010083602A JP 5618594 B2 JP5618594 B2 JP 5618594B2
Authority
JP
Japan
Prior art keywords
face
person
registered
face image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010083602A
Other languages
Japanese (ja)
Other versions
JP2011215896A (en
Inventor
佐藤 昌宏
昌宏 佐藤
高田 直幸
直幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010083602A priority Critical patent/JP5618594B2/en
Publication of JP2011215896A publication Critical patent/JP2011215896A/en
Application granted granted Critical
Publication of JP5618594B2 publication Critical patent/JP5618594B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols

Description

本発明は、顔画像処理装置に関し、特に、複数の入力画像中の人物の顔画像を照合する顔画像照合装置に関する。   The present invention relates to a face image processing device, and more particularly to a face image matching device that matches a face image of a person in a plurality of input images.

従来、オフィスの部屋の入り口などにおいて、利用者が扉の前に立って認証装置による認証を受け、認証されると入室が許可される入退室管理システムが利用されている。この入退室管理システムでは、扉の前で入室しようとしている利用者の顔を扉の近くなどに設置された認証用カメラで撮影し、撮影した画像から抽出された入力顔画像と予めシステムに登録されている入室許可対象者の顔画像とを照合する。そして、入力顔画像の人物がシステムに登録されている入室許可対象者の登録顔画像のいずれかと一致すると、撮影された人物は、入室が許可されるべき者として認証され、扉の電気錠が解錠されるので部屋に入ることができる。   2. Description of the Related Art Conventionally, an entrance / exit management system in which a user stands in front of a door and is authenticated by an authentication device at an entrance of an office room and the like is permitted to enter the room when authenticated. In this entrance / exit management system, the face of the user who is going to enter the room in front of the door is photographed by an authentication camera installed near the door and the input face image extracted from the photographed image is registered in the system in advance. The face image of the person who is allowed to enter the room is collated. Then, if the person of the input face image matches one of the registered face images of the person permitted to enter the room registered in the system, the photographed person is authenticated as a person who should be permitted to enter the room, and the electric lock on the door is You can enter the room because it is unlocked.

ここで、顔画像同士の照合を精度良く実施するためには、顔画像に映されている人物の顔向きが互いに同じ方向を向いていることが好ましい。互いに異なる方向を向いた顔が映されている顔画像を用いて照合処理を行うと、目、鼻、口などの顔の特徴的な部位の顔画像上の形状および位置が異なっているために、照合精度が低下するおそれがある。加えて、顔向きによっては顔画像中に見えない特徴的な部位があることもあり、照合精度が一層低下するおそれがある。   Here, in order to collate face images with high accuracy, it is preferable that the faces of the persons shown in the face images are in the same direction. When collation processing is performed using face images showing faces facing different directions, the shape and position on the face image of characteristic parts of the face such as eyes, nose and mouth are different. There is a risk that collation accuracy may be lowered. In addition, depending on the face orientation, there may be a characteristic part that cannot be seen in the face image, which may further reduce the matching accuracy.

そこで、登録する複数の人物のそれぞれについて顔向きが異なる複数の登録顔画像を用意し、それぞれの顔向きの登録顔画像と入力顔画像との類似度に基づいて、最も類似する登録顔画像の人物を入力顔画像の人物であると判定する顔画像認証装置がある(特許文献1を参照)。特許文献1に開示された顔画像認証装置によれば、様々な顔向きの登録顔画像から入力顔画像と最も類似度が高い登録顔画像の人物が特定され、入力顔画像と同じ顔向きの登録顔画像が最も類似すると判定されることが期待される。   Therefore, a plurality of registered face images having different face orientations are prepared for each of a plurality of registered persons, and the most similar registered face image is determined based on the similarity between the registered face image and the input face image of each face orientation. There is a face image authentication device that determines that a person is a person of an input face image (see Patent Document 1). According to the face image authentication device disclosed in Patent Literature 1, a person of a registered face image having the highest similarity to the input face image is specified from registered face images of various face orientations, and has the same face orientation as the input face image. It is expected that the registered face image is determined to be the most similar.

また、顔画像だけでなく指紋画像など人物に関する複数の固有データを利用して、撮影した人物と登録されている人物との照合を行う顔特定装置が開示されている(特許文献2を参照)。この顔特定装置では、カメラなどで取得した顔画像および指紋画像などの特定対象の人物に関する複数の固有データと予め装置に登録されている人物に関する同様の固有データとの複数の類似度を算出し、算出した複数の類似度を統合して、特定対象の人物と登録されている人物との照合を行う。複数の類似度を統合する方法として、類似度の総和を算出する方法が記載されている。   Further, there is disclosed a face identifying device that uses a plurality of unique data related to a person such as a fingerprint image as well as a face image to collate a photographed person with a registered person (see Patent Document 2). . In this face identification device, a plurality of similarities between a plurality of unique data related to a specific target person such as a face image and a fingerprint image acquired by a camera or the like and similar specific data related to a person registered in the device in advance are calculated. Then, the calculated plurality of similarities are integrated to collate the person to be identified with the registered person. As a method for integrating a plurality of similarities, a method for calculating the sum of similarities is described.

特開2009−245338号公報JP 2009-245338 A 特開2005−242890号公報JP 2005-242890 A

しかしながら、特許文献1に記載された顔画像認証装置では、入力顔画像と、入力顔画像に映っている人物と異なる人物で入力顔画像に映っている顔向きと異なる顔向きの登録顔画像との類似度が想定以上に高くなる場合がある。このため、この顔画像認証装置は、入力顔画像の人物を他人であると誤って判定したり(他人受け入れ)、逆に本人でないと判定したり(本人棄却)して照合に失敗することがある。この照合の失敗は、顔の表情や照明の多少の変化があっても本人であると判定できるように、入力顔画像と登録顔画像との多少の違いを許容して一致すると判定するために起きると考えられる。   However, in the face image authentication device described in Patent Document 1, an input face image, a registered face image having a face orientation different from the face orientation shown in the input face image by a person different from the person appearing in the input face image, and The similarity may be higher than expected. For this reason, this face image authentication device may mistakenly determine that the person in the input face image is another person (accepting another person), or conversely, determine that the person is not the other person (reject himself / herself) and fail the verification. is there. In order to determine that this verification failure matches the input face image and the registered face image while allowing some differences so that it can be determined that the person is the person even if there is a slight change in facial expression or lighting. It is thought to happen.

一方、特許文献2に記載された顔特定装置は、顔向きを考慮しておらず、単純に各登録人物について複数の類似度の平均、総和もしくは積などを求めて、類似度の統合を行う。したがって、この顔特定装置では、入力顔画像と入力顔画像と異なる人物で異なる顔向きの登録顔画像との類似度が非常に高くなると、その非常に高い類似度が統合後の類似度に影響を及ぼすおそれがある。その結果、入力顔画像の人物と異なる人物の統合後の類似度が非常に高くなり、入力顔画像の人物を他人であると誤って判定する他人受入れや本人棄却が発生してしまうという問題がある。   On the other hand, the face identification device described in Patent Document 2 does not consider the face orientation, and simply calculates the average, sum, or product of a plurality of similarities for each registered person, and integrates the similarities. . Therefore, in this face identification device, if the similarity between the input face image and the registered face image with a different person and different face orientation becomes very high, the very high similarity affects the similarity after integration. May cause effects. As a result, the degree of similarity after integration of a person different from the person of the input face image becomes very high, and there is a problem that accepting another person who erroneously determines that the person of the input face image is another person or rejecting the person is generated. is there.

本発明の目的は、入力顔画像の照合精度を向上させた顔画像照合装置を提供することである。   An object of the present invention is to provide a face image matching device that improves the matching accuracy of an input face image.

かかる課題を解決するための本発明の一つの実施形態によれば、順次取得された複数の入力顔画像を予め登録された登録顔画像と照合する顔画像照合装置が提供される。かかる顔画像照合装置は、複数の登録人物のそれぞれについて、登録顔画像としてこの登録人物の顔向きが相互に異なる複数の顔画像を記憶する記憶部と、入力顔画像ごとに、登録顔画像との類似度を算出する類似度算出手段と、類似度が所定以上の登録顔画像に投票するとともに、複数の入力顔画像の時間的に連続する所定数分について登録顔画像ごとに投票値を集計して投票集計値を求める投票手段と、投票集計値によって複数の登録人物のいずれかを入力顔画像の人物として決定する人物決定手段と、を有する。   According to one embodiment of the present invention for solving such a problem, a face image collation device that collates a plurality of input face images acquired sequentially with a registered face image registered in advance is provided. Such a face image matching device includes, for each of a plurality of registered persons, a storage unit that stores a plurality of face images having different face orientations as registered face images, and a registered face image for each input face image. Similarity degree calculation means for calculating the similarity degree, and voting for registered face images having a similarity degree equal to or higher than a predetermined value, and for each predetermined face image, a total of the voting values for a predetermined number of temporally continuous input face images Voting means for obtaining a vote total value, and person determining means for determining one of a plurality of registered persons as a person of the input face image based on the vote total value.

かかる顔画像照合装置において、人物決定手段は、登録人物ごとの投票集計値の総和が最大の登録人物を入力顔画像の人物として決定することが好ましい。   In such a face image matching device, it is preferable that the person determining means determines a registered person having the largest sum of vote total values for each registered person as a person of the input face image.

また、かかる顔画像照合装置において、人物決定手段は、投票集計値が最大の登録人物を入力顔画像の人物として決定することが好ましい。   In the face image collating apparatus, it is preferable that the person determining means determines a registered person having the largest vote total value as a person of the input face image.

さらに、かかる顔画像照合装置において、人物決定手段は、投票手段が集計する入力顔画像の時間的に連続する所定数に基づき予め定めた照合用閾値を投票集計値が超えている登録人物を入力顔画像の人物として決定することが好ましい。   Further, in such a face image collation apparatus, the person determination means inputs a registered person whose vote count value exceeds a predetermined collation threshold based on a predetermined number of temporally continuous input face images counted by the voting means. It is preferable to determine the person of the face image.

本発明によれば、入力顔画像の照合精度を向上させた顔画像照合装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the face image collation apparatus which improved the collation precision of the input face image can be provided.

本発明の一実施例に係るウォークスルー型の入退室管理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the walk-through type entrance / exit management system which concerns on one Example of this invention. 本実施例に係る登録顔データの一例を示す図である。It is a figure which shows an example of the registration face data based on a present Example. 撮像部が歩行中の人物を時系列に撮影した複数の入力画像を示す図である。It is a figure which shows the several input image which imaged the person in which an imaging part is walking in time series. 本実施例に係る投票手段の投票処理を示す図である。It is a figure which shows the voting process of the voting means which concerns on a present Example. 人物Aの入力顔画像と人物Aの登録顔データの各登録顔画像との類似度が記憶された類似度テーブルを立体棒グラフで示す図である。It is a figure which shows the similarity table by which the similarity degree of the input face image of the person A and each registration face image of the registration face data of the person A was memorize | stored with a solid bar graph. 人物Aの入力顔画像と人物Bの登録顔データの各登録顔画像との類似度が記憶された類似度テーブルを立体棒グラフで示す図である。It is a figure which shows the similarity table by which the similarity degree of the input face image of the person A and each registration face image of the registration face data of the person B was memorize | stored with a solid bar graph. 人物Aの入力顔画像と人物Cの登録顔データの各登録顔画像との類似度が記憶された類似度テーブルを立体棒グラフで示す図である。It is a figure which shows the similarity table by which the similarity degree of the input face image of the person A and each registration face image of the registration face data of the person C was memorize | stored with a solid bar graph. 人物A〜Cの登録顔データと時刻t、t+1およびt+2における人物Aの入力顔画像および時系列投票テーブルと投票集計テーブルとの関係を示す図である。It is a figure which shows the relationship between the registration face data of person A-C, the input face image of person A in the time t, t + 1, and t + 2, the time-sequential voting table, and a vote totaling table. 本実施例に係る顔データ登録装置による登録顔データの登録処理の一例を示すフローチャートである。It is a flowchart which shows an example of the registration process of the registration face data by the face data registration apparatus which concerns on a present Example. 本実施例に係る顔照合装置による顔照合処理の一例を示すフローチャートである。It is a flowchart which shows an example of the face collation process by the face collation apparatus which concerns on a present Example.

本願の発明者は、入力顔画像と入力顔画像の人物本人の様々な顔向きの登録顔画像との類似度は、顔向きが同じ場合に最も高いが、入力顔画像の顔向きに角度が近い場合においてもある程度高いという知見を得た。さらに、他人の顔画像であっても、同じ顔向きおよびそれに角度が近い顔向きの登録顔画像との類似度はある程度高くなるという知見を得た。また、上述したように、入力顔画像と、入力顔画像に映っている人物と異なる人物で入力顔画像に映っている顔向きと異なる顔向きの登録顔画像との類似度が非常に高くなった場合においても、この高い類似度を示した登録顔画像の顔向きと異なる顔向きの登録顔画像との類似度は高くならないという知見を得た。   The inventor of the present application has the highest similarity between the input face image and the registered face image of the person himself / her in various face orientations when the face orientation is the same, but the angle of the face orientation of the input face image is the same. The knowledge that it is high to some extent even in the case of near was obtained. Furthermore, it has been found that even if it is a face image of another person, the degree of similarity with the registered face image having the same face direction and a face direction close to that is increased to some extent. In addition, as described above, the similarity between the input face image and the registered face image with a face direction different from the face direction reflected in the input face image by a person different from the person shown in the input face image becomes very high. In this case, it was found that the degree of similarity between the registered face image showing a high similarity and the registered face image having a different face orientation does not increase.

これらの知見に基づいて、本発明に係る顔画像照合装置は、登録人物ごとに複数の顔向きの登録顔画像を有する登録顔データを記憶する。かかる顔画像照合装置は、取得した入力画像ごとに、入力顔画像と登録されている各登録人物の様々な顔向きの登録顔画像との類似度を求め、この類似度に基づいて入力顔画像に類似する登録顔画像を選択し、選択した登録顔画像に対応する人物と顔向きに対して投票を行う。そして、顔画像照合装置は、投票の結果、最も多く投票された人物を入力顔画像の人物であると判定する。これにより、本発明に係る顔画像照合装置は、入力顔画像が入力顔画像の人物と全く顔向きが異なる他人の登録顔データに対して類似度が非常に高くなった場合でも、この他人を入力顔画像の人物であると誤って判定するのを防止することができ、顔照合の照合精度を向上させることができる。   Based on these findings, the face image matching device according to the present invention stores registered face data having a plurality of registered face images for each registered person. For each acquired input image, the face image matching device obtains a similarity between the input face image and the registered face images of various registered faces of each registered person, and the input face image is based on the similarity. A registered face image similar to is selected, and a vote is performed for the person and face direction corresponding to the selected registered face image. Then, the face image collation device determines that the person who has voted the most as a result of voting is the person of the input face image. As a result, the face image collation device according to the present invention can detect the other person even if the input face image has a very high degree of similarity to the registered face data of another person whose face direction is completely different from the person of the input face image. It is possible to prevent the input face image from being erroneously determined as a person, and to improve face matching accuracy.

本発明に係る顔画像照合装置は、特に、利用者が認証のためにゲートなどの入り口の前で立ち止まらなくても、歩行中の利用者を入り口の天井付近に設置した認証用カメラなどで自動的に連写し、撮影された利用者の複数の顔画像を用いて顔認証を行う「ウォークスルー」型の入退室管理システムの顔照合装置に適用可能である。ウォークスルー型の入退室管理システムでは、利用者は、例えば、廊下の天井付近に設置された認証用カメラの撮影領域を通過するだけで、いわゆるウォークスルーで認証されて入室を許可されることが可能となる。このため、利用者は、入り口付近の認証用カメラの前で一旦立ち止まり、正面方向などの予め決められた方向に顔を向ける必要がないので、ウォークスルー型の入退室管理システムは、利用者に非常に高い利便性をもたらす。このようなウォークスルー型の入退室管理システムでは、カメラの撮影領域を通過する利用者の時間と共に刻々と顔向きが変わる複数の画像が撮影されるので、本発明に係る顔画像照合装置は、顔向きの異なる複数の入力顔画像とシステムに予め登録されている顔向きの異なる複数の登録顔画像との類似度に基づいて、上述したように顔照合を行うことができる。   In particular, the face image matching device according to the present invention is automatically operated by an authentication camera installed near the ceiling of the entrance, even if the user does not stop in front of an entrance such as a gate for authentication. The present invention is applicable to a face collation device of a “walk-through” type entrance / exit management system that performs continuous face-to-face shooting and performs face authentication using a plurality of photographed user's face images. In a walk-through type entrance / exit management system, a user can be authenticated by a so-called walk-through and permitted to enter a room, for example, only by passing through the imaging area of an authentication camera installed near the ceiling of a corridor. It becomes possible. For this reason, the user does not have to stop in front of the authentication camera near the entrance and face the camera in a predetermined direction such as the front direction. Bring very high convenience. In such a walk-through type entrance / exit management system, since a plurality of images whose face orientation changes every moment with the time of the user passing through the imaging area of the camera, the face image matching device according to the present invention is Face matching can be performed as described above based on the similarity between a plurality of input face images with different face orientations and a plurality of registered face images with different face orientations registered in the system in advance.

以下、本発明に係る顔画像照合装置をウォークスルー型の入退室管理システムの顔照合装置に適用した一実施例について、図を参照しつつ説明する。   Hereinafter, an embodiment in which a face image matching device according to the present invention is applied to a face matching device of a walk-through type entrance / exit management system will be described with reference to the drawings.

図1は、本発明の一実施例に係るウォークスルー型の入退室管理システム1の構成を示すブロック図である。図1に示すように、かかるウォークスルー型の入退室管理システム1は、撮像部10および30と、顔データ登録装置20と、顔照合装置40と、顔照合結果処理部50と、を有する。撮像部10と顔データ登録装置20、撮像部30と顔照合装置40、顔データ登録装置20と顔照合装置40および顔照合装置40と顔照合結果処理部50の間は、それぞれ、種々の形式の通信ケーブルもしくは内部配線などの有線通信、あるいは、電波もしくは赤外線などの無線通信によって接続することができる。   FIG. 1 is a block diagram showing a configuration of a walk-through type entrance / exit management system 1 according to an embodiment of the present invention. As shown in FIG. 1, the walk-through type entrance / exit management system 1 includes imaging units 10 and 30, a face data registration device 20, a face matching device 40, and a face matching result processing unit 50. The image capturing unit 10 and the face data registration device 20, the image capturing unit 30 and the face collation device 40, the face data registration device 20 and the face collation device 40, and the face collation device 40 and the face collation result processing unit 50 are in various formats. Can be connected by wired communication such as a communication cable or internal wiring, or wireless communication such as radio waves or infrared rays.

撮像部10は、例えば、CCD素子もしくはC−MOS素子などの撮像素子、光学系部品、A/D変換器などを含む公知のカメラを用いることができる。このカメラは、近赤外波長帯に感度を有する白黒タイプでもよいが、肌色部分の抽出が容易になるよう可視光波長帯に感度を有するカラータイプが好ましい。また、カメラの解像度などの精度は、顔データ登録装置20および顔照合装置40の記憶容量、処理能力、顔照合装置40が所望する顔照合の精度などに応じて適切なものを用いることができる。さらに、登録用画像は、多階調の画素値で表されるカラー画像でもグレースケール画像でもよいが、8ビット程度の輝度分解能を持つカラー画像が好ましい。   As the imaging unit 10, for example, a known camera including an imaging element such as a CCD element or a C-MOS element, an optical system component, an A / D converter, and the like can be used. This camera may be a black and white type having sensitivity in the near-infrared wavelength band, but is preferably a color type having sensitivity in the visible light wavelength band so that the skin color portion can be easily extracted. Further, the accuracy such as the resolution of the camera can be used in accordance with the storage capacity and processing capability of the face data registration device 20 and the face matching device 40, the accuracy of face matching desired by the face matching device 40, and the like. . Furthermore, the registration image may be a color image or a gray scale image represented by multi-tone pixel values, but a color image having a luminance resolution of about 8 bits is preferable.

撮像部10は、入室が許可される社員などの入室許可対象者を撮影し、得られた2次元画像データを顔データ登録装置20が登録する登録人物の登録用画像として通信などを介して顔データ登録装置20に送る。   The imaging unit 10 photographs a person who is permitted to enter a room, such as an employee permitted to enter the room, and uses the obtained two-dimensional image data as a registered person registration image to be registered by the face data registration device 20 via a communication or the like. The data is sent to the data registration device 20.

顔データ登録装置20は、例えば、いわゆるコンピュータなどの情報処理装置によって構成することができる。顔データ登録装置20は、撮像部10から受け取った登録人物の登録用画像を用いて、登録人物の様々な顔向きの登録顔画像を有する登録顔データと顔向きに関する角度情報を生成する。そして顔データ登録装置20は、生成した登録顔データおよび角度情報をCD−ROM、DVD−R/Wおよび/もしくはフラッシュメモリなどのコンピュータ読み取り可能な記憶媒体あるいは通信などを介して顔照合装置40に登録することができる。   The face data registration device 20 can be configured by an information processing device such as a so-called computer, for example. The face data registration device 20 uses the registration image of the registered person received from the imaging unit 10 to generate registered face data having registered face images of various faces of the registered person and angle information regarding the face direction. Then, the face data registration device 20 sends the generated registered face data and angle information to the face collation device 40 via a computer-readable storage medium such as a CD-ROM, DVD-R / W and / or flash memory or communication. You can register.

図1に示すように、顔データ登録装置20は、画像入力インタフェース部210と、制御部220と、記憶部230と、登録顔データ出力インタフェース部240と、を有する。   As illustrated in FIG. 1, the face data registration device 20 includes an image input interface unit 210, a control unit 220, a storage unit 230, and a registered face data output interface unit 240.

画像入力インタフェース部210は、制御部220が撮像部10から登録人物の登録用画像を受け取るインタフェース部である。したがって、画像入力インタフェース部210は、撮像部10と顔データ登録装置20とを接続する通信の方式に従って、例えば、LAN、ユニバーサルシリアルバス(USB)、SCSI、無線LANもしくは赤外線通信などに対応する適切な通信インタフェースアダプタなどを含んで構成される。   The image input interface unit 210 is an interface unit through which the control unit 220 receives a registered person registration image from the imaging unit 10. Therefore, the image input interface unit 210 is suitable for, for example, LAN, universal serial bus (USB), SCSI, wireless LAN, or infrared communication according to the communication method for connecting the imaging unit 10 and the face data registration device 20. Including a simple communication interface adapter.

制御部220は、プロセッサとその周辺回路を含んで構成され、プロセッサが記憶部230に記憶された各種プログラムを実行することによって、顔データ登録装置20の登録顔データの登録処理を制御する。プロセッサおよび記憶部230は、マイクロプロセッサもしくはASICなどを含んで構成されてもよい。プロセッサが実行するプログラムは、CD−ROMおよび/もしくはDVD−R/Wなどのコンピュータ読み取り可能な記憶媒体もしくは通信などによって提供されて記憶部230に記憶されてもよく、ファームウェアとして提供されてもよい。   The control unit 220 includes a processor and its peripheral circuits, and controls the registered face data registration process of the face data registration device 20 by the processor executing various programs stored in the storage unit 230. The processor and storage unit 230 may include a microprocessor or an ASIC. The program executed by the processor may be provided by a computer-readable storage medium such as a CD-ROM and / or DVD-R / W or communication, and stored in the storage unit 230 or may be provided as firmware. .

制御部220は、撮像部10から画像入力インタフェース部210を介して登録人物の登録用画像を受け取り、受け取った登録用画像を用いて登録人物の様々な顔向きの登録顔画像を生成し、登録顔データとして記憶部230に記憶させる。また、制御部220は、記憶部230に記憶させた登録顔データを登録顔データ出力インタフェース部240を介して顔照合装置40に送ることができる。   The control unit 220 receives a registration image of a registered person from the imaging unit 10 via the image input interface unit 210, generates registration face images of various directions of the registered person using the received registration image, and registers them. The data is stored in the storage unit 230 as face data. Further, the control unit 220 can send the registered face data stored in the storage unit 230 to the face matching device 40 via the registered face data output interface unit 240.

図2は、本実施例に係る登録顔データ422の一例を示す図である。各登録顔データ422は、例えば、登録人物の識別情報などの各登録人物に関する人物情報に対応付けて記憶される。図2に示すように、登録顔データ422は、様々な顔向きの登録顔画像を含む。この例では、真正面を向いた「角度A13」の登録顔画像を中心に、上下方向(ピッチ角)と左右方向(ヨー角)にそれぞれ15度刻みで±30度まで顔向きを変えた5×5=25種類の顔向きの登録顔画像が登録顔データ422に含まれる。したがって、例えば、図2に示した登録顔データ422が100人分登録されている場合、25×100=2500枚の登録顔画像が登録顔データ422として記憶部230に記憶されることになる。   FIG. 2 is a diagram illustrating an example of registered face data 422 according to the present embodiment. Each registered face data 422 is stored in association with personal information related to each registered person such as identification information of the registered person. As shown in FIG. 2, the registered face data 422 includes registered face images with various face orientations. In this example, the face orientation is changed to ± 30 degrees in increments of 15 degrees in the vertical direction (pitch angle) and the horizontal direction (yaw angle), respectively, with the registered face image of “angle A13” facing directly in front. The registered face data 422 includes registered face images of 5 = 25 types of face orientations. Therefore, for example, when the registered face data 422 shown in FIG. 2 is registered for 100 people, 25 × 100 = 2500 registered face images are stored in the storage unit 230 as the registered face data 422.

なお、以下、顔向きの種類は図2に示した25種類として説明するが、本発明はこれに限定されない。例えば、撮像部10の撮影範囲、顔データ登録装置20および顔照合装置40の記憶容量、処理能力および顔照合装置40の所望の照合精度などに応じて、ピッチ角およびヨー角の刻み幅や範囲を任意に変えて登録顔画像の数を増減することができる。例えば、制御部220は、撮像部10の撮影範囲がピッチ角±30度およびヨー角±45度であれば、ピッチ角およびヨー角の刻み幅をそれぞれ15度として、5×7=35種類の顔向きの登録顔画像を生成してもよい。さらに、制御部220は、7×7=49種類もしくは9×9=81種類の顔向きの登録顔画像を生成してもよい。ただし、照合精度の観点からは、ピッチ角およびヨー角の刻み幅は15度以下が好ましい。   In the following, the types of face orientations will be described as 25 types shown in FIG. 2, but the present invention is not limited to this. For example, the pitch angle and yaw angle increments and ranges according to the shooting range of the imaging unit 10, the storage capacity of the face data registration device 20 and the face matching device 40, the processing capability, the desired matching accuracy of the face matching device 40, and the like. Can be arbitrarily changed to increase or decrease the number of registered face images. For example, if the imaging range of the imaging unit 10 is the pitch angle ± 30 degrees and the yaw angle ± 45 degrees, the control unit 220 sets the pitch angle and yaw angle increments to 15 degrees, and 5 × 7 = 35 types. A registered face image for the face may be generated. Further, the control unit 220 may generate 7 × 7 = 49 types or 9 × 9 = 81 types of registered face images for face orientation. However, from the viewpoint of collation accuracy, the pitch angle and yaw angle increment are preferably 15 degrees or less.

登録顔データ422の各登録顔画像は、その顔向きに対応付けて記憶部230に記憶される。例えば、制御部220は、図2に示すように25種類の顔向きに「角度A1」〜「角度A25」という識別名もしくは識別番号などの顔向き識別情報を割り当て、この顔向き識別情報に各登録顔画像を対応付けて記憶部230に記憶させることができる。   Each registered face image of the registered face data 422 is stored in the storage unit 230 in association with the face orientation. For example, as shown in FIG. 2, the control unit 220 assigns identification information or identification numbers such as “angle A1” to “angle A25” to 25 types of face orientations, and each face orientation identification information is assigned to each face orientation identification information. The registered face image can be associated and stored in the storage unit 230.

また、制御部220は、各顔向き識別情報に、その顔向きのピッチ角とヨー角との組み合わせを角度情報として対応付けて記憶部230に記憶させることができる。例えば、図2に示すように、ピッチ角=0度およびヨー角=0度の真正面を向いた顔向き「角度A13」を中心として、25種類の顔向き「角度A1」〜「角度A25」は、15度刻みで±30度までの5種類のピッチ角と5種類のヨー角との25種類の組み合わせに対応付けられる。   Further, the control unit 220 can cause the storage unit 230 to store each face direction identification information in association with a combination of the pitch angle and yaw angle of the face direction as angle information. For example, as shown in FIG. 2, the 25 types of face orientations “angle A1” to “angle A25” are centered on the face orientation “angle A13” facing the front of the pitch angle = 0 degrees and the yaw angle = 0 degrees. , It is associated with 25 combinations of 5 types of pitch angles and 5 types of yaw angles up to ± 30 degrees in increments of 15 degrees.

図2の例では、「角度A11」は、向かって左に角度30度の顔向きでピッチ角=0度およびヨー角=−30度、「角度A15」は、向かって右に角度30度の顔向きでピッチ角=0度およびヨー角=+30度、「角度A3」は、上に30度の顔向きでピッチ角=−30度およびヨー角=0度、「角度A23」は、下に30度の顔向きでピッチ角=+30度およびヨー角=0度の組み合わせの角度情報に対応付けられる。   In the example of FIG. 2, “angle A11” is a face facing 30 degrees to the left and pitch angle = 0 degrees and yaw angle = −30 degrees, and “angle A15” is 30 degrees to the right. Face angle with pitch angle = 0 degrees and yaw angle = + 30 degrees, “angle A3” is 30 degrees face up, pitch angle = −30 degrees and yaw angle = 0 degrees, “angle A23” is below It is associated with angle information of a combination of a pitch angle = + 30 degrees and a yaw angle = 0 degrees with a face orientation of 30 degrees.

なお、制御部220は、例えば、上記5種類のピッチ角およびヨー角にそれぞれ0〜4の番号を付けて0〜4の2個の番号の組み合わせを顔向き識別情報とし、ピッチ角およびヨー角の刻み幅および個数を角度情報として記憶してもよい。   For example, the control unit 220 assigns numbers 0 to 4 to the above five types of pitch angles and yaw angles, and uses a combination of two numbers 0 to 4 as face direction identification information. May be stored as angle information.

図1に示すように、制御部220は、登録用顔画像抽出手段2210と、3次元顔モデル生成手段2220と、登録顔データ生成手段2230と、を有する。制御部220は、記憶部230に記憶されたこれらの手段を実行するプログラムをプロセッサが実行することによって、顔データ登録装置20における登録顔データ422の登録処理を制御する。   As illustrated in FIG. 1, the control unit 220 includes a registration face image extraction unit 2210, a 3D face model generation unit 2220, and a registered face data generation unit 2230. The control unit 220 controls the registration process of the registered face data 422 in the face data registration device 20 by causing the processor to execute a program for executing these means stored in the storage unit 230.

登録用顔画像抽出手段2210は、撮像部10から画像入力インタフェース部210を介して受け取った登録用画像から、人物の顔が写っている顔領域を登録用顔画像として抽出する。   The registration face image extraction unit 2210 extracts a face area in which a person's face is reflected as a registration face image from the registration image received from the imaging unit 10 via the image input interface unit 210.

顔領域を抽出するために、登録用顔画像抽出手段2210は、公知の様々な方法を用いることができる。例えば、登録用顔画像抽出手段2210は、登録用画像中の部分領域から1つもしくは複数の特徴量を算出し、その特徴量が人物の顔に対応すると考えられる所定の条件を満たす場合に、その部分領域を顔領域として抽出してもよい。具体的には、登録用顔画像抽出手段2210は、例えば、Sobelフィルタなどを用いてエッジ画素抽出を行い、その部分領域内におけるエッジ画素の方向分布、またはそのエッジ近傍の輝度分布などの特徴量を算出することができる。また、予め、人物の顔を撮影した複数の画像から、これらの特徴量の値を求めてその範囲を決定することにより、上述した所定の条件を予め決定することができる。   In order to extract a face area, the registration face image extraction means 2210 can use various known methods. For example, the registration face image extraction unit 2210 calculates one or a plurality of feature amounts from a partial region in the registration image, and when the predetermined amount condition that the feature amount is considered to correspond to a person's face is satisfied, The partial area may be extracted as a face area. Specifically, the registration face image extraction unit 2210 performs edge pixel extraction using, for example, a Sobel filter and the like, and features such as the direction distribution of the edge pixel in the partial region or the luminance distribution near the edge Can be calculated. In addition, the predetermined conditions described above can be determined in advance by obtaining the values of these feature values from a plurality of images obtained by photographing a person's face in advance and determining the range thereof.

顔領域を抽出するための別の方法として、登録用顔画像抽出手段2210は、予め準備した顔領域のテンプレートを用いて登録用画像とのテンプレートマッチングを行ったり、登録用画像のエッジ画像から顔もしくは頭部領域の輪郭形状のエッジ分布を検出したりすることによって、顔領域を抽出してもよい。また、登録用顔画像抽出手段2210は、これらの公知の方法を組み合わせて顔領域を抽出してもよい。   As another method for extracting a face area, the registration face image extraction unit 2210 performs template matching with a registration image using a face area template prepared in advance, or performs face matching from an edge image of the registration image. Alternatively, the face area may be extracted by detecting the edge distribution of the contour shape of the head area. Further, the registration face image extraction unit 2210 may extract a face region by combining these known methods.

3次元顔モデル生成手段2220は、登録用顔画像抽出手段2210から受け取った登録用顔画像から3次元顔モデルを生成する。3次元顔モデルとは、登録顔データ生成手段2230が登録人物の頭部を再現して様々な顔向きの登録顔画像を生成するためのものである。   The three-dimensional face model generation unit 2220 generates a three-dimensional face model from the registration face image received from the registration face image extraction unit 2210. The three-dimensional face model is for the registered face data generation means 2230 to generate registered face images for various faces by reproducing the head of a registered person.

3次元顔モデルを生成するために、3次元顔モデル生成手段2220は、様々な公知の3次元顔モデル生成方法のいずれかを用いることができる。例えば、3次元顔モデル生成手段2220は、特開2009−211151号公報に記載されているように、顔の凹凸情報および特徴点の3次元配置情報などを含む3次元顔形状データに、登録用顔画像の肌の色およびテクスチャ情報などをマッピングして、3次元顔モデルを生成することができる。   In order to generate a three-dimensional face model, the three-dimensional face model generation means 2220 can use any of various known three-dimensional face model generation methods. For example, as described in JP-A-2009-2111151, the three-dimensional face model generation unit 2220 uses registration information for three-dimensional face shape data including facial unevenness information and three-dimensional arrangement information of feature points. The skin color and texture information of the face image can be mapped to generate a three-dimensional face model.

登録顔データ生成手段2230は、3次元顔モデル生成手段2220から受け取った3次元顔モデルから登録顔データ422を生成する。   The registered face data generation unit 2230 generates registered face data 422 from the 3D face model received from the 3D face model generation unit 2220.

このために、登録顔データ生成手段2230は、3次元顔モデルから様々な顔向きの2次元顔画像を取得する様々な公知の方法のいずれかを用いることができる。例えば、登録顔データ生成手段2230は、上述の特開2009−211151号公報に記載されているように、3次元顔モデルの頭部を様々な方向に変えて再現し、これを2次元空間に投影することによって様々な顔向きの登録顔画像を生成することができる。ここで、登録顔画像は、画素値などの画像データそのものでもよいが、特徴点の配置情報および/もしくテクスチャ情報などの登録人物の顔の特徴を示す画像データから取得可能な任意の情報を含んでもよい。   For this purpose, the registered face data generation unit 2230 can use any of various known methods for acquiring two-dimensional face images of various face orientations from the three-dimensional face model. For example, the registered face data generation means 2230 reproduces the head of the three-dimensional face model by changing it in various directions as described in the above-mentioned Japanese Patent Application Laid-Open No. 2009-211111, and this is reproduced in the two-dimensional space. By projecting, registered face images of various face orientations can be generated. Here, the registered face image may be image data itself such as a pixel value, but arbitrary information that can be acquired from image data indicating the feature of a registered person's face such as arrangement information of feature points and / or texture information. May be included.

記憶部230は、顔データ登録装置20が各種動作を実行するためのプログラムおよびデータを記憶し、例えばRAM、ROMおよび/もしくはEPROMなどの半導体メモリを含んで構成される。また、記憶部230は、ハードディスクなどの磁気記憶媒体、ならびに/あるいは、CD−ROMおよび/もしくはDVD−R/Wなどの光記憶媒体と、そのアクセス装置とを含んでもよい。   The storage unit 230 stores programs and data for the face data registration device 20 to execute various operations, and includes a semiconductor memory such as a RAM, a ROM, and / or an EPROM. The storage unit 230 may include a magnetic storage medium such as a hard disk and / or an optical storage medium such as a CD-ROM and / or DVD-R / W and an access device thereof.

登録顔データ出力インタフェース部240は、制御部220が生成した登録顔データ422を顔照合装置40に送るインタフェース部である。したがって、登録顔データ出力インタフェース部240は、画像入力インタフェース部210と同様に、顔データ登録装置20と顔照合装置40とを接続する通信の方式に従って適切な通信インタフェースアダプタなどを含んで構成される。なお、登録顔データ422がコンピュータ読み取り可能な記憶媒体によって顔データ登録装置20から顔照合装置40に渡される場合、登録顔データ出力インタフェース部240はなくてもよい。   The registered face data output interface unit 240 is an interface unit that sends the registered face data 422 generated by the control unit 220 to the face matching device 40. Therefore, similar to the image input interface unit 210, the registered face data output interface unit 240 includes an appropriate communication interface adapter or the like according to a communication method for connecting the face data registration device 20 and the face matching device 40. . When the registered face data 422 is transferred from the face data registration device 20 to the face matching device 40 by a computer-readable storage medium, the registered face data output interface unit 240 may not be provided.

撮像部30は、顔照合装置40が照合する歩行中の人物を複数回撮影し、撮影して取得した複数の2次元画像データを入力画像として通信などを介して顔照合装置40に順次送る。   The imaging unit 30 captures a walking person to be collated by the face collation device 40 a plurality of times, and sequentially transmits a plurality of two-dimensional image data obtained by photographing to the face collation device 40 through communication or the like as an input image.

本実施例において、撮像部30は、例えば、オフィスビルの入室を管理する部屋の入り口前の廊下の天井付近に設置された1つもしくは複数の監視カメラであり、例えば、CCD素子もしくはC−MOS素子などの撮像素子、光学系部品、A/D変換器などを含む公知のカメラを用いることができる。撮像部30のカメラは、撮像部10のカメラと同様に、近赤外波長帯に感度を有する白黒タイプでもよいが、肌色部分の抽出が容易になるよう可視光波長帯に感度を有するカラータイプが好ましい。また、撮像部30のカメラの解像度などの精度は、監視領域の状況や所望する顔照合の精度に応じて適切なものを用いることができる。さらに、入力画像は、登録用画像と同様に、多階調の画素値で表されるカラー画像でもグレースケール画像でもよいが、8ビット程度の輝度分解能を持つカラー画像が好ましい。撮像部30は、監視領域を所定の時間間隔(例えば、100msec)ごとに撮影し、取得した監視画像を入力画像として顔照合装置40に順次送ることができる。   In the present embodiment, the imaging unit 30 is, for example, one or a plurality of surveillance cameras installed near the ceiling of a corridor in front of the entrance of a room that manages the entrance of an office building. For example, a CCD element or a C-MOS A known camera including an image sensor such as an element, an optical system component, an A / D converter, and the like can be used. The camera of the imaging unit 30 may be a black and white type having sensitivity in the near-infrared wavelength band, similar to the camera of the imaging unit 10, but is a color type having sensitivity in the visible light wavelength band so that the skin color portion can be easily extracted. Is preferred. Further, the accuracy of the resolution of the camera of the imaging unit 30 can be appropriate depending on the situation of the monitoring area and the desired face matching accuracy. Furthermore, the input image may be a color image or a grayscale image represented by multi-gradation pixel values, like the registration image, but a color image having a luminance resolution of about 8 bits is preferable. The imaging unit 30 can take an image of the monitoring area at predetermined time intervals (for example, 100 msec) and sequentially send the acquired monitoring image as an input image to the face matching device 40.

図3は、オフィスビルなどで入室を管理する部屋の入り口前の廊下の天井付近に設置された監視カメラが、歩行中の部屋の利用者を時系列に撮影した複数の入力画像を示す図である。図3には、時刻t、t+1およびt+2の各時刻において、監視カメラが撮影領域を移動する利用者の顔を撮影して得られた入力顔画像421t0、421t1および421t2が示されている。監視カメラの前を通過する利用者の顔向きは時間と共に少しずつ変わるため、入力顔画像421t0、421t1および421t2には少しずつ顔向きが異なる利用者の顔が映っている。   FIG. 3 is a diagram showing a plurality of input images in which a surveillance camera installed in the vicinity of the ceiling of a corridor in front of the entrance of a room that manages entry in an office building or the like takes a time series of users in a room that is walking. is there. FIG. 3 shows input face images 421t0, 421t1, and 421t2 obtained by photographing the face of the user whose surveillance camera moves in the photographing area at each time t, t + 1, and t + 2. Since the face direction of the user passing in front of the surveillance camera changes little by little with time, the face of the user having a slightly different face direction is reflected in the input face images 421t0, 421t1, and 421t2.

顔照合装置40は、例えば、いわゆるコンピュータなどの情報処理装置によって構成することができる。そして顔照合装置40は、撮像部30から受け取った入力画像中の人物が、顔照合装置40に登録されている入室許可対象者などの登録人物と一致するか否かを照合し、照合結果を通信などによって顔照合結果処理部50に送る。   The face matching device 40 can be configured by an information processing device such as a so-called computer, for example. Then, the face collation device 40 collates whether or not the person in the input image received from the imaging unit 30 matches a registered person such as a person who is permitted to enter the room registered in the face collation device 40, and the collation result is obtained. The result is sent to the face matching result processing unit 50 by communication or the like.

図1に示すように、顔照合装置40は、画像入力インタフェース部410と、記憶部420と、登録顔データ入力インタフェース部430と、制御部440と、顔照合結果出力インタフェース部450と、を有する。   As illustrated in FIG. 1, the face matching device 40 includes an image input interface unit 410, a storage unit 420, a registered face data input interface unit 430, a control unit 440, and a face matching result output interface unit 450. .

画像入力インタフェース部410は、制御部440が撮像部30から入力画像を受け取るインタフェース部である。したがって、画像入力インタフェース部410は、上述の画像入力インタフェース部210と同様に、撮像部30と顔照合装置40とを接続する通信の方式に従って適切な通信インタフェースアダプタなどを含んで構成される。   The image input interface unit 410 is an interface unit that the control unit 440 receives an input image from the imaging unit 30. Therefore, the image input interface unit 410 is configured to include an appropriate communication interface adapter or the like according to a communication method for connecting the image capturing unit 30 and the face collation device 40, similarly to the image input interface unit 210 described above.

記憶部420は、顔照合装置40が各種動作を実行するためのプログラムおよびデータを記憶し、上述の記憶部230と同様に、例えばRAM、ROMおよび/もしくはEPROMなどの半導体メモリを含んで構成される。また、記憶部420は、ハードディスクなどの磁気記憶媒体、ならびに/あるいは、CD−ROMおよび/もしくはDVD−R/Wなどの光記憶媒体と、そのアクセス装置とを含んでもよい。   The storage unit 420 stores a program and data for the face matching device 40 to execute various operations, and includes a semiconductor memory such as a RAM, a ROM, and / or an EPROM, for example, like the storage unit 230 described above. The The storage unit 420 may include a magnetic storage medium such as a hard disk and / or an optical storage medium such as a CD-ROM and / or DVD-R / W and an access device thereof.

上述したように、記憶部420には、顔データ登録装置20が生成した登録顔データ422が顔データ登録装置20からコンピュータ読み取り可能な記憶媒体あるいは通信などを介して送られ記憶されている。   As described above, the registered face data 422 generated by the face data registration device 20 is sent to and stored in the storage unit 420 via a computer-readable storage medium or communication.

登録顔データ入力インタフェース部430は、制御部440が顔データ登録装置20から通信などによって登録顔データ422を受け取るインタフェース部である。したがって、登録顔データ入力インタフェース部430は、上述の画像入力インタフェース部210と同様に、顔データ登録装置20と顔照合装置40とを接続する通信の方式に従って適切な通信インタフェースアダプタなどを含んで構成される。なお、登録顔データ422がコンピュータ読み取り可能な記憶媒体によって顔データ登録装置20から渡される場合、登録顔データ入力インタフェース部430はなくてもよい。   The registered face data input interface unit 430 is an interface unit that the control unit 440 receives the registered face data 422 from the face data registration device 20 through communication or the like. Therefore, the registered face data input interface unit 430 includes an appropriate communication interface adapter or the like according to the communication method for connecting the face data registration device 20 and the face collation device 40, similarly to the image input interface unit 210 described above. Is done. When the registered face data 422 is transferred from the face data registration device 20 by a computer-readable storage medium, the registered face data input interface unit 430 may not be provided.

制御部440は、上述の制御部220と同様に、プロセッサとその周辺回路を含んで構成され、プロセッサによって記憶部420に記憶された各種プログラムを実行することによって、顔照合装置40の顔照合処理を制御する。プロセッサが実行するプログラムは、制御部220と同様に提供されて記憶部420に記憶される。   Similar to the control unit 220 described above, the control unit 440 includes a processor and its peripheral circuits, and executes various programs stored in the storage unit 420 by the processor, whereby the face verification process of the face verification device 40 is performed. To control. A program executed by the processor is provided in the same manner as the control unit 220 and stored in the storage unit 420.

図1に示すように、制御部440は、入力顔画像抽出手段4411と、類似度算出手段4412と、投票テーブル更新手段4413と、投票手段4414と、人物決定手段4415と、を有し、記憶部420に記憶されたこれらの手段を実行するプログラムをプロセッサが実行することによって、顔照合装置40における顔照合処理を制御する。制御部440は、撮像部30から画像入力インタフェース部410を介して入力画像を順次受け取り、受け取った入力画像を記憶部420に記憶された登録顔データ422と照合し、その照合結果を顔照合結果出力インタフェース部450を介して顔照合結果処理部50に送る。   As shown in FIG. 1, the control unit 440 includes an input face image extraction unit 4411, a similarity calculation unit 4412, a voting table update unit 4413, a voting unit 4414, and a person determination unit 4415, and stores them. The face matching process in the face matching device 40 is controlled by the processor executing a program for executing these means stored in the unit 420. The control unit 440 sequentially receives input images from the imaging unit 30 via the image input interface unit 410, collates the received input images with the registered face data 422 stored in the storage unit 420, and compares the collation result with the face collation result. The result is sent to the face matching result processing unit 50 via the output interface unit 450.

入力顔画像抽出手段4411は、撮像部30から画像入力インタフェース部410を介して受け取った入力画像から、上述の登録用顔画像抽出手段2210と同様に人物の顔が写っている顔領域を抽出して入力顔画像とする。この入力顔画像は、上述した登録顔画像と同様に、入力画像から得られる入力画像の人物の顔の特徴を示す任意の情報を含んでもよい。   The input face image extraction unit 4411 extracts a face region in which a person's face is reflected from the input image received from the imaging unit 30 via the image input interface unit 410, as in the case of the registration face image extraction unit 2210 described above. Input face image. This input face image may include arbitrary information indicating the characteristics of a person's face in the input image obtained from the input image, as in the above-described registered face image.

類似度算出手段4412は、入力顔画像抽出手段4411が抽出した入力顔画像と記憶部420に記憶されているすべての登録顔データ422のすべての顔向きの登録顔画像との類似度を算出する。そして、類似度算出手段4412は、算出した類似度を登録顔画像の人物および顔向きに対応付けて類似度テーブルとして記憶部420に記憶する。ここで、類似度テーブルとは、1人分の登録顔データ422ごとに用意され、各登録顔データ422に含まれるすべての登録顔画像の顔向きの数だけ類似度が記憶される領域を有するテーブルである。記憶部420には、記憶部420に記憶されているすべての登録顔データ422に対応する登録人物の人数分の類似度テーブルが記憶されている。   The similarity calculation unit 4412 calculates the similarity between the input face image extracted by the input face image extraction unit 4411 and all the registered face images of all the registered face data 422 stored in the storage unit 420. . Then, the similarity calculation unit 4412 stores the calculated similarity in the storage unit 420 as a similarity table in association with the person and face orientation of the registered face image. Here, the similarity table is prepared for each registered face data 422 for one person, and has an area in which similarities are stored for the number of face orientations of all registered face images included in each registered face data 422. It is a table. The storage unit 420 stores a similarity table for the number of registered persons corresponding to all the registered face data 422 stored in the storage unit 420.

類似度は、入力顔画像と登録顔画像とが類似するほど、線形的もしくは非線形的に増加もしくは減少する値であればよい。以下では、類似度は、類似するほど増加する値として説明する。本実施例では、入力顔画像および各登録顔画像は2次元顔画像であるので、類似度算出手段4412は、一般的な方法を用いて類似度を算出することができる。   The similarity may be a value that increases or decreases linearly or nonlinearly as the input face image and the registered face image are similar. Hereinafter, the similarity will be described as a value that increases as the similarity increases. In this embodiment, since the input face image and each registered face image are two-dimensional face images, the similarity calculation unit 4412 can calculate the similarity using a general method.

例えば、類似度算出手段4412は、特徴点の配置情報およびテクスチャ情報などの画像の特徴を用いて入力顔画像と登録顔画像との類似度(すなわち、入力顔画像に映った顔と登録顔画像に映った顔との類似度)を求めることができる。類似度算出手段4412は、それぞれの特徴を単独で用いて類似度を求めてもよいが、複数の特徴を併用した方が類似度の精度が高くなるため、本実施例では複数の特徴を併用して類似度を求める。   For example, the similarity calculation unit 4412 uses the image features such as feature point arrangement information and texture information, and the similarity between the input face image and the registered face image (that is, the face reflected in the input face image and the registered face image). (Similarity with the face reflected in the screen). The similarity calculation unit 4412 may obtain the similarity by using each feature alone, but since the accuracy of the similarity becomes higher when a plurality of features are used together, a plurality of features are used together in this embodiment. To obtain the similarity.

画像間の類似度を算出する具体的な計算方法は、目的に応じて様々な方法がある。例えば、特徴点の配置情報およびテクスチャ情報の2つの画像の特徴を用いる場合、次の式(1)のように類似度を求めることができる。
類似度(p,q)=αF(p,q)+βG(p,q) (1)
There are various methods for calculating the degree of similarity between images depending on the purpose. For example, when two image features of feature point arrangement information and texture information are used, the similarity can be obtained as in the following equation (1).
Similarity (p, q) = αF (p, q) + βG (p, q) (1)

ここで、p、qは比較対象の画像、α、βは所定の係数、F()は特徴点の位置の一致の度合いを評価する関数、G()はテクスチャの一致の度合いを評価する関数である。   Here, p and q are images to be compared, α and β are predetermined coefficients, F () is a function that evaluates the degree of matching of feature point positions, and G () is a function that evaluates the degree of matching of textures. It is.

上記関数F()は、例えば、入力顔画像および登録顔画像の各特徴点の座標について、対応する特徴点間のユークリッド距離の総和の逆数を求める関数でもよい。   The function F () may be, for example, a function for obtaining the reciprocal of the sum of Euclidean distances between corresponding feature points with respect to the coordinates of each feature point of the input face image and the registered face image.

また、上記関数G()は、例えば、特許第2690132号公報に開示されているように、入力顔画像および登録顔画像の対応する特徴点近傍のテクスチャ同士を比較して、そのヒストグラムマッチングにおける差の逆数を求める関数でもよい。あるいは、上記関数G()は、入力顔画像および登録顔画像の両目と両口角点とを結んだ逆台形の領域について、大きさ、輝度および色を正規化したヒストグラムマッチングの差の逆数を求める関数でもよい。   Further, the function G () is obtained by comparing the textures in the vicinity of the corresponding feature points of the input face image and the registered face image as disclosed in, for example, Japanese Patent No. 2690132, and the difference in the histogram matching. A function for obtaining the reciprocal of may be used. Alternatively, the function G () obtains the reciprocal of the difference in histogram matching obtained by normalizing the size, brightness, and color for an inverted trapezoidal region connecting both eyes and both corners of the input face image and registered face image. It can be a function.

なお、上述したように、類似度算出手段4412は、他の顔画像の特徴を用いて類似度を算出する場合、上記F()およびG()の代わりに、その特徴の一致の度合いを求めるのに適した関数を用いて類似度を算出することができる。あるいは、類似度算出手段4412は、入力顔画像と登録顔画像とのパターンマッチングによって入力顔画像と登録顔画像との類似度を算出してもよい。   As described above, when calculating the similarity using the feature of another face image, the similarity calculating unit 4412 obtains the degree of matching of the feature instead of the above F () and G (). The similarity can be calculated using a function suitable for the above. Alternatively, the similarity calculation unit 4412 may calculate the similarity between the input face image and the registered face image by pattern matching between the input face image and the registered face image.

投票テーブル更新手段4413は、記憶部420に記憶された投票集計テーブルから過去に取得された入力画像に関する古い投票値を取り除く。ここで、投票集計テーブルとは、1人分の登録顔データ422ごとに用意され、各登録顔データ422に含まれるすべての登録顔画像の顔向きの数だけ投票集計値が記憶される領域を有するテーブルである。したがって、記憶部420に記憶されているすべての登録顔データ422に対応する登録人物の人数分の投票集計テーブルが記憶部420に記憶されている。投票集計テーブルには、その時点までに順次撮影された複数の入力画像に関して、入力顔画像に類似するすべての登録顔画像の人物および顔向きに対応して集計された投票値が、投票集計値として、後述の投票手段4414によって記憶されている。投票手段4414による投票値の集計方法および投票集計テーブルへの記憶方法については、後の投票手段4414の説明で詳述する。   The voting table update unit 4413 removes old voting values related to input images acquired in the past from the voting total table stored in the storage unit 420. Here, the vote count table is an area prepared for each registered face data 422 for one person and storing the vote count values for the number of face orientations of all the registered face images included in each registered face data 422. It is a table that has. Therefore, a voting total table for the number of registered persons corresponding to all the registered face data 422 stored in the storage unit 420 is stored in the storage unit 420. In the vote counting table, for a plurality of input images photographed sequentially up to that point, the vote values totaled corresponding to the persons and face orientations of all registered face images similar to the input face image are displayed as vote counting values. Is stored by voting means 4414 described later. A method for counting vote values by the voting means 4414 and a method for storing them in the vote counting table will be described in detail in the explanation of the voting means 4414 later.

例えば、投票テーブル更新手段4413は、所定時間ごとに、投票集計テーブルに記憶されている投票集計値のそれぞれに1より小さい所定の比率を掛けることができる。これにより、投票テーブル更新手段4413は、それ以前に取得された入力画像に関して累積された各投票値がその後に取得される入力画像に関して累積されていく各投票値に与える影響を徐々に減らすことができ、時間の経過と共に投票集計テーブルから古い投票値を取り除いていくことができる。   For example, the voting table updating unit 4413 can multiply each voting total value stored in the voting total table by a predetermined ratio smaller than 1 every predetermined time. Thereby, the voting table update unit 4413 can gradually reduce the influence of each vote value accumulated regarding the input image acquired before that on each vote value accumulated regarding the input image acquired thereafter. The old vote value can be removed from the vote totaling table as time passes.

また、最新の所定枚数以内の入力画像に関して時系列投票テーブルが記憶部420に記憶されている場合、投票テーブル更新手段4413は、所定時間ごとに記憶されている時系列投票テーブルのうち一番古い入力画像に関する時系列投票テーブルを破棄することによって、投票集計テーブルから最も古い投票値を取り除くことができる。ここで、時系列投票テーブルとは、1人分の登録顔データ422ごとに用意され、各登録顔データ422に含まれるすべての登録顔画像の顔向きの数だけ投票値が記憶される領域を有するテーブルである。したがって、記憶部420に記憶されているすべての登録顔データ422に対応する登録人物の人数分の時系列投票テーブルが、記憶部420に、入力画像の撮影時刻ごとに入力画像の枚数分記憶されている。時系列投票テーブルには、それぞれの撮影時刻に撮影された入力画像に関して、入力顔画像に類似するすべての登録顔画像のそれぞれの人物および顔向きに対応して投票値が後述の投票手段4414によって記憶される。投票集計テーブルに記憶されている投票集計値は、それぞれ、時系列投票テーブルに記憶されている投票値を、人物および顔向きごとに最新の所定枚数以内の入力画像のすべてについて集計した値である。したがって、投票テーブル更新手段4413は、一番古い入力画像に関する時系列投票テーブルを破棄することによって、投票集計テーブルから最も古い投票値を取り除くことができる。なお、上記所定枚数は、10枚程度が好ましい。また、投票テーブル更新手段4413が投票集計テーブルの更新に時系列投票テーブルを使用しない場合、時系列投票テーブルはなくてもよい。投票手段4414による投票値の時系列投票テーブルへの記憶方法については、下記の投票手段4414の説明で詳述する。   When the time-series voting table is stored in the storage unit 420 for the latest input images within the predetermined number, the voting table update unit 4413 is the oldest among the time-series voting tables stored every predetermined time. By discarding the time-series voting table related to the input image, the oldest voting value can be removed from the vote counting table. Here, the time-series voting table is an area prepared for each registered face data 422 for one person and storing voting values for the number of face orientations of all registered face images included in each registered face data 422. It is a table that has. Therefore, a time-series voting table for the number of registered persons corresponding to all the registered face data 422 stored in the storage unit 420 is stored in the storage unit 420 for the number of input images for each shooting time of the input image. ing. In the time-series voting table, the voting value corresponding to each person and face direction of all registered face images similar to the input face image is input by the voting means 4414 described later with respect to the input images taken at the respective shooting times. Remembered. The vote total value stored in the vote total table is a value obtained by totaling the vote values stored in the time series vote table for all the input images within the latest predetermined number for each person and face orientation. . Therefore, the voting table updating unit 4413 can remove the oldest voting value from the voting total table by discarding the time-series voting table related to the oldest input image. The predetermined number is preferably about 10. Further, when the voting table update unit 4413 does not use the time series voting table for updating the vote totaling table, the time series voting table may not be provided. The method of storing the voting value in the time series voting table by the voting unit 4414 will be described in detail in the description of the voting unit 4414 below.

図4は、本実施例に係る投票手段4414の投票処理を示す図である。図4(a)は、登録顔データ422の例を示し、図4(b)および図4(c)は、それぞれ、この登録顔データ422の人物に対応する時系列投票テーブル4241および4242の例を示す。上述したように、時系列投票テーブルは常に必要ではないが、以下では、投票手段4414が投票集計テーブルの投票集計値に加算していく投票値を説明するのに用いる。   FIG. 4 is a diagram showing the voting process of the voting means 4414 according to the present embodiment. 4A shows an example of registered face data 422, and FIGS. 4B and 4C show examples of time-series voting tables 4241 and 4242 corresponding to the persons of the registered face data 422, respectively. Indicates. As described above, the time series voting table is not always necessary, but hereinafter, the voting means 4414 will be used to explain the voting value that is added to the voting total value of the voting total table.

投票手段4414は、記憶部420に記憶された類似度テーブルの類似度を読み出し、類似度が所定の投票用閾値以上である登録顔画像を入力顔画像421に類似すると判定する。所定の投票用閾値は、例えば、テスト用の入力画像と登録顔画像との類似度の平均値および分散を求め、平均値に分散の2倍を加えた値とすることができる。   The voting unit 4414 reads the similarity in the similarity table stored in the storage unit 420 and determines that the registered face image whose similarity is equal to or greater than a predetermined voting threshold is similar to the input face image 421. For example, the predetermined voting threshold value may be a value obtained by calculating an average value and a variance of the similarity between the test input image and the registered face image and adding twice the variance to the average value.

また、投票手段4414は、類似度テーブルに記憶されたすべての類似度のうち上位N個以内の登録顔画像を入力顔画像421に類似すると判定してもよい。この場合、Nは、正の整数であり、登録顔画像の総数の例えば1〜3%であるのが好ましい。例えば、上述したように全部で2500枚の登録顔画像が登録顔データ422として記憶部420に記憶されている場合、Nは25〜75でもよい。   The voting unit 4414 may determine that the top N registered face images among all the similarities stored in the similarity table are similar to the input face image 421. In this case, N is a positive integer and is preferably, for example, 1 to 3% of the total number of registered face images. For example, as described above, when 2500 registered face images are stored in the storage unit 420 as the registered face data 422, N may be 25 to 75.

あるいは、投票手段4414は、人物ごとに類似度が上位所定数以内の登録顔画像を入力顔画像421に類似すると判定してもよい。この場合の所定数Mは、正の整数であり、1〜3などでもよい。   Alternatively, the voting unit 4414 may determine that a registered face image whose similarity is within the upper predetermined number for each person is similar to the input face image 421. The predetermined number M in this case is a positive integer, and may be 1 to 3 or the like.

例えば、投票手段4414は、図4(a)に示した登録顔画像のうち、符号4221に示す1つの登録顔画像のみを入力顔画像421に類似すると判定したとする。これは、登録顔データ422の人物が入力顔画像421の人物と異なる場合に起きやすい。この場合、投票手段4414は、投票集計テーブルの登録顔画像4221の顔向き「角度A12」に対応する投票集計値に、例えば、投票値”1”を加算する。図4(b)の時系列投票テーブル4241には、登録顔画像4221の顔向き「角度A12」に対応する箇所に、加算される投票値”1”が示され、他は”0”である。   For example, it is assumed that the voting unit 4414 determines that only one registered face image indicated by reference numeral 4221 is similar to the input face image 421 among the registered face images illustrated in FIG. This is likely to occur when the person of the registered face data 422 is different from the person of the input face image 421. In this case, the voting means 4414 adds, for example, a vote value “1” to the vote total value corresponding to the face orientation “angle A12” of the registered face image 4221 of the vote total table. In the time-series voting table 4241 of FIG. 4B, the vote value “1” to be added is indicated at the position corresponding to the face direction “angle A12” of the registered face image 4221, and the others are “0”. .

同様に、投票手段4414は、図4(a)に示した登録顔画像のうち、符号4222で示す枠で囲まれた9つの登録顔画像を入力顔画像421に類似すると判定したとする。これは、登録顔データ422の人物が入力顔画像421の人物と同じである場合に起きやすい。すなわち、入力顔画像421の人物が登録顔データ422の人物本人であるため、登録顔画像の顔向きが多少異なっても入力顔画像421に類似すると判定されたことを示す。   Similarly, it is assumed that the voting unit 4414 determines that nine registered face images surrounded by a frame denoted by reference numeral 4222 are similar to the input face image 421 among the registered face images illustrated in FIG. This is likely to occur when the person of the registered face data 422 is the same as the person of the input face image 421. That is, since the person of the input face image 421 is the person of the registered face data 422, it is determined that the input face image 421 is similar to the input face image 421 even if the face orientation of the registered face image is slightly different.

この場合、投票手段4414は、投票集計テーブルの登録顔画像4222の顔向き「角度A6」〜「角度A8」、「角度A11」〜「角度A13」および「角度A16」〜「角度A18」に対応する投票集計値に、例えば、投票値”1”を加算することができる。図4(c)の時系列投票テーブル4242には、登録顔画像4222の顔向き「角度A6」〜「角度A8」、「角度A11」〜「角度A13」および「角度A16」〜「角度A18」に対応する9箇所に、加算される投票値”1”が示され、他は”0”である。   In this case, the voting means 4414 corresponds to the face orientations “angle A6” to “angle A8”, “angle A11” to “angle A13”, and “angle A16” to “angle A18” of the registered face image 4222 of the vote count table. For example, a vote value “1” can be added to the vote total value. In the time series voting table 4242 of FIG. 4C, the face orientations “angle A6” to “angle A8”, “angle A11” to “angle A13”, and “angle A16” to “angle A18” of the registered face image 4222 are displayed. The voting value “1” to be added is shown in nine locations corresponding to “0”, and the others are “0”.

次に、入力顔画像と入力顔画像と異なる人物で異なる顔向きの登録顔画像との類似度が突出して高いため入力顔画像の人物を他人と誤って判定してしまう誤判定が、投票手段4414の投票によっていかに回避されるかについて説明する。   Next, since the similarity between the input face image and the registered face image with different face orientations in a different person is prominently high, an erroneous determination that erroneously determines the person of the input face image as another person is voting means. How it is avoided by 4414 votes will be described.

図5〜図7は、それぞれ、時刻tにおける人物Aの入力顔画像421at0と、人物A〜Cの登録顔データ422a〜cの各登録顔画像との類似度が記憶された類似度テーブル423a〜cを立体棒グラフで示した図である。ここで、入力顔画像421at0の顔向きは「角度A12」であるとする。   FIGS. 5 to 7 illustrate similarity tables 423a to 423a in which the similarity between the input face image 421at0 of the person A at time t and the registered face images of the registered face data 422a to 422c of the persons A to C is stored. It is the figure which showed c by the solid bar graph. Here, it is assumed that the face direction of the input face image 421at0 is “angle A12”.

図5には、人物Aの入力顔画像421at0と本人である人物Aの登録顔データ422aの各登録顔画像との類似度が記憶された類似度テーブル423aの例が示されている。図5の類似度テーブル423aでは、登録顔データ422aが入力顔画像421at0の人物A本人のものであるため、入力顔画像421at0と同じ顔向き「角度A12」の登録顔画像422a1との類似度423a1が最も高い値を示している。また、類似度423a1の周囲の顔向きの登録顔画像422a2との類似度も一定以上の高い値を示している。これは、登録顔データ422aが入力顔画像421at0の人物A本人のものであるため、顔の特徴点配置情報や色情報(テクスチャ)などが共通しており、多少顔向きが異なっても類似度が高くなるからである。   FIG. 5 shows an example of the similarity table 423a in which the similarity between the input face image 421at0 of the person A and each registered face image of the registered face data 422a of the person A who is the person is stored. In the similarity table 423a of FIG. 5, since the registered face data 422a belongs to the person A himself / herself of the input face image 421at0, the similarity 423a1 to the registered face image 422a1 having the same face orientation “angle A12” as the input face image 421at0. Indicates the highest value. Also, the similarity with the registered face image 422a2 facing the surroundings of the similarity 423a1 is a high value above a certain level. This is because the registered face data 422a is that of the person A of the input face image 421at0, so the facial feature point arrangement information, color information (texture), etc. are common, and the degree of similarity even if the face orientation is slightly different Because it becomes higher.

図6には、時刻tにおける人物Aの入力顔画像421at0と他人である人物Bの登録顔データ422bの各登録顔画像との類似度が記憶された類似度テーブル423bの例が示されている。図6の類似度テーブル423bでは、登録顔データ422bの人物Bが入力顔画像421at0の人物Aと異なるため、類似度は図5の類似度テーブル423aほど高くない。それでもなお、登録顔画像422b1および422b2と入力顔画像421at0との類似度423b1および423b2が所定の投票用閾値以上になっている。   FIG. 6 shows an example of a similarity table 423b in which the similarity between the input face image 421at0 of the person A at time t and each registered face image of the registered face data 422b of the person B who is another person is stored. . In the similarity table 423b of FIG. 6, the person B of the registered face data 422b is different from the person A of the input face image 421at0, so the similarity is not as high as the similarity table 423a of FIG. Nevertheless, the similarities 423b1 and 423b2 between the registered face images 422b1 and 422b2 and the input face image 421at0 are equal to or greater than a predetermined voting threshold.

類似度テーブル423bの類似度のうち、類似度423b1は、他に比べてやや高い値を示している。これは、登録顔画像422b1の顔向き「角度A12」が入力顔画像421at0と同じであるため、顔画像の特徴点の配置が類似するので類似度が高くなったと考えられる。登録顔画像422b2の類似度423b2については後述する。   Of the similarities in the similarity table 423b, the similarity 423b1 shows a slightly higher value than the others. This is probably because the face orientation “angle A12” of the registered face image 422b1 is the same as that of the input face image 421at0, and the arrangement of the feature points of the face image is similar, so the degree of similarity is high. The similarity 423b2 of the registered face image 422b2 will be described later.

図7には、時刻tにおける人物Aの入力顔画像421at0と他人である人物Cの登録顔データ422cの各登録顔画像との類似度が記憶された類似度テーブル423cの例が示されている。図7の類似度テーブル423cでは、図6の類似度テーブル423bと同様に、登録顔データ422cの人物Cが入力顔画像421at0の人物Aと異なるため、類似度は図5の類似度テーブル423aほど高くない。それでもなお、登録顔画像422c1と入力顔画像421at0との類似度423c1が所定の投票用閾値以上になっている。   FIG. 7 shows an example of the similarity table 423c in which the similarity between the input face image 421at0 of the person A at time t and each registered face image of the registered face data 422c of the person C who is another person is stored. . In the similarity table 423c of FIG. 7, the person C of the registered face data 422c is different from the person A of the input face image 421at0, similar to the similarity table 423b of FIG. not high. Nevertheless, the similarity 423c1 between the registered face image 422c1 and the input face image 421at0 is greater than or equal to a predetermined voting threshold.

類似度テーブル423cの類似度のうち、類似度423c1は、他に比べてやや高い値を示している。これは、図6の登録顔画像422b1と同様に、登録顔画像422c1の顔向き「角度A12」が入力顔画像421at0と同じであるため、顔画像の特徴点の配置が類似するので類似度が高くなったと考えられる。   Of the similarities in the similarity table 423c, the similarity 423c1 shows a slightly higher value than the others. Similar to the registered face image 422b1 in FIG. 6, the face orientation “angle A12” of the registered face image 422c1 is the same as that of the input face image 421at0. Probably higher.

一方、図6の類似度テーブル423bにおいて、類似度423b2が他に比べて突出して類似度が高い。これは、鼻尖点のように、抽出に失敗すると直ちに他の特徴点の位置情報に影響を与えてしまう顔の特徴点の抽出に失敗した場合に発生しやすい。このような場合、人物Aの入力顔画像421at0から抽出された特徴点の配置と、人物Bの異なる顔向きの登録顔画像422b2から抽出された特徴点の配置とが互いに非常に接近してしまい、また、結果として特徴点近傍のテクスチャ同士が類似してしまうことで、類似度が想定以上に高くなることがある。   On the other hand, in the similarity table 423b of FIG. 6, the similarity 423b2 protrudes compared to others and the similarity is high. This is likely to occur when the extraction of facial feature points, such as the nose tip, which immediately affects the position information of other feature points when extraction fails, is difficult. In such a case, the arrangement of the feature points extracted from the input face image 421at0 of the person A and the arrangement of the feature points extracted from the registered face image 422b2 of the person B with different face orientations are very close to each other. In addition, as a result, the textures near the feature points are similar to each other, so that the degree of similarity may be higher than expected.

図5および図6の例では、人物Aのやや向かって左を向いた顔向き「角度A12」の入力顔画像421at0と人物Aよりも丸顔である人物Bの向かって右を向いた顔向き「角度A15」の登録顔画像422b2との類似度423b2が、本人の同じ顔向き「角度A12」の登録顔画像422a1との類似度423a1より高くなっている。この場合、入力顔画像421at0と各登録顔データ422a〜cの各登録顔画像との類似度のうち、単純に最も高い値を示すものを選択すると、人物Bが入力顔画像421at0の人物であると誤って判定されることになる。   In the example of FIGS. 5 and 6, the input face image 421at0 of the face orientation “angle A12” facing left slightly toward the person A and the face orientation facing right toward the person B who is a round face than the person A The similarity 423b2 with the registered face image 422b2 of “angle A15” is higher than the similarity 423a1 with the registered face image 422a1 with the same face orientation “angle A12” of the person. In this case, when the one showing the highest value is simply selected from the similarities between the input face image 421at0 and each registered face image of each registered face data 422a to 422c, the person B is the person of the input face image 421at0. Will be erroneously determined.

このような誤判定を防止するため、投票手段4414は、類似度テーブルに記憶された類似度を参照して類似すると判定した登録顔画像を選択し、選択した登録顔画像に対応づけられた人物と顔向きに対して投票する。この投票手段4414の投票処理は、複数の入力顔画像について行う。   In order to prevent such an erroneous determination, the voting unit 4414 selects a registered face image determined to be similar with reference to the similarity stored in the similarity table, and a person associated with the selected registered face image. And vote for face orientation. The voting process of the voting means 4414 is performed for a plurality of input face images.

図8は、人物A〜Cの登録顔データ422a〜cと時刻t、t+1およびt+2における人物Aの入力顔画像421t0〜2ならびに時系列投票テーブル424at0〜2、424bt0〜2および424ct0〜2と投票集計テーブル425a〜cとの関係を示す図である。図8の人物A〜Cの登録顔データ422a〜cおよび時刻tにおける入力顔画像421t0は、図5〜図7の人物A〜Cの登録顔データ422a〜cおよび入力顔画像421t0に対応する。図8を参照しながら、投票手段4414によって入力顔画像421at0〜2の人物A本人の登録顔画像に投票が集まる様子を説明する。   FIG. 8 shows the registered face data 422a to c of the persons A to C, the input face images 421t0 to 421t0 to 2 at the times t, t + 1 and t + 2, and the time series voting tables 424at0 to 2, 424bt0 to 2 and 424ct0 to 2 It is a figure which shows the relationship with total table 425a-c. The registered face data 422a-c of the persons A to C in FIG. 8 and the input face image 421t0 at the time t correspond to the registered face data 422a-c and the input face image 421t0 of the persons A to C in FIGS. Referring to FIG. 8, the manner in which voting means 4414 collects votes on the registered face images of person A himself in input face images 421 at 0-2 will be described.

図8に示すように、時刻tにおいて、顔向き「角度A12」の人物Aの入力顔画像421at0が得られたとする。そして、この入力顔画像421at0と人物A〜Cの登録顔データ422a〜cのそれぞれについて、図5〜7で示したように、類似度テーブル423a〜cに記憶された登録顔画像422a2、422b1、422b2および422c2が入力顔画像421at0に類似する登録顔画像として選択されたとする。この場合、投票手段4414は、時系列投票テーブル424at0〜ct0に示すように、人物A〜Cのそれぞれに対して投票集計テーブルの登録顔画像422a2、422b1、422b2および422c1の顔向きに対応する投票集計値に、例えば、投票値“1”を加算する。   As shown in FIG. 8, it is assumed that an input face image 421at0 of the person A with the face orientation “angle A12” is obtained at time t. For each of the input face image 421at0 and the registered face data 422a-c of the persons A to C, as shown in FIGS. 5 to 7, the registered face images 422a2, 422b1, stored in the similarity tables 423a-c, Assume that 422b2 and 422c2 are selected as registered face images similar to the input face image 421at0. In this case, as shown in the time-series voting tables 424at0 to ct0, the voting unit 4414 has votes corresponding to the face orientations of the registered face images 422a2, 422b1, 422b2, and 422c1 in the vote counting table for each of the persons A to C. For example, the vote value “1” is added to the total value.

例えば、図8の時系列投票テーブル424at0において「○」で囲まれた投票値“1”は、人物Aの顔向き「角度A12」に対応しており、入力顔画像421at0の人物A本人の入力顔画像421at0と同じ顔向き「角度A12」とその近傍の顔向きの登録顔画像が入力顔画像421at0に類似すると判定されて投票値“1”が加算されることを示している。また、時系列投票テーブル424bt0および424ct0において「△」で囲まれた投票値“1”は、人物BおよびCの顔向き「角度A12」に対応しており、入力顔画像421at0の人物Aとは他人の人物BおよびCであるが入力顔画像421at0と同じ顔向き「角度A12」の登録顔画像が入力顔画像421at0に類似すると判定されて投票値“1”が加算されることを示している。さらに、時系列投票テーブル424bt0において「□」で囲まれた投票値“1”は、人物Bの顔向き「角度A15」に対応しており、入力顔画像421at0の人物Aと他人の人物Bで異なる顔向き「角度A15」の登録顔画像が偶発的に入力顔画像421at0に類似してしまい投票値“1”が加算されることを示している。   For example, in the time series voting table 424at0 of FIG. 8, the vote value “1” surrounded by “O” corresponds to the face direction “angle A12” of the person A, and the input of the person A himself / herself in the input face image 421at0. It is determined that the registered face image having the same face orientation “angle A12” as the face image 421 at 0 and the face orientation in the vicinity thereof is determined to be similar to the input face image 421 at 0 and the vote value “1” is added. In the time-series voting tables 424bt0 and 424ct0, the vote value “1” surrounded by “Δ” corresponds to the face orientation “angle A12” of the persons B and C, and the person A in the input face image 421at0 It is determined that the registered face image with the same face direction “angle A12” as the input face image 421at0 for other people B and C is determined to be similar to the input face image 421at0 and the vote value “1” is added. . Furthermore, the vote value “1” surrounded by “□” in the time-series vote table 424bt0 corresponds to the face direction “angle A15” of the person B, and is the person A of the input face image 421at0 and the person B of the other person. This indicates that a registered face image having a different face orientation “angle A15” accidentally becomes similar to the input face image 421at0 and the vote value “1” is added.

時刻t+1では、人物Aの顔向きが少し変わり、顔向き「角度A11」の入力顔画像421at1が得られたとする。このため、入力顔画像421at1は、入力顔画像421at1の人物Aの登録顔データ422aのうちで入力顔画像421at1と同じ顔向き「角度A11」の登録顔画像との類似度が最も高く、顔向き「角度A11」に角度が近い顔向きの登録顔画像との類似度も一定以上の高い値になる。   It is assumed that the face orientation of the person A slightly changes at time t + 1, and an input face image 421at1 having the face orientation “angle A11” is obtained. For this reason, the input face image 421at1 has the highest similarity to the registered face image having the same face orientation “angle A11” as the input face image 421at1 in the registered face data 422a of the person A of the input face image 421at1, and the face orientation The degree of similarity with a registered face image whose face is close to “angle A11” also has a high value above a certain level.

この場合、時系列投票テーブル424at1において「○」で囲まれた投票値“1”は、入力顔画像421at1と同じ人物Aで同じ顔向き「角度A11」に対応しており、入力顔画像421at1の人物A本人の入力顔画像421at1と同じ顔向き「角度A11」とその近傍の顔向きの登録顔画像が入力顔画像421at1に類似すると判定されて投票値“1”が加算されることを示している。また、時系列投票テーブル424bt1および424ct1において「△」で囲まれた投票値“1”は、人物BおよびCの顔向き「角度A11」に対応しており、入力顔画像421at1の人物Aとは他人の人物BおよびCであるが入力顔画像421at1と同じ顔向き「角度A11」の登録顔画像が入力顔画像421at1に類似すると判定されて投票値“1”が加算されることを示している。   In this case, the vote value “1” surrounded by “o” in the time series vote table 424at1 corresponds to the same face A “angle A11” as the input face image 421at1, and the input face image 421at1 It is determined that a registered face image having the same face direction “angle A11” as the input face image 421 at 1 of the person A himself and a face direction in the vicinity thereof is determined to be similar to the input face image 421 at 1 and the vote value “1” is added. Yes. In the time series voting tables 424bt1 and 424ct1, the vote value “1” surrounded by “Δ” corresponds to the face orientation “angle A11” of the persons B and C, and the person A in the input face image 421at1 It is determined that the registered face image of the other person B and C but having the same face orientation “angle A11” as the input face image 421at1 is similar to the input face image 421at1, and the vote value “1” is added. .

時刻t+2では、人物Aの顔向きがさらに変わり、顔向き「角度A21」の入力顔画像421at2が得られたとする。このため、入力顔画像421at2は、入力顔画像421at2の人物Aの登録顔データ422aのうちで顔向き「角度A21」の登録顔画像との類似度が最も高く、顔向き「角度A21」に角度が近い顔向きの登録顔画像との類似度も一定以上の高い値になる。   It is assumed that the face orientation of the person A further changes at time t + 2, and an input face image 421at2 having the face orientation “angle A21” is obtained. For this reason, the input face image 421at2 has the highest similarity to the registered face image of the face orientation “angle A21” in the registered face data 422a of the person A of the input face image 421at2, and the angle to the face orientation “angle A21”. The degree of similarity with a registered face image facing a face close to is also a high value above a certain level.

この場合、時系列投票テーブル424at2において「○」で囲まれた投票値“1”は、人物Aの顔向き「角度A21」に対応しており、入力顔画像421at2の人物A本人の入力顔画像421at2と同じ顔向き「角度A21」とその近傍の顔向きの登録顔画像が入力顔画像421at2に類似すると判定されて投票値“1”が加算されることが示されている。また、時系列投票テーブル424bt2および424ct2において「△」で囲まれた投票値“1”は、人物BおよびCの顔向き「角度A21」に対応しており、入力顔画像421at2の人物Aとは他人の人物BおよびCであるが入力顔画像421at2と同じ顔向き「角度A21」の登録顔画像が入力顔画像421at2に類似すると判定されて投票値“1”が加算されることを示している。さらに、時系列投票テーブル424ct2において「□」で囲まれた投票値“1”は、人物Cの顔向き「角度A25」に対応しており、入力顔画像421at0の人物Aと異なる人物Cで異なる顔向き「角度A25」の登録顔画像が、図5の登録顔画像422b2と同様に、偶発的に入力顔画像421at2に類似してしまい投票値“1”が加算されることを示している。この人物Cの顔向き「角度A25」の登録顔画像の入力顔画像421at2との類似度は、入力顔画像421at2と同じ人物Aで同じ顔向き「角度A21」の登録画像の類似度より高いとする。   In this case, the vote value “1” surrounded by “◯” in the time series vote table 424at2 corresponds to the face direction “angle A21” of the person A, and the input face image of the person A himself / herself in the input face image 421at2 It is determined that the registered face image having the same face orientation “angle A21” as 421 at 2 and the face orientation in the vicinity thereof is determined to be similar to the input face image 421 at 2 and the vote value “1” is added. In the time series voting tables 424bt2 and 424ct2, the vote value “1” surrounded by “Δ” corresponds to the face angle “angle A21” of the persons B and C, and the person A in the input face image 421at2 It is determined that the registered face image of the other person B and C but having the same face orientation “angle A21” as the input face image 421at2 is similar to the input face image 421at2, and the vote value “1” is added. . Further, in the time series voting table 424ct2, the vote value “1” surrounded by “□” corresponds to the face direction “angle A25” of the person C and is different for the person C different from the person A of the input face image 421at0. The registered face image with the face orientation “angle A25” is accidentally similar to the input face image 421at2 and the vote value “1” is added, similarly to the registered face image 422b2 of FIG. The similarity of the registered face image of the person C with the face orientation “angle A25” with the input face image 421 at 2 is higher than the similarity of the registered face image with the same face orientation “angle A21” with the same person A as the input face image 421 at 2. To do.

図8に示される例において単純に入力顔画像との類似度が一番高い登録顔画像の人物を入力顔画像の人物であると判定すると、入力顔画像421at0と人物Bの顔向き「角度A15」の登録顔画像との類似度が入力顔画像421at0と人物Aの顔向き「角度A12」の登録顔画像との類似度より高いので、入力顔画像421at0の人物は人物Bであると誤って判定されてしまう。また、入力顔画像421at2と人物Cの顔向き「角度A25」の登録顔画像との類似度が入力顔画像421at2と人物Aの顔向き「角度A21」の登録顔画像との類似度より高いので、入力顔画像421at2の人物は人物Cであると誤って判定されてしまう。   In the example shown in FIG. 8, if it is determined that the person of the registered face image having the highest similarity with the input face image is the person of the input face image, the face orientation of the input face image 421at0 and the person B “angle A15 ”Is higher than the similarity between the input face image 421 at 0 and the registered face image of the face direction“ angle A12 ”of the person A, so that the person in the input face image 421 at 0 is mistakenly the person B. It will be judged. Further, the similarity between the input face image 421at2 and the registered face image of the face orientation “angle A25” of the person C is higher than the similarity between the input face image 421at2 and the registered face image of the face orientation “angle A21” of the person A. The person in the input face image 421at2 is erroneously determined to be the person C.

そこで、本発明に係る投票手段4414は、投票集計テーブル425a〜cに示すように、人物A〜Cのそれぞれについて、時系列投票テーブル424at0〜2、424bt0〜2および424ct0〜2で示された時刻t、t+1およびt+2における投票値の総和をそれぞれ算出して、算出した投票値の総和を投票集計値としてそれぞれ投票集計テーブル425a〜cに記憶する。すると、投票集計テーブル425a〜cに記憶された投票集計値のうち、人物Aの顔向き「角度A16」および「角度A17」の投票集計値が“3”となり、最大である。これは、ウォークスルー型認証のように、撮影領域を通過する利用者の顔を時系列に撮影すると、撮影された利用者の顔向きは変化するものの、その変化は緩やかになるからである。したがって、入力顔画像の人物Aに対する投票値に関しては、入力顔画像と同じ顔向きとその顔向きに角度が近い顔向きにおいて投票値が加算されるため、投票の結果、投票集計値は高くなる。一方、人物BおよびCに対しては、投票集計テーブル425bおよび425cに示すように、人物Aのように高い投票値にならない。これは、ウォークスルー型の顔認証のように顔向きが少しずつ異なる複数の入力顔画像が得られる場合においても、入力顔画像と入力顔画像の人物と他人の登録顔画像との類似度が入力顔画像の人物本人の登録顔画像との類似度より高くなるのは、上述したように特徴点の抽出の失敗などにより突発的に起きるため、他人の登録顔画像との類似度は、入力顔画像と少し顔向きが異なると直ちに低くなるという傾向があるからである。   Therefore, the voting means 4414 according to the present invention, as shown in the vote totaling tables 425a to 425c, for each of the persons A to C, the times indicated by the time series voting tables 424at0 to 424bt0 to 2 and 424ct0 to 424ct0. The sum of the vote values at t, t + 1, and t + 2 is calculated, and the calculated sum of the vote values is stored in the vote count tables 425a to 425c as the vote count values. Then, among the vote total values stored in the vote total tables 425a to 425c, the vote total values of the face orientation “angle A16” and “angle A17” of the person A are “3”, which is the maximum. This is because when the user's face passing through the imaging area is photographed in time series as in walk-through authentication, the face orientation of the photographed user changes, but the change becomes moderate. Accordingly, regarding the vote value for the person A of the input face image, the vote count value is increased as a result of voting because the vote value is added in the same face direction as the input face image and a face direction with an angle close to that face direction. . On the other hand, the person B and C do not have a high vote value like the person A as shown in the vote totaling tables 425b and 425c. This is because the similarity between the input face image, the person of the input face image, and the registered face image of others is obtained even when a plurality of input face images with slightly different face orientations are obtained as in the walk-through face authentication. Since the similarity between the input face image and the registered face image of the person is suddenly caused by the failure of feature point extraction as described above, the similarity with the registered face image of another person is input. This is because if the face orientation is slightly different from the face image, it tends to decrease immediately.

人物決定手段4415は、投票手段4414による投票結果が記憶された投票集計テーブルより、投票集計値が最大である人物を最も多く投票された人物として選び、入力顔画像の人物であると決定する。例えば、図8の投票集計テーブル425a〜cでは、人物決定手段4415は、最大の投票集計値”3”を有する投票集計テーブル425aに対応する人物Aを選択する。そして、人物決定手段4415は、その最大の投票集計値”3”を所定の照合用閾値と比較し、最大の投票集計値”3”が照合用閾値以上であれば、人物Aを入力顔画像421t0〜2の人物、すなわち、入力画像に映った人物であると決定する。照合用閾値は、投票手段4414において用いられる時系列投票テーブルの枚数に応じて定められ、例えば、その枚数の30%とすることができる。   The person determining unit 4415 selects the person with the largest vote total value as the most voted person from the vote totaling table in which the voting result by the voting unit 4414 is stored, and determines that the person is the person of the input face image. For example, in the vote count tables 425a to 425c of FIG. 8, the person determination unit 4415 selects the person A corresponding to the vote count table 425a having the maximum vote count value “3”. Then, the person determining unit 4415 compares the maximum vote total value “3” with a predetermined collation threshold, and if the maximum vote total value “3” is equal to or greater than the collation threshold, the person A is input to the input face image. It is determined that the person 421t0-2 is a person shown in the input image. The matching threshold value is determined according to the number of time-series voting tables used in the voting unit 4414, and can be set to 30% of the number, for example.

なお、人物決定手段4415は、投票集計テーブルにおける各顔向きの投票集計値をさらに人物ごとに合計して最大の総和を得た人物を入力顔画像の人物として選択してもよい。例えば、図8に示される例では、人物Aの投票集計テーブル425aで各顔向きの投票集計値を合計すると21、人物Bの投票集計テーブル425bで各顔向きの投票集計値を合計すると4、人物Cの投票集計テーブル425cで各顔向きの投票集計値を合計すると4になる。この場合、人物ごとの投票集計値の総和が最大の21となる人物Aが入力顔画像421at0〜2の人物として選択される。なお、投票集計テーブルに登録人物の人数分の投票集計値を記憶する領域を用意し、この投票集計テーブルにおいて、投票手段4414が入力顔画像に類似する登録顔画像に対応する人物に対して投票しても同様の結果が得られる。さらに、人物決定手段4415は、すべての投票集計テーブルに記憶されている各顔向きに対する投票集計値のうち最大の投票集計値を有し、かつ、投票集計テーブルにおける各顔向きの投票集計値を人物ごとに合計して最大の総和を得た登録人物を入力顔画像の人物としてもよい。   The person determination unit 4415 may further select the person who has obtained the maximum total by summing the vote count values for each face in the vote count table for each person as the person of the input face image. For example, in the example shown in FIG. 8, the total of the ballot count values for each face in the person A vote count table 425 a is 21, and the total of the ball count values for each face in the person B vote count table 425 b is 4. In the vote count table 425c of the person C, the sum of the vote count values for each face is 4. In this case, the person A whose total sum of the vote total values for each person is 21 is selected as the person of the input face images 421at0 to 421at2. In addition, an area for storing vote count values for the number of registered persons is prepared in the vote count table, and in this vote count table, the voting means 4414 vote for a person corresponding to a registered face image similar to the input face image. However, similar results can be obtained. Furthermore, the person determination means 4415 has the largest vote total value among the vote total values for each face direction stored in all the ballot total tables, and also calculates the vote total value for each face in the vote total table. The registered person who has obtained the maximum sum total for each person may be the person of the input face image.

また、上述の例では、投票手段4414は、各時刻において人物ごとかつ顔向きごとに投票された結果を、複数の入力画像にわたって累積して総和を算出している。しかしながら、投票手段4414は、投票する顔向きを入力顔画像の顔向きとその顔向きに角度が近い顔向きに限定し、限定された顔向きの投票値の総和を人物ごとに算出してもよい。すなわち、投票手段4414は、各時刻において類似度テーブルに記憶された類似度に基づいて入力顔画像に類似すると判定された登録顔画像の顔向きに対して投票し、投票値の総和が最大となった顔向きをその時刻における入力顔画像の顔向きであると推定する。投票手段4414は、この推定した顔向きから一定範囲内の角度の顔向き(例えば「4近傍」「8近傍」もしくは「24近傍」など)に限定して、各時刻における各人物に対する投票値の総和v_sum(i、t)を求める。ここで、添え字iは登録された人物に関する識別子、tは時刻を表す。そして、投票手段4414は、全撮影時刻、例えば図8の例ではt、t+1およびt+2の3つの時刻について、人物ごとのv_sum(i、t)、v_sum(i、t+1)およびv_sum(i、t+2)の全総和v_sum_all(i)を求める。このとき、投票手段4414は、例えば、投票集計テーブルにおいて登録顔画像の顔向きが推定した入力顔画像の顔向きに近いほど大きな重みを投票値に付けて人物ごとの投票値の全総和を集計してもよい。   In the above-described example, the voting unit 4414 calculates the sum by accumulating the results of voting for each person and each face direction at each time over a plurality of input images. However, the voting means 4414 limits the face direction to be voted to the face direction of the input face image and a face direction whose angle is close to the face direction, and calculates the sum of the vote values of the limited face direction for each person. Good. That is, the voting means 4414 votes for the face orientation of the registered face image determined to be similar to the input face image based on the similarity stored in the similarity table at each time, and the sum of the vote values is the maximum. It is estimated that the face orientation is the face orientation of the input face image at that time. The voting means 4414 limits the voting value for each person at each time to a face direction (for example, “4 neighborhoods”, “8 neighborhoods” or “24 neighborhoods”) within an angle within a certain range from the estimated face orientation. Sum total v_sum (i, t) is obtained. Here, the subscript i is an identifier relating to the registered person, and t is time. The voting means 4414 then performs v_sum (i, t), v_sum (i, t + 1) and v_sum (i, t + 2) for each person at all shooting times, for example, three times t, t + 1, and t + 2 in the example of FIG. ) For the total sum v_sum_all (i). At this time, for example, the voting unit 4414 adds the weight to the vote value as the face direction of the input face image estimated as the face direction of the registered face image is estimated in the vote count table, and totals the total sum of vote values for each person. May be.

この場合、人物決定手段4415は、その人物ごとの全総和v_sum_all(i)のうち最大値に対応する人物iを入力顔画像の人物であると判定する。これにより、登録顔画像の顔向きが多少違っても、入力顔画像の本人であれば類似度が高くなる一方、他人であれば類似度が低くなるという特性を活かして、顔照合の照合精度を向上させることができる。また、ウォークスルーで時系列に撮影された入力顔画像のように、顔向きの変化が緩やかな場合だけでなく、顔向きが急に変化する場合でも、推定した顔向きに角度が近い顔向きについてのみ投票値の総和を求めるので、顔照合の照合精度を高めることが可能となる。   In this case, the person determination unit 4415 determines that the person i corresponding to the maximum value among the total sum v_sum_all (i) for each person is the person of the input face image. As a result, even if the face orientation of the registered face image is slightly different, the similarity of the input face image is higher for the person who is the input face image, while the similarity is lower for the other person. Can be improved. In addition, the face orientation is close to the estimated face orientation not only when the face orientation changes slowly but also when the face orientation changes suddenly, as in the case of input face images taken in time series by walkthrough. Since the sum of the vote values is obtained only for, the face collation accuracy can be increased.

上述したように、投票手段4414は、入力顔画像421at0〜2に類似すると判定された登録顔画像の各人物および各顔向きについて投票値を集計する。これにより、本発明に係る顔照合装置40は、図6の登録顔データ422bの登録顔画像422b2のように、人物Aと顔の形状が異なる人物Bの異なる顔向き「角度A15」の登録顔画像と人物Aの入力顔画像421at0の類似度が想定外に高くなったとしても、人物Bが入力顔画像421at0〜2の人物として誤って判定されるのを回避できる。   As described above, the voting unit 4414 counts vote values for each person and each face direction of the registered face image determined to be similar to the input face images 421 at 0 to 2. As a result, the face collation apparatus 40 according to the present invention enables the registered face of the person A and the person B having a different face shape “angle A15” as in the registered face image 422b2 of the registered face data 422b of FIG. Even if the similarity between the image and the input face image 421at0 of the person A is unexpectedly high, it is possible to avoid the person B being erroneously determined as the person of the input face images 421at0 to 421at2.

顔照合結果出力インタフェース部450は、制御部440が顔照合の照合結果を、顔照合結果処理部50に送るためのインタフェース部である。したがって、顔照合結果出力インタフェース部450は、上述の画像入力インタフェース部210と同様に、顔照合結果処理部50と顔照合装置40とを接続する通信の方式に従って適切な通信インタフェースアダプタなどを含んで構成される。   The face matching result output interface unit 450 is an interface unit for the control unit 440 to send a face matching result to the face matching result processing unit 50. Therefore, the face matching result output interface unit 450 includes an appropriate communication interface adapter or the like according to the communication method for connecting the face matching result processing unit 50 and the face matching device 40, similarly to the image input interface unit 210 described above. Composed.

顔照合結果処理部50は、顔照合装置40から通信を介して照合結果を受け取り、この照合結果に基づいて適切な処理を行う。顔照合結果処理部50は、顔照合装置40と分離した1つもしくは複数の装置でもよく、顔照合装置40と一体でもよい。   The face matching result processing unit 50 receives the matching result from the face matching device 40 via communication, and performs appropriate processing based on the matching result. The face matching result processing unit 50 may be one or a plurality of devices separated from the face matching device 40 or may be integrated with the face matching device 40.

例えば、顔照合結果処理部50は、電気信号によってドアの施錠/解錠を行う電気錠でもよい。そして、顔照合装置40が入力画像中の人物が登録されている入室許可対象者のいずれかであるという照合結果を電気信号によって電気錠に送ると、電気錠は、ドアを解錠して入室を許可し、そうでない場合、電気錠は、ドアに施錠をしたまま入室を禁止することができる。   For example, the face matching result processing unit 50 may be an electric lock that locks / unlocks a door by an electric signal. Then, when the face collation device 40 sends a collation result indicating that the person in the input image is one of the entry-permitted persons registered to the electric lock by an electric signal, the electric lock unlocks the door and enters the room. Otherwise, the electric lock can be prohibited from entering the room with the door locked.

また、例えば、顔照合結果処理部50は、ディスプレイ、ランプ、アラームもしくはスピーカなどのユーザ出力装置を有する警報装置などでもよい。そして、顔照合結果処理部50は、顔照合装置40から入力画像中の人物が入室許可対象者のいずれでもないという照合結果を受け取った場合、照合結果を適切な形式でユーザ出力装置に出力して、入室許可対象者でない者が入室しようとしたことを職員や保安員などに報知してもよい。   Further, for example, the face matching result processing unit 50 may be an alarm device having a user output device such as a display, a lamp, an alarm, or a speaker. Then, when the face matching result processing unit 50 receives a matching result indicating that the person in the input image is not one of the persons permitted to enter the room from the face matching device 40, the face matching result processing unit 50 outputs the matching result to the user output device in an appropriate format. Thus, the staff or security staff may be notified that a person who is not a person who is permitted to enter the room has attempted to enter the room.

次に、図9および図10を参照しながら、本実施例のウォークスルー型の入退室管理システム1の処理の流れについて説明する。   Next, the flow of processing of the walk-through type entrance / exit management system 1 of the present embodiment will be described with reference to FIGS. 9 and 10.

図9は、本実施例に係る顔データ登録装置20による登録顔データ422の登録処理の一例を示すフローチャートである。図9を参照しながら、本実施例のウォークスルー型の入退室管理システム1における顔データ登録装置20の登録顔データ422の登録処理について説明する。顔データ登録装置20の制御部220は、撮像部10から画像入力インタフェース部210を介して登録用画像を受け取ると、以下の処理を開始する。   FIG. 9 is a flowchart illustrating an example of registration processing of the registered face data 422 by the face data registration apparatus 20 according to the present embodiment. The registration process of the registered face data 422 of the face data registration device 20 in the walk-through type entrance / exit management system 1 of the present embodiment will be described with reference to FIG. When receiving the registration image from the imaging unit 10 via the image input interface unit 210, the control unit 220 of the face data registration device 20 starts the following processing.

制御部220は、撮像部10から受け取った登録用画像を登録用顔画像抽出手段2210に渡す。そして、登録用顔画像抽出手段2210は、受け取った登録用画像から顔領域を抽出して登録用顔画像を生成する(ステップS110)。   The control unit 220 passes the registration image received from the imaging unit 10 to the registration face image extraction unit 2210. Then, the registration face image extraction unit 2210 extracts a face area from the received registration image and generates a registration face image (step S110).

3次元顔モデル生成手段2220は、登録用顔画像抽出手段2210が抽出した登録用顔画像のデータを3次元顔形状データにマッピングして、登録人物の3次元顔モデルを生成する(ステップS120)。   The 3D face model generation means 2220 maps the registration face image data extracted by the registration face image extraction means 2210 to 3D face shape data, and generates a 3D face model of the registered person (step S120). .

登録顔データ生成手段2230は、3次元顔モデル生成手段2220が生成した3次元顔モデルの頭部を様々な方向に変えて再現して生成した様々な顔向きの登録顔画像を登録顔データ422として記憶部230に記憶させる(ステップS130)。   The registered face data generation means 2230 changes the face of the 3D face model generated by the 3D face model generation means 2220 in various directions and reproduces the registered face images generated in various directions. Is stored in the storage unit 230 (step S130).

制御部220は、すべての登録人物の登録用画像についてステップS110〜ステップS140の処理を繰り返した後、記憶部230に記憶されたすべての登録顔データ422を登録顔データ出力インタフェース部240を介して顔照合装置40に送ることができる。   The control unit 220 repeats the processing of steps S110 to S140 for the registration images of all registered persons, and then transmits all the registered face data 422 stored in the storage unit 230 via the registered face data output interface unit 240. It can be sent to the face matching device 40.

なお、制御部220は、上述したように、撮像部10から撮影した登録人物の登録用画像が送られると、随時、送られた登録用画像を登録用顔画像抽出手段2210に渡してもよいが、これらの登録用画像はビデオテープもしくはハードディスクなどの記憶媒体に録画データとして一旦保存されてもよい。そして制御部220は、記憶部媒体に保存された録画データを記憶部230のアクセス装置などによって読み取り、読み取った録画データから1フレームずつ切り出して登録用画像として登録用顔画像抽出手段2210に渡してもよい。   As described above, when the registration image of the registered person photographed from the imaging unit 10 is sent, the control unit 220 may pass the sent registration image to the registration face image extraction unit 2210 at any time. However, these registration images may be temporarily stored as recording data in a storage medium such as a video tape or a hard disk. The control unit 220 reads the recorded data stored in the storage unit medium by the access device of the storage unit 230, cuts out the read recorded data frame by frame, and passes it to the registration face image extraction unit 2210 as a registration image. Also good.

図10は、本実施例に係る顔照合装置40による顔照合処理の一例を示すフローチャートである。図10を参照しながら、本実施例のウォークスルー型の入退室管理システム1における顔照合装置40の顔照合処理について説明する。登録人物の登録顔データ422は、図9で説明したように顔データ登録装置20によって生成されて、顔照合装置40の記憶部420に記憶されているものとする。顔照合装置40の制御部440は、撮像部30から画像入力インタフェース部410を介して入力画像を順次受け取ると、以下の処理を実行する。   FIG. 10 is a flowchart illustrating an example of face matching processing by the face matching device 40 according to the present embodiment. The face matching process of the face matching device 40 in the walk-through type entrance / exit management system 1 of the present embodiment will be described with reference to FIG. Assume that the registered face data 422 of the registered person is generated by the face data registration device 20 as described with reference to FIG. 9 and stored in the storage unit 420 of the face matching device 40. When the control unit 440 of the face matching device 40 sequentially receives input images from the imaging unit 30 via the image input interface unit 410, the control unit 440 executes the following processing.

制御部440は、撮像部30から受け取った入力画像を入力顔画像抽出手段4411に渡す。そして、入力顔画像抽出手段4411は、受け取った入力画像から、上述した登録用顔画像抽出手段2210と同様に人物の顔領域を抽出し入力顔画像として記憶部420に記憶する(ステップS210)。   The control unit 440 passes the input image received from the imaging unit 30 to the input face image extraction unit 4411. Then, the input face image extraction unit 4411 extracts a human face area from the received input image in the same manner as the registration face image extraction unit 2210 described above, and stores it in the storage unit 420 as an input face image (step S210).

なお、ステップS210において、入力画像中に複数の人物が撮影されている場合、入力顔画像抽出手段4411は、入力画像から複数の顔領域を抽出する。この場合、制御部440は、入力画像に含まれる複数の入力顔画像のそれぞれについて、ステップS210〜S270の処理を繰り返す。   In step S210, when a plurality of persons are photographed in the input image, the input face image extraction unit 4411 extracts a plurality of face regions from the input image. In this case, the control unit 440 repeats the processes of steps S210 to S270 for each of a plurality of input face images included in the input image.

類似度算出手段4412は、入力顔画像抽出手段4411が抽出した入力顔画像と記憶部420に記憶されている各登録人物の登録顔データ422の様々な顔向きの登録顔画像との類似度をそれぞれ算出する。そして、類似度算出手段4412は、算出した類似度を、登録人物ごとに各登録顔画像の顔向き識別情報に対応付けて類似度テーブルに記憶する(ステップS220)。例えば、登録されている登録人物が100人で、図2に示したように1人につき25枚の登録顔画像が登録されている場合、類似度算出手段4412は、25×100=2500枚の登録顔画像と入力顔画像との類似度を求めて類似度テーブルに記憶してもよい。   The similarity calculation unit 4412 calculates the similarity between the input face image extracted by the input face image extraction unit 4411 and registered face images of various face orientations in the registered face data 422 of each registered person stored in the storage unit 420. Calculate each. Then, the similarity calculation unit 4412 stores the calculated similarity in the similarity table in association with the face orientation identification information of each registered face image for each registered person (step S220). For example, when there are 100 registered persons and 25 registered face images are registered per person as shown in FIG. 2, the similarity calculating unit 4412 calculates 25 × 100 = 2500 sheets. The similarity between the registered face image and the input face image may be obtained and stored in the similarity table.

投票テーブル更新手段4413は、過去に取得した入力画像に関して投票集計テーブルの投票集計値に加算された古い投票値を投票集計テーブルから取り除く(ステップS230)。   The voting table update unit 4413 removes the old voting value added to the voting total value of the voting total table for the input images acquired in the past from the voting total table (step S230).

投票手段4414は、類似度算出手段4412が類似度テーブルに記憶した類似度を参照して入力顔画像に類似する登録顔画像を選択し、選択した登録顔画像の人物および顔向きに対して投票集計テーブルで投票する(ステップS240)。ステップS210において入力画像から複数の入力顔画像が抽出され、抽出された複数の入力顔画像のそれぞれについて画像追跡を行っている場合、投票手段4414は、追跡する入力顔画像ごとに、上述の投票集計テーブルでの投票を行ってもよい。   The voting unit 4414 selects a registered face image similar to the input face image with reference to the similarity stored in the similarity table by the similarity calculating unit 4412, and votes for the person and face orientation of the selected registered face image. Vote in the tabulation table (step S240). When a plurality of input face images are extracted from the input image in step S210 and image tracking is performed for each of the extracted input face images, the voting unit 4414 performs the above voting for each input face image to be tracked. You may vote in the total table.

人物決定手段4415は、投票手段4414が投票した投票集計テーブルを参照して、投票集計値が最大である人物を入力顔画像の人物として選択する(ステップS250)。   The person determining unit 4415 refers to the vote totaling table voted by the voting unit 4414 and selects the person having the maximum vote total value as the person of the input face image (step S250).

人物決定手段4415は、ステップS250で選択した最大の投票集計値が照合用閾値以上であるか否かを判定する(ステップS260)。   The person determination unit 4415 determines whether or not the maximum vote total value selected in step S250 is equal to or greater than a verification threshold value (step S260).

最大の投票集計値が照合用閾値未満の場合(ステップS260のNo)、制御部440は、ステップS210に戻り、撮像部30から入力画像を受け取る。そして、制御部440は、受け取った入力画像を入力顔画像抽出手段4411に渡し、ステップS210〜S270の処理を繰り返す。   When the maximum vote total value is less than the verification threshold value (No in Step S260), the control unit 440 returns to Step S210 and receives an input image from the imaging unit 30. Then, the control unit 440 passes the received input image to the input face image extraction unit 4411 and repeats the processes of steps S210 to S270.

最大の投票集計値が照合用閾値以上の場合(ステップS260のYes)、人物決定手段4415は、選択した最大の投票集計値に対応する人物を入力画像に入力顔画像の人物であると決定して照合結果として出力する(ステップS270)。制御部440は、人物決定手段4415から入力顔画像の人物が登録人物のいずれかであると判定されたことおよび/もしくは入力顔画像の人物であると判定された登録人物に関する人物情報などを照合結果として受け取り、この照合結果を顔照合結果出力インタフェース部450によって顔照合結果処理部50に送り、処理を終了する。   If the maximum vote count value is equal to or greater than the verification threshold (Yes in step S260), the person determination unit 4415 determines that the person corresponding to the selected maximum vote count value is the person of the input face image as the input image. And output as a collation result (step S270). The control unit 440 collates with the person determination unit 4415 that the person of the input face image has been determined to be one of the registered persons and / or personal information regarding the registered person who has been determined to be the person of the input face image. As a result, the collation result is sent to the face collation result processing unit 50 by the face collation result output interface unit 450, and the process ends.

本発明に係る顔画像照合装置によれば、入力顔画像と入力顔画像と異なる人物で顔向きが異なる登録顔画像との類似度が非常に高いため入力顔画像の人物を他人と誤って判定してしまう他人受け入れもしくは本人棄却を防止することができるので、顔照合の照合精度を向上させることができる。   According to the face image matching device according to the present invention, since the similarity between the input face image and the registered face image having a different face direction in the person different from the input face image is very high, the person in the input face image is erroneously determined as another person. Since it is possible to prevent others from being accepted or rejected, it is possible to improve the accuracy of face matching.

なお、本発明に係る顔画像照合装置は、ウォークスルー型の入退室管理システムだけでなく、利用者が部屋の入り口の前で一旦立ち止まって入室の許可を得るための顔認証を行う入退室管理システムの顔照合装置に適用することができる。この顔照合装置では、例えば、部屋の入り口前などに設置された複数のカメラによって様々な角度から撮影された様々な顔向きの利用者の画像を複数の入力画像として、上述したウォークスルー型の入退室管理システムの顔照合装置と同様の顔照合処理を行うことができる。   The face image collation apparatus according to the present invention is not only a walk-through type entrance / exit management system, but also an entrance / exit management for performing face authentication for a user to temporarily stop in front of the entrance of the room and obtain permission to enter the room. The present invention can be applied to a face matching device of the system. In this face collation device, for example, the above-described walk-through type image is obtained by using, as a plurality of input images, images of users facing various faces taken from various angles by a plurality of cameras installed in front of the entrance of the room. Face matching processing similar to that performed by the face matching device of the entrance / exit management system can be performed.

また、本発明は、店舗内の店内監視システムなどにおいて監視カメラの監視画像から不審者を検出するために顔照合を行う顔照合装置などに適用することができる。この店内監視システムの顔照合装置では、過去に不正行為を行った前歴のある要監視対象者などの顔画像を登録顔データとして予め登録しておき、監視画像から抽出された入力顔画像と予め登録された登録顔画像とを照合する。この場合、顔照合装置は、監視カメラから時系列に撮影された複数の監視画像を入力画像として、上述の顔照合装置と同様に顔照合を行うことができる。また、この顔照合装置は、店舗内の複数の場所に設置された複数の監視カメラが撮影した複数の監視画像を入力画像とすることができる。そして顔照合装置は、入力画像中の人物が登録顔データが登録されている要監視対象者のいずれかであると判定すると、その旨を警報装置などの顔照合結果処理装置を通じて店員や保安員などの監視者に報知する。   In addition, the present invention can be applied to a face matching device that performs face matching for detecting a suspicious person from a monitoring image of a monitoring camera in an in-store monitoring system. In the face matching device of this in-store monitoring system, a face image of a person who needs to be monitored who has had a previous history of cheating is registered in advance as registered face data, and an input face image extracted from the monitoring image and the face image are stored in advance. Check the registered face image registered. In this case, the face matching device can perform face matching in the same manner as the above-described face matching device, using a plurality of monitoring images taken in time series from the monitoring camera as input images. Moreover, this face collation apparatus can use a plurality of monitoring images taken by a plurality of monitoring cameras installed at a plurality of locations in the store as input images. When the face collation device determines that the person in the input image is one of the monitoring target persons in which the registered face data is registered, the face collation result processing device such as an alarm device informs that fact. Notify the monitor.

また、例えば、上述の店内監視システムにおいて、撮像部から送られた入力画像は、ビデオテープもしくはハードディスクなどの記憶媒体に録画データとして一旦保存されてもよい。この場合、顔照合装置の制御部は、記憶媒体に保存された録画データを記憶部のアクセス装置などによって読み取り、読み取った録画データから1フレームずつ切り出して入力画像とすることができる。そして顔照合装置は、上述したように入力画像中の人物が登録顔データの登録人物であるか否かを照合することによって、保存された録画データ中に要監視対象者などの不審者が写っていないか分析することができる。   In addition, for example, in the above-mentioned in-store monitoring system, the input image sent from the imaging unit may be temporarily stored as recording data in a storage medium such as a video tape or a hard disk. In this case, the control unit of the face collation device can read the recorded data stored in the storage medium by the access device of the storage unit and cut out the read recorded data frame by frame to make an input image. Then, as described above, the face collation device collates whether or not the person in the input image is a registered person in the registered face data, so that a suspicious person such as a monitoring target person is reflected in the stored recording data. Can analyze.

さらに、上述した実施例では、顔データ登録装置20と顔照合装置40とは別個の装置であったが、本発明に係る顔データ登録装置20と顔照合装置40とは同一の装置でもよい。この場合、顔データ登録装置用の撮像部10、画像入力インタフェース部210、制御部220および/もしくは記憶部230は、それぞれ、顔照合装置40用の撮像部30、画像入力インタフェース部410、制御部440および/もしくは記憶部420と共通でもよい。また、登録顔データ出力インタフェース部240および登録顔データ入力インタフェース部430は不要である。例えば、店内監視システムの一実施例において、顔データ登録装置の制御部は、店舗内の監視カメラなどの撮像部から受け取った監視画像に不審者が含まれていると判定した場合、この監視画像を登録用画像として登録顔データの登録処理を行ってもよい。   Furthermore, in the embodiment described above, the face data registration device 20 and the face collation device 40 are separate devices, but the face data registration device 20 and the face collation device 40 according to the present invention may be the same device. In this case, the imaging unit 10, the image input interface unit 210, the control unit 220, and / or the storage unit 230 for the face data registration device are respectively the imaging unit 30, the image input interface unit 410, and the control unit for the face matching device 40. 440 and / or storage unit 420 may be shared. Further, the registered face data output interface unit 240 and the registered face data input interface unit 430 are unnecessary. For example, in one embodiment of the in-store monitoring system, when the control unit of the face data registration device determines that a suspicious person is included in the monitoring image received from an imaging unit such as a monitoring camera in the store, the monitoring image The registered face data may be registered using the image for registration.

本発明は、認証システムおよび監視システムなどにおける様々な顔照合装置に適用することができる。   The present invention can be applied to various face matching devices in an authentication system, a monitoring system, and the like.

1 ウォークスルー型入退室管理システム
10 撮像部
20 顔データ登録装置
30 撮像部
40 顔照合装置
50 顔照合結果処理部
210 画像入力インタフェース部
220 制御部
230 記憶部
240 登録顔データ出力インタフェース部
410 画像入力インタフェース部
420 記憶部
430 登録顔データ入力インタフェース部
440 制御部
450 顔照合結果出力インタフェース部
2210 登録用顔画像抽出手段
2220 3次元顔モデル生成手段
2230 登録顔データ生成手段
4411 入力顔画像抽出手段
4412 類似度算出手段
4413 投票テーブル更新手段
4414 投票手段
4415 人物決定手段
DESCRIPTION OF SYMBOLS 1 Walk through type entrance / exit management system 10 Image pick-up part 20 Face data registration apparatus 30 Image pick-up part 40 Face collation apparatus 50 Face collation result process part 210 Image input interface part 220 Control part 230 Storage part 240 Registered face data output interface part 410 Image input Interface unit 420 Storage unit 430 Registered face data input interface unit 440 Control unit 450 Face matching result output interface unit 2210 Registration face image extraction unit 2220 Three-dimensional face model generation unit 2230 Registration face data generation unit 4411 Input face image extraction unit 4412 Similar Degree calculation means 4413 Voting table update means 4414 Voting means 4415 Person determining means

Claims (4)

順次取得された複数の入力顔画像を予め登録された登録顔画像と照合する顔画像照合装置であって、
複数の登録人物のそれぞれについて、前記登録顔画像として該登録人物の顔向きが相互に異なる複数の顔画像を記憶する記憶部と、
前記入力顔画像ごとに、前記登録顔画像との類似度を算出する類似度算出手段と、
前記類似度が所定以上の前記登録顔画像のそれぞれに投票するとともに、前記複数の入力顔画像の時間的に連続する所定数分について前記登録顔画像ごとに投票値を集計して投票集計値を求める投票手段と、
前記投票集計値によって前記複数の登録人物のいずれかを前記入力顔画像の人物として決定する人物決定手段と、
を有することを特徴とする顔画像照合装置。
A face image collation device for collating a plurality of input face images acquired sequentially with a registered face image registered in advance,
For each of a plurality of registered persons, a storage unit that stores a plurality of face images having different face orientations of the registered persons as the registered face images;
Similarity calculation means for calculating the similarity with the registered face image for each input face image;
Vote for each of the registered face images having a similarity equal to or higher than a predetermined value, and add up vote values for each of the registered face images for a predetermined number of temporally continuous input face images. Voting means to seek,
Person determining means for determining any of the plurality of registered persons as a person of the input face image based on the vote count value;
A face image collating apparatus characterized by comprising:
前記人物決定手段は、前記登録人物ごとの前記投票集計値の総和が最大の登録人物を前記入力顔画像の人物として決定する、請求項1に記載の顔画像照合装置。   The face image matching device according to claim 1, wherein the person determining unit determines a registered person having a maximum sum of the vote total values for each registered person as a person of the input face image. 前記人物決定手段は、前記投票集計値が最大の登録人物を前記入力顔画像の人物として決定する、請求項1または2のいずれか1項に記載の顔画像照合装置。   3. The face image matching device according to claim 1, wherein the person determining unit determines a registered person having the largest vote total value as a person of the input face image. 4. 前記人物決定手段は、前記投票手段が集計する前記入力顔画像の時間的に連続する所定数に基づき予め定めた照合用閾値を前記投票集計値が超えている登録人物を前記入力顔画像の人物として決定する、請求項2または3のいずれか1項に記載の顔画像照合装置。   The person determination means is a person of the input face image for a registered person whose voting count value exceeds a predetermined matching threshold based on a predetermined number of temporally continuous input face images counted by the voting means. The face image matching device according to claim 2, wherein the face image matching device is determined as follows.
JP2010083602A 2010-03-31 2010-03-31 Face image matching device Active JP5618594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010083602A JP5618594B2 (en) 2010-03-31 2010-03-31 Face image matching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010083602A JP5618594B2 (en) 2010-03-31 2010-03-31 Face image matching device

Publications (2)

Publication Number Publication Date
JP2011215896A JP2011215896A (en) 2011-10-27
JP5618594B2 true JP5618594B2 (en) 2014-11-05

Family

ID=44945558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010083602A Active JP5618594B2 (en) 2010-03-31 2010-03-31 Face image matching device

Country Status (1)

Country Link
JP (1) JP5618594B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5766096B2 (en) * 2011-11-09 2015-08-19 セコム株式会社 Face image authentication device
JP5955031B2 (en) * 2012-02-29 2016-07-20 セコム株式会社 Face image authentication device
WO2017046838A1 (en) * 2015-09-14 2017-03-23 株式会社日立国際電気 Specific person detection system and specific person detection method
JP2017064025A (en) * 2015-09-30 2017-04-06 株式会社東京精密 Receiving box system

Also Published As

Publication number Publication date
JP2011215896A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
JP7318691B2 (en) Image processing device, image processing method, face authentication system and program
JP5618593B2 (en) Face image processing device
JP5567853B2 (en) Image recognition apparatus and method
US9530078B2 (en) Person recognition apparatus and person recognition method
KR101729327B1 (en) A monitoring system for body heat using the dual camera
JP2003346149A (en) Face collating device and bioinformation collating device
EP1134691A2 (en) Image processing apparatus and method for extracting feature of object
US11006864B2 (en) Face detection device, face detection system, and face detection method
KR101436290B1 (en) Detection of fraud for access control system of biometric type
US11080557B2 (en) Image authentication apparatus, method, and storage medium using registered image
JP2002507035A (en) How to authenticate the validity of an image recorded for personal identification
KR100824757B1 (en) Gait recognition method
CN108875484B (en) Face unlocking method, device and system for mobile terminal and storage medium
WO2019216091A1 (en) Face authentication device, face authentication method, and face authentication system
JP4797517B2 (en) Monitoring device and method, and program
JP6601513B2 (en) Information processing device
JP5618594B2 (en) Face image matching device
CN114269243A (en) Fall risk evaluation system
US11048915B2 (en) Method and a device for detecting fraud by examination using two different focal lengths during automatic face recognition
JP2012108645A (en) Egress/ingress management system and personal identification data reading device
JP6150491B2 (en) Face recognition device
JP2005078228A (en) Personal identification device and program
JP6873639B2 (en) Image processing equipment, image processing methods and programs
CN111444831B (en) Method for recognizing human face through living body detection
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R150 Certificate of patent or registration of utility model

Ref document number: 5618594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250