JP2015041307A - Collation device and collation method and collation system and computer program - Google Patents

Collation device and collation method and collation system and computer program Download PDF

Info

Publication number
JP2015041307A
JP2015041307A JP2013172900A JP2013172900A JP2015041307A JP 2015041307 A JP2015041307 A JP 2015041307A JP 2013172900 A JP2013172900 A JP 2013172900A JP 2013172900 A JP2013172900 A JP 2013172900A JP 2015041307 A JP2015041307 A JP 2015041307A
Authority
JP
Japan
Prior art keywords
collation
detected
image information
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013172900A
Other languages
Japanese (ja)
Other versions
JP6311237B2 (en
Inventor
利憲 細井
Toshinori Hosoi
利憲 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013172900A priority Critical patent/JP6311237B2/en
Publication of JP2015041307A publication Critical patent/JP2015041307A/en
Application granted granted Critical
Publication of JP6311237B2 publication Critical patent/JP6311237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a collation device capable of more accurately detecting even rough impersonation causing the deterioration of "a likelihood of being the person", and collating an object to be collated.SOLUTION: A collation device 1 includes: a detection part 2 for detecting whether or not a predetermined operation is included in image information 101 on the basis of image information 101 including information configuring an image indicating an object; and a collation part 3 for collating the object on the basis of the image information 101 used when the detection is performed by the detection part 2 and a predetermined stored featured value, and for determining whether or not the object is a specific object on the basis of the collation result.

Description

本発明は、照合の対象である対象物を撮像した画像等に基づき対象物を照合する技術分野に関する。   The present invention relates to a technical field in which an object is collated based on an image or the like obtained by capturing an object to be collated.

人の顔や顔の一部を用いて人物を照合するシステムは、本人ではない他人の顔写真や画像表示装置によって表示された顔写真を、カメラに提示するといった、いわゆる「なりすまし」行為によって、本人を他人として照合してしまう場合がある。   A system that matches a person using a person's face or a part of the face is a so-called “spoofing” act of presenting a photograph of a face of another person who is not the person or a face photograph displayed by an image display device to the camera. There is a case where the person is collated as another person.

このような、「なりすまし」を検知する方法としては、係るシステムに提示された照合の対象物(以降、「照合対象物」と称する)が生体であるか否かを判定することによって、「なりすまし」を検知することが一般的に知られている。そのため、係る方法は、「ライブネスチェック」、または「生体検知」と呼ばれることも多い。   As a method of detecting such “spoofing”, it is possible to detect whether or not the target of verification presented to the system (hereinafter referred to as “target for verification”) is a living body, Is generally known. Therefore, such a method is often called “liveness check” or “biological detection”.

「なりすまし」を検知する方法は、上述した検知方法だけでなく、さまざまな技術が古くから利用されてきた。   As a method for detecting “spoofing”, not only the above-described detection method but also various techniques have been used for a long time.

例えば、係る検知方法は、顔等の照合対象物と、カメラとの距離に基づいて、顔や口及び目等の顔の部位のサイズを推定する。さらに、検知方法は、サイズを推定した結果、照合対象物が人体として適切か否か判定する。   For example, the detection method estimates the size of a facial part such as the face, mouth, and eyes based on the distance between the collation target such as the face and the camera. Further, as a result of estimating the size, the detection method determines whether or not the verification target object is appropriate as a human body.

また、一例として、係る検知方法は、照合対象物の温度を計測する。検知方法は、計測した温度が人体表面の温度か否かを判定する。検知方法は、照合対象物が立体物であるか否かを判定する。   In addition, as an example, the detection method measures the temperature of the verification target object. The detection method determines whether or not the measured temperature is the temperature of the human body surface. The detection method determines whether or not the verification target is a three-dimensional object.

このように、係る検知方法は、照合対象物のサイズや温度等に基づいて、その照合対象物が人体であるか否かを判定することによって、当該照合対象物が生体であると検知する技術が知られている。   As described above, the detection method is a technology for detecting that the verification target is a living body by determining whether or not the verification target is a human body based on the size or temperature of the verification target. It has been known.

一方で、係る検知方法には、照合の対象(以降、「照合対象」と称する)である人物による「所定の動作」を検知することによって、当該照合対象である人物が生体であると検知する技術が存在する。即ち、検知方法は、照合対象である人物が人間らしい動きをしたか否かを判定する。   On the other hand, according to such a detection method, by detecting a “predetermined operation” by a person who is a target of collation (hereinafter referred to as “collation target”), the person who is the collation target is detected as a living body. Technology exists. That is, the detection method determines whether or not the person to be collated has a human-like movement.

この「所定の動作」を検知する技術は、カメラ等によって撮像した顔、顔の一部(部位)及び顔の周辺を表す人体画像を、画像処理することによって、「所定の動作」を検知する。   The technology for detecting the “predetermined motion” detects the “predetermined motion” by performing image processing on a human face image captured by a camera or the like, a part (part) of the face, and the periphery of the face. .

「所定の動作」を検知するに際して、係る「所定の動作」を検知する技術において利用するセンシングデバイスは、カメラのみである。そのため、「所定の動作」を検知する技術は、導入するためのコストを低く抑えることができる。即ち、「所定の動作」を検知する技術は、産業上非常に有用である。   In detecting the “predetermined operation”, the only sensing device used in the technology for detecting the “predetermined operation” is a camera. Therefore, the technology for detecting “predetermined operation” can keep the cost for introduction low. That is, a technique for detecting “predetermined operation” is very useful in industry.

ここで、本願出願に先立って存在する代表的な関連技術としては、例えば、特許文献1乃至特許文献3が知られている。   Here, for example, Patent Documents 1 to 3 are known as typical related technologies existing prior to the present application.

特許文献1は、個人識別装置、個人識別方法および個人識別プログラムを記録した記録媒体に関する技術を開示する。   Patent Document 1 discloses a technique relating to a personal identification device, a personal identification method, and a recording medium on which a personal identification program is recorded.

特許文献1に開示された個人識別装置は、時系列に撮像された画像を利用して照合対象である人物のまばたき動作を検知する。個人識別装置は、まばたき動作を検知した場合に、「なりすまし」ではないと判定する。   The personal identification device disclosed in Patent Document 1 detects a blinking motion of a person to be collated using images captured in time series. The personal identification device determines that it is not “spoofing” when a blink operation is detected.

個人識別装置は、「なりすまし」でないと判定した場合に、照合対象である人物を照合する。個人識別装置は、照合対象である人物がまばたき動作をするまで照合対象である人物を照合する処理を完了できないことがデメリットとなる。   The personal identification device collates a person to be collated when it is determined that it is not “spoofing”. The personal identification device has a disadvantage in that it cannot complete the process of collating the person to be collated until the person to be collated performs the blinking operation.

特許文献2は、生体照合装置、生体照合システム、生体照合方法及びプログラムに関する技術を開示する。   Patent Document 2 discloses a technique related to a biometric matching device, a biometric matching system, a biometric matching method, and a program.

まばたき動作を検知する特許文献1に対して、特許文献2は、照合対象である人物に対して特定の動作をするように要求する技術が開示されている。   In contrast to Patent Literature 1 that detects a blinking motion, Patent Literature 2 discloses a technology that requests a person to be collated to perform a specific motion.

より具体的に、係る生体照合システムは、照合対象である人物が目を閉じた後に目を開けるといった、「所定の動作」を検知した場合に、「なりすまし」ではないと判定する。   More specifically, the biometric matching system determines that it is not “spoofing” when a “predetermined action” is detected such that the person to be matched opens his eyes after closing his eyes.

係る生体照合システムは、「なりすまし」ではないと判定した場合に、照合対象である人物の照合を開始する。   When it is determined that the biometric matching system is not “spoofing”, matching of a person who is a matching target is started.

特許文献1及び特許文献2に開示された技術は、「なりすまし」でないと判定した場合のみに、照合対象である人物を照合する。   The techniques disclosed in Patent Document 1 and Patent Document 2 collate a person who is a collation target only when it is determined that it is not “spoofing”.

一方で、特許文献3に開示された顔認証装置は、「なりすまし」であると判定した場合であっても、照合対象である人物を照合する。   On the other hand, the face authentication device disclosed in Patent Document 3 collates a person to be collated even when it is determined to be “spoofing”.

より具体的に、係る顔認証装置は、照合対象である人物を撮像した画像と、テンプレート画像として予め登録された照合対象である人物を表す画像とに基づいて、照合対象である人物が登録された照合対象である人物か否かを判定する。   More specifically, in the face authentication device, the person to be collated is registered based on an image obtained by capturing the person to be collated and an image representing the person to be collated registered in advance as a template image. It is determined whether or not the person is a matching target.

さらに、係る顔認証装置は、目や口等の顔の部位の変化を検出することによって、照合対象である人物が生体か否かを検知する。   Furthermore, the face authentication apparatus detects whether or not the person to be collated is a living body by detecting a change in a facial part such as an eye or a mouth.

即ち、照合対象である人物が生体でないと検知した場合であっても、係る顔認証装置は、照合対象である人物を照合することができる。その結果、照合対象である人物が登録されている照合対象の人物であると判定した場合に、当該顔認証装置は、生体を識別する際に用いる閾値を高めに設定する。これにより、係る顔認証装置は、誤照合してしまうリスクを低減することができる。   That is, even when it is detected that the person to be collated is not a living body, the face authentication apparatus can collate the person to be collated. As a result, when it is determined that the person to be collated is a registered person to be collated, the face authentication device sets a higher threshold to be used for identifying the living body. As a result, the face authentication apparatus can reduce the risk of erroneous matching.

特開平11−339048号公報Japanese Patent Laid-Open No. 11-339048 特開2002−251614号公報JP 2002-251614 A 特開2006−330936号公報JP 2006-330936 A

特許文献1に開示された個人識別装置は、時系列に撮像された異なるフレーム画像に基づいて、それらフレーム画像間の差分画像を生成する。個人識別装置は、生成した差分画像に、例えば、照合対象である人物の目、口等を表す顔の部位があるか否かを判定する。   The personal identification device disclosed in Patent Document 1 generates a difference image between frame images based on different frame images taken in time series. The personal identification device determines whether or not the generated difference image includes a facial part representing, for example, the eyes and mouth of a person to be collated.

係る個人識別装置は、例えば、紙等の遮蔽物を照合対象である人物の目に被せた場合であっても、顔の部位があると判定する。   For example, such a personal identification device determines that there is a facial part even when a shielding object such as paper is placed on the eyes of a person to be collated.

特許文献2に開示された生体照合装置は、照合対象である人物を撮像した画像から目を表す部分画像を検出する。さらに、生体照合装置は、検出した目を表す部分画像から抽出された特徴点と、予め記憶された特徴点とに基づいて照合する。   The biometric matching device disclosed in Patent Literature 2 detects a partial image representing an eye from an image obtained by capturing a person who is a matching target. Furthermore, the biometric matching device performs matching based on the feature points extracted from the partial image representing the detected eye and the feature points stored in advance.

これにより、係る生体照合装置は、目や口等の顔の部位が動作したことを検知することができる。即ち、当該生体照合装置は、「目を開いた状態」と「目を閉じた状態」とを明確に識別することができる。   Thereby, the biometric matching device can detect that a facial part such as an eye or a mouth has moved. That is, the biometric matching device can clearly distinguish between “a state where the eyes are open” and “a state where the eyes are closed”.

しかしながら、特許文献2には、顔写真を提示する等の「本人らしさ」が低下するような粗雑な偽装か否かを判別する手法について、考慮されておらず何ら述べられていない。そのため、係る生体照合装置では、例えば、手描きされた目のような模様であっても、目が動作したと検知する虞がある。   However, Patent Document 2 does not take into account any technique for determining whether or not a rough camouflage that reduces the “personality” such as presenting a face photograph is described. Therefore, in such a biometric matching device, for example, even a hand-drawn eye pattern may detect that the eye has moved.

特許文献3に開示された顔認証装置は、時系列に撮像された異なる複数のフレーム画像に基づいて、それらフレーム画像間の差分画像を生成する。当該顔認証装置は、差分画像に基づいて、目及び口を表す領域を推定する。   The face authentication device disclosed in Patent Literature 3 generates a difference image between frame images based on a plurality of different frame images captured in time series. The face authentication apparatus estimates a region representing the eyes and mouth based on the difference image.

係る顔認証装置は、推定したそれぞれの領域において画素数をカウントする。さらに、当該顔認証装置は、カウントした値が予め設定した閾値を超えた場合に、例えば、目に動き(所定の動作)があったと判定する。   The face authentication apparatus counts the number of pixels in each estimated area. Furthermore, the face authentication device determines that there has been movement (predetermined movement) in the eyes, for example, when the counted value exceeds a preset threshold value.

係る顔認証装置は、目、または口の何れか一方のみに動きがあったと判定した場合に、生体であると検知する。また、係る顔認証装置は、撮像された画像を用いて予め登録されたテンプレート画像に対するテンプレートマッチングを行うことによって、照合対象である人物を照合する。   The face authentication apparatus detects that the subject is a living body when it is determined that only one of the eyes and the mouth has moved. In addition, the face authentication apparatus collates a person to be collated by performing template matching on a template image registered in advance using the captured image.

しかしながら、係る顔認証装置は、例えば、紙等の遮蔽物を照合対象である人物の口に被せた場合に、目、または口の何れか一方のみに動きがあったと判定する。即ち、顔認証装置では、依然として、生体であると誤検知する可能性がある。   However, for example, when the face authentication device covers a mouth of a person to be collated with a shield such as paper, the face authentication device determines that only one of the eyes or the mouth has moved. That is, the face authentication device may still erroneously detect that it is a living body.

このように、特許文献1乃至特許文献3に開示された技術は、例えば、顔写真を提示する等の「本人らしさ」が低下するような粗雑な偽装を見逃した場合に、顔写真に含まれる人物を照合する。即ち、係る技術では、「本人らしさ」が低下するような粗雑な偽装を見逃した場合に、誤照合する虞がある。   As described above, the techniques disclosed in Patent Document 1 to Patent Document 3 are included in a face photograph when, for example, a rough camouflage such as presenting a face photograph that reduces the “personality” is missed. Match people. In other words, in such a technique, there is a risk of erroneous collation when a rough camouflage that reduces the “personality” is missed.

例えば、目を閉じた後に目を開ける等の「所定の動作」を検知することを利用者が既に知っている場合に、係る偽装の方法(つまり、「なりすまし」が検知されるのを回避する方法)は、考案されやすい。   For example, if the user already knows to detect a “predetermined action” such as opening his eyes after closing his eyes, avoiding the detection of such impersonation methods (ie, “spoofing”) Method) is easy to devise.

特に、「なりすまし」される本人と異なる人物の顔を撮像した顔写真を使用する偽装の方法は、容易に考案でき、且つ容易に実施することができる。即ち、「本人らしさ」が低下するような粗雑な偽装は、悪意のある第三者によって、行われやすい。   In particular, a camouflage method using a facial photograph obtained by capturing a face of a person different from the person being “spoofed” can be easily devised and easily implemented. That is, a rough camouflage that reduces the “personality” is easily performed by a malicious third party.

さらに、上述した偽装方法の他に、例えば、係る偽装の方法としては、「所定の動作」をする第三者を表す画像を利用する。また、当該偽装の方法は、「所定の動作」に見えるように複数の画像を貼り合わせることによって生成した画像を利用する。または、偽装の方法は、照合対象である人物を撮像した顔写真に遮蔽物をかぶせるといった手法が存在する。   Further, in addition to the above-described camouflaging method, for example, as the camouflaging method, an image representing a third party who performs a “predetermined operation” is used. The camouflage method uses an image generated by combining a plurality of images so as to look like a “predetermined operation”. Alternatively, the camouflaging method includes a method of covering a face photograph obtained by capturing a person to be collated with a shield.

より具体的に、一例として、ここでは、照合対象である人物が「目を閉じる動作」を所定の動作として検知する場合について説明する。   More specifically, as an example, here, a case will be described in which a person to be collated detects “an eye closing operation” as a predetermined operation.

例えば、照合対象である人物(つまり、なりすまされる人物)と異なる第三者は、当該照合対象である人物が目を開いた状態を表す顔写真を、容易に入手することができる。さらに、係る第三者にとっては、不特定の人物(照合対象である人物と異なる人物)が目を閉じた状態を表す顔写真を入手することも容易である。   For example, a third person who is different from the person to be collated (that is, the person to be impersonated) can easily obtain a facial photograph representing a state in which the person to be collated is open. Furthermore, it is easy for such a third party to obtain a facial photograph showing a state in which an unspecified person (a person different from the person to be collated) closed his eyes.

まず、係る第三者は、照合対象である人物が目を開いた状態を表す顔写真を、例えば、照合対象である人物を撮像するカメラに提示する。第三者は、照合対象である人物が目を開いた状態を表す顔写真を、不特定の人物が目を閉じた状態を表す顔写真に差し替える。   First, the third party presents a facial photograph representing a state in which the person to be collated has opened eyes, for example, to a camera that captures the person to be collated. The third person replaces the facial photograph representing the state in which the person to be collated has eyes open with the facial photograph representing the state in which an unspecified person has closed eyes.

さらに、係る第三者は、不特定の人物が目を閉じた状態を表す顔写真を、照合対象である人物が目を開いた状態を表す顔写真に差し替える。即ち、第三者は、係る目を開いた状態を表す顔写真を改めて提示する。   Furthermore, the third party replaces a facial photograph representing a state in which an unspecified person has closed his eyes with a facial photograph representing a state in which the person to be collated has his eyes opened. That is, the third person presents a new face photograph representing the state of opening his eyes.

これにより、特許文献1乃至特許文献3に開示された技術は、顔写真の変化を「所定の動作(つまり、目を閉じる動作)」として検知する。即ち、係る技術は、生体であると誤検知する。さらに、係る技術は、改めて提示された照合対象である人物が目を開いた状態を表す顔写真に基づいて、照合対象の人物であると照合する。   As a result, the techniques disclosed in Patent Documents 1 to 3 detect a change in a facial photograph as a “predetermined operation (that is, an operation for closing eyes)”. That is, this technique erroneously detects that it is a living body. Further, the technology verifies that the person to be collated is a person to be collated based on a facial photograph representing a state in which the person to be collated is newly opened.

このような問題が生じる理由は、係る技術は、生体であると判定した後に照合対象である人物を照合する。このため、偽装によって生体であると誤検知した場合に、係る技術では、照合対象である人物として誤照合してしまうからである。   The reason why such a problem occurs is that such technology collates a person to be collated after determining that the subject is a living body. For this reason, if it is erroneously detected that the subject is a living body by impersonation, such technology will erroneously collate as a person to be collated.

尚、照合対象である人物を照合後に、照合対象である人物が生体であるか否かを検知する場合であっても、係る技術では、同様の問題を解決することができない。   Even if it is a case where it is detected whether the person who is a collation object is a living body after collating the person who is a collation object, the technique cannot solve the same problem.

本発明の主たる目的は、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することが可能な照合装置等を提供することを主たる目的とする。   The main object of the present invention is to perform collation capable of more accurately detecting the impersonation and collating the target object to be collated even if it is a rough camouflage that reduces the “personality” The main purpose is to provide devices and the like.

上記の課題を達成すべく、本発明に係る照合装置は、以下の構成を備えることを特徴とする。   In order to achieve the above object, a collation apparatus according to the present invention has the following configuration.

即ち、本発明に係る照合装置は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする。
That is, the verification device according to the present invention is
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
It is characterized by providing.

或いは、同目的は、上記に示す照合装置を含む照合システムによっても達成される。   Alternatively, this object can be achieved by a verification system including the verification device described above.

また、同目的を達成すべく、本発明に係る照合方法は、以下の構成を備えることを特徴とする。   In order to achieve the same object, the collation method according to the present invention is characterized by having the following configuration.

即ち、本発明に係る照合方法は、
情報処理装置によって、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする。
That is, the verification method according to the present invention is:
Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
It is characterized by that.

尚、同目的は、上記の各構成を有する照合装置及び照合方法を、コンピュータによって実現するコンピュータ・プログラム、及びそのコンピュータ・プログラムが格納されている、読み取り可能な記憶媒体によっても達成される。   This object is also achieved by a computer program that implements the collation apparatus and collation method having the above-described configurations by a computer, and a readable storage medium that stores the computer program.

本発明によれば、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することが可能な照合装置等を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is a rough camouflage with which "personality" falls, the collation apparatus which can detect the camouflage more correctly and can collate the target object which is the object of collation Etc. can be provided.

本発明の第1の実施形態における照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the collation apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態における照合装置が行う動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the collation apparatus in the 1st Embodiment of this invention performs. 本発明の第2の実施形態における照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the collation apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施形態における照合装置が行う動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the collation apparatus in the 2nd Embodiment of this invention performs. 本発明の第3の実施形態における照合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the collation apparatus in the 3rd Embodiment of this invention. 本発明の第3の実施形態における照合装置が行う動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the collation apparatus in the 3rd Embodiment of this invention performs. 本発明の第4の実施形態における照合装置を含む照合システムの構成を示すブロック図である。It is a block diagram which shows the structure of the collation system containing the collation apparatus in the 4th Embodiment of this invention. 本発明の第4の実施形態における照合装置が行う動作を示すフローチャートである。It is a flowchart which shows the operation | movement which the collation apparatus in the 4th Embodiment of this invention performs. 本発明に係る各実施形態を実現可能な情報処理装置のハードウェア構成を例示的に説明するブロック図である。It is a block diagram explaining illustratively the hardware constitutions of the information processor which can realize each embodiment concerning the present invention.

以下、本発明の実施形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態における照合装置1の構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a collation device 1 according to the first embodiment of the present invention.

図1において、照合装置1は、検知部2と、照合部3とを備える。   In FIG. 1, the verification device 1 includes a detection unit 2 and a verification unit 3.

より具体的に、検知部2は、照合対象である対象物を表す画像(画像を構成する情報)を含む画像情報101に基づいて、その画像情報101に所定の動作(以降、説明の便宜上、「第1動作」と称する)を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。   More specifically, the detection unit 2 performs a predetermined operation (hereinafter, for convenience of explanation) on the image information 101 based on the image information 101 including an image (information constituting the image) representing an object to be collated. If it is detected that the image includes the “first operation”, the object included in the image represented by the image information 101 is detected as a living body.

また、検知部2は、第1動作をしていない状態であることを検知する。即ち、検知部2は、照合の対象である対象物を照合しやすい(自然な)状態であることを検知する。   In addition, the detection unit 2 detects that the first operation is not being performed. That is, the detection unit 2 detects that it is in a state where it is easy to collate the target object to be collated (natural).

ここで、照合しやすい(自然な)状態とは、例えば、人物を照合する場合に、人物が目を開き、且つ口を閉じた無表情であることを表す状態を含む。但し、本実施形態を例に説明する本発明は、前述した構成には限定されない(以下、各実施形態においても同様)。   Here, the state that is easy to collate (natural) includes, for example, a state that represents that the person has an open face and a mouthless expression when collating the person. However, the present invention described using this embodiment as an example is not limited to the configuration described above (hereinafter, the same applies to each embodiment).

より具体的に、検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。   More specifically, when the detection unit 2 detects that the first operation is not included in the image information 101 based on the image information 101, the detection unit 2 detects that the first operation is not performed.

画像情報101は、例えば、カメラ等の撮影機器によって撮像された照合対象である対象物を表す画像を含む時系列な複数の画像フレームによって構成される動画像である。   The image information 101 is, for example, a moving image composed of a plurality of time-series image frames including an image representing a target object to be collated captured by a photographing device such as a camera.

より具体的に、画像情報101は、例えば、人物を照合する場合に、照合対象である人体の顔、または目や口等の顔の部位(一部)を表す部分画像を含む。   More specifically, the image information 101 includes, for example, a partial image representing a human body face to be collated or a part (part) of a face such as an eye or a mouth when collating a person.

尚、上述した本実施形態では、説明の便宜上、一例として、画像情報101は、時系列な複数の画像フレームによって構成される動画像を例に説明した。しかしながら本発明に係る実施形態は、係る構成に限定されない。   In the above-described embodiment, for convenience of explanation, the image information 101 is described as an example of a moving image composed of a plurality of time-series image frames. However, the embodiment according to the present invention is not limited to such a configuration.

画像情報101は、時系列な複数の画像フレームによって構成される画像を採用してもよい。また、例えば、画像情報101は、照合対象である対象物を表す画像から抽出された特徴量を採用してもよい。   The image information 101 may employ an image composed of a plurality of time-series image frames. Further, for example, the image information 101 may employ a feature amount extracted from an image representing an object that is a collation target.

第1動作とは、画像情報101に基づき検知部2が検知するところの対象物、または対象物の部位の動作である。   The first operation is an operation of an object or a part of the object detected by the detection unit 2 based on the image information 101.

より具体的に、第1動作は、例えば、人物を照合する場合に、照合対象である人物の顔、または顔の部位の動作である。   More specifically, the first operation is, for example, an operation of a person's face or face part to be collated when the person is collated.

第1動作は、例えば、人物の顔を上下左右に動かす、顔を左右に傾ける、目(瞼)の開閉、眼球(虹彩)の動き、口の開閉動作を採用することができる。   As the first operation, for example, a person's face can be moved up and down, left and right, a face can be tilted left and right, eye (eyelid) opening and closing, eyeball (iris) movement, and mouth opening and closing operation can be adopted.

尚、第1動作は、上述した動作の何れか、または1つ以上の動作を組み合わせてもよい。   The first operation may be any of the operations described above or a combination of one or more operations.

より具体的に、一例として、目の開閉動作を第1動作に採用する場合に、第1動作は、「目を閉じる」動作を表すこととする。検知部2は、画像情報101に「目を閉じる」動作を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。   More specifically, as an example, when an eye opening / closing operation is adopted as the first operation, the first operation represents an “eye closing” operation. When the detection unit 2 detects that the image information 101 includes a “close eye” operation, the detection unit 2 detects that the object included in the image represented by the image information 101 is a living body.

また、検知部2は、画像情報101に「目を閉じる」動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。例えば、検知部2は、画像情報101に「目を開く」動作を検知した場合に、画像情報101に「目を閉じる」動作を含まないと検知してもよい。また、例えば、検知部2は、画像情報101に「目を開いている」状態を検知した場合に、画像情報101に「目を閉じる」動作を含まないと検知してもよい。   Further, when the detection unit 2 detects that the image information 101 does not include the “close eye” operation, the detection unit 2 detects that the first operation is not performed. For example, when the detection unit 2 detects an “open eye” operation in the image information 101, the detection unit 2 may detect that the image information 101 does not include an “close eye” operation. For example, when the detection unit 2 detects the state of “open eyes” in the image information 101, the detection unit 2 may detect that the operation of “closing eyes” is not included in the image information 101.

また、一例として、口の開閉動作を第1動作に採用する場合に、第1動作は、「口を開く」動作を表すこととする。検知部2は、画像情報101に「口を開ける」動作を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。   As an example, when the opening / closing operation of the mouth is adopted as the first operation, the first operation represents an operation of “opening the mouth”. When the detection unit 2 detects that the image information 101 includes an “open mouth” operation, the detection unit 2 detects that the object included in the image represented by the image information 101 is a living body.

また、検知部2は、画像情報101に「口を開ける」動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。例えば、検知部2は、画像情報101に「口を閉じる」動作を検知した場合に、画像情報101に「口を開く」動作を含まないと検知してもよい。また、例えば、検知部2は、画像情報101に「口を閉じている」状態を検知した場合に、画像情報101に「口を開ける」動作を含まないと検知してもよい。   Further, when the detection unit 2 detects that the image information 101 does not include the “open mouth” operation, the detection unit 2 detects that the first operation is not performed. For example, the detection unit 2 may detect that the image information 101 does not include the “open mouth” operation when the image information 101 detects the “close mouth” operation. For example, when the detection unit 2 detects the state of “closing the mouth” in the image information 101, the detection unit 2 may detect that the operation of opening the mouth is not included in the image information 101.

これにより、検知部2は、画像情報101に基づいて、「目を閉じている」と識別した場合には、画像情報101に第1動作を含むと検知することができる。   As a result, when the detection unit 2 identifies that “eyes are closed” based on the image information 101, the detection unit 2 can detect that the image information 101 includes the first action.

また、検知部2は、画像情報101に基づいて、例えば、「目を開いている」と識別した場合には、画像情報101に第1動作を含まないと検知することができる。即ち、検知部2は、画像情報101に第1動作を含まないと検知することによって、第1動作が終了したと判定することができる。   For example, when the detection unit 2 identifies “open eyes” based on the image information 101, the detection unit 2 can detect that the first operation is not included in the image information 101. That is, the detection unit 2 can determine that the first operation has ended by detecting that the first operation is not included in the image information 101.

次に、照合部3は、検知部2により対象物が生体であると検知した場合に、画像情報101に第1動作を含むと検知した際に用いた画像情報101と、記憶部4に保持された特徴量102とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。   Next, when the detection unit 2 detects that the object is a living body, the matching unit 3 holds the image information 101 used when the image information 101 includes the first operation and the storage unit 4. Based on the feature quantity 102 thus determined, it is verified whether or not the target object included in the image represented by the image information 101 is a specific target object to be verified.

また、照合部3は、検知部2により対象物が第1動作をしていない状態であると検知した場合に、第1動作をしていない状態であると検知した際に用いた画像情報101と、特徴量102とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。   Further, when the detection unit 2 detects that the target object is not in the first motion, the image information 101 used when the verification unit 3 detects that the target is not in the first motion. Then, based on the feature quantity 102, it is verified whether or not the target object included in the image represented by the image information 101 is a specific target object to be verified.

ここで、特徴量102とは、照合部3が照合の対象である対象物を照合するに際して利用するデータである。即ち、画像により人物を照合する場合に、特徴量102は、照合対象である個人を区別しやすいように変換された数値列(ベクトル)である。   Here, the feature quantity 102 is data used when the collation unit 3 collates the target object to be collated. That is, when collating a person with an image, the feature quantity 102 is a numeric string (vector) converted so that it is easy to distinguish a person to be collated.

より具体的に、特徴量102は、予め記憶部4に保持された照合対象である特定の対象物による第1動作をしていないこと(つまり、第1動作と異なる動作及び状態)を表す画像に基づいて抽出された特徴量である。   More specifically, the feature quantity 102 is an image representing that the first action is not performed by a specific target object to be collated that is stored in the storage unit 4 in advance (that is, an action and a state different from the first action). It is the feature-value extracted based on.

尚、上述した本実施形態では、説明の便宜上、一例として、特徴量102は、照合対象である特定の対象物による第1動作をしていないことを表す画像に基づいて抽出された特徴量を採用する例に説明した。   In the above-described embodiment, for convenience of explanation, as an example, the feature amount 102 is a feature amount extracted based on an image indicating that the first operation by the specific target object to be collated is not performed. This is explained in the example of adoption.

しかしながら本発明に係る実施形態は、係る構成に限定されない。特徴量102は、照合対象である特定の対象物による第1動作を表す画像に基づいて抽出された特徴量を採用してもよい。   However, the embodiment according to the present invention is not limited to such a configuration. As the feature quantity 102, a feature quantity extracted based on an image representing a first action by a specific target object to be collated may be adopted.

また、対象物を表す画像に基づき任意の統計的パターン認識技術を用いて、特徴量を抽出する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。   In addition, since a technique for extracting a feature amount using an arbitrary statistical pattern recognition technique based on an image representing an object can be a general technique at present, a detailed description in the present embodiment is provided. Is omitted (hereinafter, the same applies to each embodiment).

照合部3は、検知部2により対象物が生体であると検知した際に照合した結果(以降、説明の便宜上、「第1の照合結果」と称する)と、第1動作をしていない状態であると検知した際に照合した結果(以降、説明の便宜上、「第2の照合結果」と称する)とに基づいて、画像情報101が表す画像に含まれる対象物が照合の対象として予め記憶部4に保持された特定の対象物であるか否かを判定する。   The collation unit 3 is a state in which the detection unit 2 detects that the target object is a living body (hereinafter referred to as “first collation result” for convenience of explanation) and the first operation is not performed. The object included in the image represented by the image information 101 is stored in advance as a collation target based on the collation result (hereinafter referred to as “second collation result” for convenience of explanation). It is determined whether or not the object is a specific object held in the unit 4.

記憶部4は、特徴量102を保持する。記憶部4は、コンピュータによるデータの読み書きが可能な不揮発性の記憶デバイスである。   The storage unit 4 holds the feature amount 102. The storage unit 4 is a nonvolatile storage device that can read and write data by a computer.

より具体的に、一例として、記憶部4は、情報処理装置等の電子機器に搭載されたハードディスクドライブ(Hard_disk_drive:以降、「HDD」と称する)等の不揮発性の記憶装置を採用することができる。   More specifically, as an example, the storage unit 4 may employ a nonvolatile storage device such as a hard disk drive (Hard_disk_drive: hereinafter referred to as “HDD”) mounted on an electronic device such as an information processing device. .

また、一例として、記憶部4は、不図示の通信ネットワークに接続されたストレージデバイス(不図示)を採用してもよい。但し、本実施形態を例に説明する本発明は、前述した構成には限定されない(以下の実施形態においても同様)。   As an example, the storage unit 4 may employ a storage device (not shown) connected to a communication network (not shown). However, the present invention described using this embodiment as an example is not limited to the above-described configuration (the same applies to the following embodiments).

以下の説明において、より具体的に、本実施形態における照合装置1の動作について説明する。   In the following description, the operation of the verification device 1 in the present embodiment will be described more specifically.

図2は、本発明の第1の実施形態における照合装置1が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置1の動作手順を説明する。   FIG. 2 is a flowchart showing an operation performed by the collation device 1 according to the first embodiment of the present invention. The operation procedure of the collation apparatus 1 will be described along the flowchart.

ここでは、説明の便宜上、一例として、照合装置1は、照合対象である人物の目の開閉動作を検知することとする。第1動作は、「目を閉じる」動作を表すこととする。また、画像情報101は、照合対象である人物を表す部分画像を含むこととする。   Here, for convenience of explanation, as an example, the collation apparatus 1 detects the opening / closing operation of the eyes of a person to be collated. The first operation represents an “eyes closing” operation. Further, the image information 101 includes a partial image representing a person to be collated.

尚、説明の便宜上、上述した構成を例に説明するが、本実施形態を例に説明する本発明は、前述した構成にはこれに限定されない(以下の実施形態においても同様)。   For convenience of explanation, the above-described configuration will be described as an example. However, the present invention described by taking this embodiment as an example is not limited to the above-described configuration (the same applies to the following embodiments).

ステップS101:
検知部2は、画像情報101に基づいて、画像情報101が表す画像に含まれる人物が生体であるか否かを検知する。即ち、検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含むか否かを検知する。
Step S101:
Based on the image information 101, the detection unit 2 detects whether or not a person included in the image represented by the image information 101 is a living body. That is, the detection unit 2 detects whether or not the image information 101 includes the first operation based on the image information 101.

より具体的に、検知部2は、一般的に知られた任意の統計的パターン認識技術を用いて、生成された識別器によって、画像情報101が表す画像に含まれる人物が「第1動作」を表す状態か否かを識別する。検知部2は、「第1動作」を表す状態であると識別した場合に、画像情報101に第1動作を含むと検知する。   More specifically, the detection unit 2 uses a generally known arbitrary statistical pattern recognition technique to detect that the person included in the image represented by the image information 101 is “first operation” by the generated classifier. It is identified whether or not it represents a state. When the detection unit 2 identifies that the state represents the “first operation”, the detection unit 2 detects that the image information 101 includes the first operation.

任意の統計的パターン認識技術としては、一般的に知られたサポートベクトルマシン、ニューラルネットワーク、学習ベクトル量子化及びブースティング等を採用することができる。   As an arbitrary statistical pattern recognition technique, generally known support vector machines, neural networks, learning vector quantization, boosting, and the like can be adopted.

例えば、検知対象である人物において「目の開閉」を識別する場合に、識別器は、任意の統計的パターン認識技術によって、目の周辺を含む「目を閉じた状態」及び「目を開けた状態」を表す多数の人体画像を学習することにより生成される(以下、各実施形態においても同様)。   For example, when identifying “open / closed eyes” in a person to be detected, the discriminator uses an arbitrary statistical pattern recognition technique to “close the eyes” and “open the eyes” including the periphery of the eyes. It is generated by learning a large number of human body images representing the “state” (the same applies to the following embodiments).

ステップS102において「YES」:
検知部2は、画像情報101が表す画像に含まれる人物が生体であると検知した場合に、処理をステップS103及びステップS104に進める。
“YES” in step S102:
When the detection unit 2 detects that the person included in the image represented by the image information 101 is a living body, the detection unit 2 advances the processing to step S103 and step S104.

ステップS102において「NO」:
検知部2は、画像情報101が表す画像に含まれる人物が生体でないと検知した場合に、次の映像フレームの処理を進める。即ち、検知部2は、処理をステップS101に戻す。
“NO” in step S102:
When the detection unit 2 detects that the person included in the image represented by the image information 101 is not a living body, the detection unit 2 proceeds with processing of the next video frame. That is, the detection unit 2 returns the process to step S101.

ステップS103:
照合部3は、検知部2が生体であると検知した際に用いた画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。照合部3は、処理をステップS107に進める。
Step S103:
The collation unit 3 collates whether or not a person included in the image represented by the image information 101 used when the detection unit 2 detects a living body is a specific person to be collated. The collation unit 3 advances the process to step S107.

より具体的に、照合部3は、検知部2が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づいて、当該画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。   More specifically, the collation unit 3 is based on the feature amount extracted from the image information 101 used when the detection unit 2 detects that it is a living body and the feature amount 102 held in the storage unit 4. It is verified whether or not the person included in the image represented by the image information 101 is a specific person to be verified.

尚、照合部3が画像情報101から特徴量を抽出すると共に、抽出した特徴量と特徴量102とに基づき照合する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。   In addition, since the collation part 3 extracts the feature-value from the image information 101 and collates based on the extracted feature-value and the feature-value 102, since a general technique can be employ | adopted now, this implementation A detailed description of the embodiment will be omitted (hereinafter, the same applies to each embodiment).

ステップS104:
検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含むか否かを検知する。
Step S104:
Based on the image information 101, the detection unit 2 detects whether or not the image information 101 includes the first operation.

より具体的に、検知部2は、画像情報101が表す画像に含まれる人物が「第1動作」を表す状態か否かを識別する。検知部2は、「第1動作」を表す状態でないと識別した場合に、画像情報101に第1動作を含まないと検知する。   More specifically, the detection unit 2 identifies whether or not a person included in the image represented by the image information 101 represents a “first operation”. The detection unit 2 detects that the first operation is not included in the image information 101 when it is identified that the state does not represent the “first operation”.

尚、ステップS104において、検知部2が画像情報101に第1動作を含むか否かを検知する際に用いる画像情報101は、ステップS101において、検知部2が画像情報101に第1動作を含むか否かを検知する際に用いた画像情報101と異なる画像情報である。即ち、ステップS101において用いる画像情報101とステップS104において用いる画像情報101とは、別の映像フレームである(以下、各実施形態においても同様)。   Note that the image information 101 used when the detection unit 2 detects whether or not the image information 101 includes the first operation in step S104 is the image information 101 used by the detection unit 2 includes the first operation in the image information 101 in step S101. The image information is different from the image information 101 used when detecting whether or not. That is, the image information 101 used in step S101 and the image information 101 used in step S104 are different video frames (the same applies to the following embodiments).

尚、検知部2が画像情報101に第1動作を含むか否かを検知する手法は、上述したステップS101において画像情報101に第1動作を含むか否か検知した手法を採用することができる。そのため、重複する説明は省略する。   As a method for detecting whether the detection unit 2 includes the first operation in the image information 101, the method of detecting whether the image information 101 includes the first operation in step S101 described above can be employed. . Therefore, the overlapping description is omitted.

ステップS105において「NO」:
検知部2は、画像情報101に第1動作を含まないと検知した場合に、処理をステップS106に進める。
“NO” in step S105:
If the detection unit 2 detects that the first operation is not included in the image information 101, the process proceeds to step S106.

ステップS105において「YES」:
検知部2は、画像情報101に第1動作を含むと検知した場合に、次の映像フレームの処理を進める。即ち、検知部2は、処理をステップS101に戻す。
“YES” in step S105:
When the detection unit 2 detects that the image information 101 includes the first operation, the detection unit 2 proceeds with processing of the next video frame. That is, the detection unit 2 returns the process to step S101.

ステップS106:
照合部3は、検知部2が第1動作を含まないと検知した際に用いた画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。照合部3は、処理をステップS107に進める。
Step S106:
The collation unit 3 collates whether or not the person included in the image represented by the image information 101 used when the detection unit 2 detects that the first operation is not included is a specific person to be collated. The collation unit 3 advances the process to step S107.

より具体的に、照合部3は、検知部2が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づいて、当該画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。   More specifically, the collation unit 3 is based on the feature amount extracted from the image information 101 used when the detection unit 2 detects that the first operation is not included, and the feature amount 102 held in the storage unit 4. Thus, it is verified whether or not the person included in the image represented by the image information 101 is a specific person to be verified.

ステップS107:
照合部3は、ステップS103において照合した結果(第1の照合結果)と、ステップS106において照合した結果(第2の照合結果)とに基づいて、画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを判定する。
Step S107:
Based on the result collated in step S103 (first collation result) and the result collated in step S106 (second collation result), the collation unit 3 collates a person included in the image represented by the image information 101. It is determined whether or not the target person is a specific person.

より具体的に、照合部3は、生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づき照合した結果(第1の照合結果)と、第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づき照合した結果(第2の照合結果)とに基づいて、画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを判定する。   More specifically, the collation unit 3 performs collation based on the feature amount extracted from the image information 101 used when it is detected as a living body and the feature amount 102 held in the storage unit 4 (first (Matching result), a result of matching based on the feature quantity extracted from the image information 101 used when it is detected that the first operation is not included, and the feature quantity 102 stored in the storage unit 4 (second matching result) ), It is determined whether or not the person included in the image represented by the image information 101 is a specific person to be collated.

尚、上述したステップS103、ステップS106及びステップS107に示す判定結果は、照合対象である特定の対象物であることを示す「真」、または照合対象である特定の対象物でないことを示す「偽」の2値で表してもよい。また、当該判定結果は、照合対象である対象物らしさを表す数値(照合スコア)で表してもよい。   It should be noted that the determination results shown in steps S103, S106, and S107 described above are “true” indicating that the object is a specific object to be verified, or “false” indicating that the object is not a specific object that is a target to be verified. ”May be represented by a binary value. In addition, the determination result may be represented by a numerical value (collation score) that represents the object likeness to be collated.

判定結果として「真」、または「偽」を表す2値を採用した場合に、照合部3は、第1の照合結果と、第2の照合結果との論理積(AND)をとり、その結果に応じて判定する。   When a binary value representing “true” or “false” is adopted as the determination result, the collation unit 3 takes a logical product (AND) of the first collation result and the second collation result, and the result Judge according to.

より具体的に、第1及び第2の照合結果が「真」を表す場合に、照合部3は、「真」、つまり、照合対象である特定の対象物であると判定する。その一方で、第1及び第2の照合結果の何れかが「偽」を表す場合に、照合部3は、「偽」、つまり、照合対象である特定の対象物でないと判定する。   More specifically, when the first and second collation results represent “true”, the collation unit 3 determines “true”, that is, a specific object to be collated. On the other hand, if either of the first and second matching results represents “false”, the matching unit 3 determines that the information is not “false”, that is, a specific target object to be verified.

また、判定結果として数値(照合スコア)を採用した場合に、照合部3は、第1の照合結果と第2の照合結果との線形和、または最小値と、所定の閾値との比較結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。   When a numerical value (collation score) is adopted as the determination result, the collation unit 3 uses the linear sum of the first collation result and the second collation result or the comparison result between the minimum value and a predetermined threshold value. Accordingly, it is determined whether or not the object included in the image represented by the image information 101 is a specific object to be collated.

より具体的に、一例として、照合部3は、係る線形和、または最小値と、所定の閾値とを比較した結果、閾値より小さい場合に、照合対象である特定の対象物でないと判定する。一方で、照合部3は、比較した結果、閾値以上の場合に、照合対象である特定の対象物であると判定してもよい。   More specifically, as an example, the collation unit 3 determines that the target is not a specific object to be collated when the linear sum or the minimum value is smaller than the threshold as a result of comparison. On the other hand, the collation part 3 may determine with it being the specific target object which is collation object, when it is more than a threshold value as a result of the comparison.

また、照合部3は、第1の照合結果と第2の照合結果との照合スコアの値を、確率として扱えるように、例えば、「0.0」から「1.0」の実数としてスケーリングする。   Further, the matching unit 3 scales the value of the matching score between the first matching result and the second matching result as a real number from “0.0” to “1.0”, for example, so that it can be treated as a probability. .

照合部3は、スケーリングされた第1の照合結果の値と、第2の照合結果の値とを乗算する。照合部3は、乗算することによって求めた値と、所定の閾値とを比較した結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。   The matching unit 3 multiplies the scaled first matching result value and the second matching result value. The collation unit 3 determines whether or not the object included in the image represented by the image information 101 is a specific object to be collated, according to a result of comparing the value obtained by multiplication with a predetermined threshold value. Determine whether.

また、照合部3は、値「1」からスケーリングされた第1の照合結果の値と、第2の照合結果の値とを乗算することによって求めた値を減算する。照合部3は、減算することによって求めた値を、例えば、ソフトマックス関数を用いて変換する。照合部3は、変換した値と、所定の閾値とを比較した結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。   The collation unit 3 subtracts the value obtained by multiplying the value of the first collation result scaled from the value “1” by the value of the second collation result. The collation unit 3 converts the value obtained by the subtraction using, for example, a softmax function. The collation unit 3 determines whether or not the object included in the image represented by the image information 101 is a specific object to be collated, according to a result of comparing the converted value with a predetermined threshold value. .

所定の閾値は、例えば、管理者によって予め設定される構成を採用してもよい。また、所定の閾値は、照合部3による判定結果に応じて、設定される構成を採用してもよい。   As the predetermined threshold, for example, a configuration set in advance by an administrator may be employed. In addition, a configuration in which the predetermined threshold is set according to the determination result by the matching unit 3 may be adopted.

尚、上述した本実施形態では、説明の便宜上、一例として、照合装置1は、ステップS101において画像情報101に第1動作を含むか否かを検知後にステップS104において画像情報101に第1動作を含むか否かを検知する構成を例に説明した。   In the present embodiment described above, for convenience of explanation, as an example, the collation apparatus 1 detects whether or not the image information 101 includes the first operation in step S101 and then performs the first operation on the image information 101 in step S104. The configuration for detecting whether or not it is included has been described as an example.

しかしながら本発明に係る実施形態は、係る構成に限定されない。   However, the embodiment according to the present invention is not limited to such a configuration.

より具体的に、例えば、本実施形態において、照合装置1は、図2に示すステップS104乃至ステップS106において説明した処理を、ステップS101乃至ステップS103において説明した処理よりも先に実行する構成を採用することができる。即ち、検知部2は、画像情報101に第1動作を含むと検知する処理、または画像情報101に第1動作を含まないと検知する処理の何れか一方の処理を実行すると共に、その何れか一方の処理を実行後に他方の処理を実行する構成を採用することができる。   More specifically, for example, in the present embodiment, the collation apparatus 1 adopts a configuration in which the processing described in steps S104 to S106 illustrated in FIG. 2 is performed before the processing described in steps S101 to S103. can do. That is, the detection unit 2 executes either one of the processing that detects that the image information 101 includes the first operation or the processing that detects that the image information 101 does not include the first operation, and either of them. A configuration in which one process is executed and then the other process is executed can be employed.

この場合に、図2に示すステップS104において、検知部2は、第1動作が終了したことを検知するのではなく、照合対象である対象物が照合可能な状態(第1動作をしていない状態)であることを検知する構成を採用することができる(以下、各実施形態においても同様)。   In this case, in step S104 shown in FIG. 2, the detection unit 2 does not detect that the first operation has ended, but is in a state in which the target object to be verified can be verified (the first operation is not performed). It is possible to adopt a configuration that detects that the state is (the same applies to the following embodiments).

また、照合装置1は、図2に示すステップS104、ステップS103、ステップS105、ステップS106の順に処理を実行する構成を採用してもよい。さらに、照合装置1は、ステップS103、ステップS104乃至ステップS106において説明した処理を略並列に実行する構成を採用してもよい。   Moreover, the collation apparatus 1 may employ | adopt the structure which performs a process in order of step S104 shown in FIG. 2, step S103, step S105, and step S106. Furthermore, the collation apparatus 1 may employ a configuration in which the processes described in step S103 and steps S104 to S106 are executed in substantially parallel.

このように本実施の形態に係る照合装置1によれば、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することができる。その理由は、以下に述べる通りである。   As described above, according to the collation device 1 according to the present embodiment, even if it is a rough camouflage such that the “personality” is reduced, the impersonation is detected more accurately, and the target to be collated You can collate things. The reason is as described below.

即ち、検知部2は、画像情報101に基づいて、その画像情報101に所定の動作(第1動作)を含むか否かを検知する。これにより、検知部2は、より正確に照合対象である対象物が生体か否かを検知することができる。さらに、照合部3は、検知部2によって、画像情報101に所定の動作を含むと検知した際に用いた画像情報101と、画像情報101に所定の動作を含まないと検知した際に用いた画像情報101とに基づいて、画像情報101が表す画像に含まれる対象物を照合する。照合部3は、その所定の動作を含むと検知した際の照合結果と、その所定の動作を含まないと検知した際の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定することができるからである。   That is, based on the image information 101, the detection unit 2 detects whether or not the image information 101 includes a predetermined operation (first operation). Thereby, the detection part 2 can detect more accurately whether the target object which is a collation object is a biological body. Further, the collation unit 3 is used when the detection unit 2 detects that the image information 101 includes a predetermined operation and the image information 101 that the image information 101 does not include the predetermined operation. Based on the image information 101, the object included in the image represented by the image information 101 is collated. The collation unit 3 includes the object included in the image represented by the image information 101 based on the collation result when it is detected that the predetermined operation is included and the collation result when it is detected that the predetermined operation is not included. This is because it can be determined whether or not is a specific target object to be collated.

このように、照合装置1は、照合対象である対象物(本人)らしさを検証することができる。また、照合装置1は、「本人らしさ」が低下するような粗雑な偽装であっても、なりすまされた対象物を照合する、つまり、誤照合してしまう問題を防ぐことができる。   Thus, the collation apparatus 1 can verify the object (person) identity that is the collation target. Further, the collation device 1 can prevent the problem of collating an impersonated object, that is, erroneous collation even if it is a rough camouflage that reduces the “personality”.

<第2の実施形態>
次に、上述した本発明の第1の実施形態に係る照合装置1を基本とする第2の実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Second Embodiment>
Next, a second embodiment based on the verification device 1 according to the first embodiment of the present invention described above will be described. In the following description, the characteristic part according to the present embodiment will be mainly described. At this time, the same reference numerals are assigned to the same configurations as those in the above-described embodiments, and duplicate descriptions are omitted.

本発明の第2の実施形態における照合装置10について、図2乃至図4を参照して説明する。   A collation device 10 according to a second embodiment of the present invention will be described with reference to FIGS.

図3は、本発明の第2の実施形態における照合装置10の構成を示すブロック図である。   FIG. 3 is a block diagram showing a configuration of the collation apparatus 10 according to the second embodiment of the present invention.

図3において、照合装置10は、第1の動作検知部11と、第2の動作検知部12と、第1の照合部13と、第2の照合部14と、判定部15とを備える。   In FIG. 3, the collation device 10 includes a first motion detection unit 11, a second motion detection unit 12, a first collation unit 13, a second collation unit 14, and a determination unit 15.

より具体的に、第1の動作検知部11と、第2の動作検知部12とは、第1の実施形態において説明した検知部2に相当する。   More specifically, the first motion detection unit 11 and the second motion detection unit 12 correspond to the detection unit 2 described in the first embodiment.

第1の動作検知部11は、図2に示すステップS101及びステップS102において説明した処理を実行する。   The first motion detection unit 11 executes the processing described in step S101 and step S102 illustrated in FIG.

第2の動作検知部12は、図2に示すステップS104及びステップS105において説明した処理を実行する。   The second motion detection unit 12 executes the processing described in step S104 and step S105 illustrated in FIG.

第1の照合部13と、第2の照合部14と、判定部15とは、第1の実施形態において説明した照合部3に相当する。   The 1st collation part 13, the 2nd collation part 14, and the determination part 15 are corresponded to the collation part 3 demonstrated in 1st Embodiment.

第1の照合部13は、図2に示すステップS103において説明した処理を実行する。第2の照合部14は、図2に示すステップS106において説明した処理を実行する。判定部15は、図2に示すステップS107において説明した処理を実行する。   The first verification unit 13 executes the process described in step S103 illustrated in FIG. The second collation unit 14 executes the processing described in step S106 shown in FIG. The determination unit 15 executes the process described in step S107 illustrated in FIG.

より具体的に、第1の照合部13は、第1の動作検知部11が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。第1の照合部13は、照合結果(第1の照合結果)を判定部15に与える。   More specifically, the first verification unit 13 includes the feature amount extracted from the image information 101 used when the first motion detection unit 11 detects a living body, and the first amount held in the storage unit 4. Based on the feature amount 103, it is verified whether or not the target object included in the image represented by the image information 101 is a specific target object to be verified. The first collation unit 13 gives the collation result (first collation result) to the determination unit 15.

第2の照合部14は、第2の動作検知部12が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。第2の照合部14は、照合結果(第2の照合結果)を判定部15に与える。   The second collation unit 14 extracts the feature amount extracted from the image information 101 used when the second motion detection unit 12 detects that the first motion is not included, and the second feature amount held in the storage unit 4. 104, it is verified whether or not the object included in the image represented by the image information 101 is a specific object to be verified. The second collation unit 14 gives the collation result (second collation result) to the determination unit 15.

判定部15は、第1の照合結果と、第2の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合の対象として予め記憶部5に保持された特定の対象物であるか否かを判定する。   Based on the first collation result and the second collation result, the determination unit 15 selects a specific object in which the object included in the image represented by the image information 101 is stored in advance in the storage unit 5 as a collation target. It is determined whether or not.

記憶部4は、第1特徴量103と、第2特徴量104とを保持する。   The storage unit 4 holds the first feature amount 103 and the second feature amount 104.

本実施形態において、第1特徴量103は、照合対象である特定の対象物による第1動作を表す画像に基づいて抽出された特徴量である。第2特徴量104は、照合対象である特定の対象物による第1動作をしていないことを表す画像に基づいて抽出された特徴量である。   In the present embodiment, the first feature amount 103 is a feature amount extracted based on an image representing a first action by a specific object that is a collation target. The second feature amount 104 is a feature amount extracted based on an image indicating that the first action is not performed by a specific target object to be collated.

図4は、本発明の第2の実施形態における照合装置10が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置10の動作手順を説明する。   FIG. 4 is a flowchart showing an operation performed by the collation device 10 according to the second embodiment of the present invention. The operation procedure of the collation device 10 will be described along the flowchart.

尚、図4に示すステップS201、ステップS202、ステップS204及びステップS205において実行する処理は、図2に示すステップS101、ステップS102、ステップS104及びステップS105において説明した処理と同様である。そのため、重複する説明は省略する。   Note that the processing executed in step S201, step S202, step S204, and step S205 shown in FIG. 4 is the same as the processing described in step S101, step S102, step S104, and step S105 shown in FIG. Therefore, the overlapping description is omitted.

ステップS203:
第1の照合部13は、第1の動作検知部11が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Step S203:
The first collation unit 13 includes the feature amount extracted from the image information 101 used when the first motion detection unit 11 detects that it is a living body, and the first feature amount 103 held in the storage unit 4. Based on this, it is verified whether or not the object included in the image represented by the image information 101 is a specific object to be verified.

第1の照合部13は、照合結果(第1の照合結果)を判定部15に対して与える。第1の照合部13は、処理をステップS207に進める。   The first collation unit 13 gives the collation result (first collation result) to the determination unit 15. The first matching unit 13 advances the process to step S207.

ステップS206:
第2の照合部14は、第2の動作検知部12が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Step S206:
The second collation unit 14 extracts the feature amount extracted from the image information 101 used when the second motion detection unit 12 detects that the first motion is not included, and the second feature amount held in the storage unit 4. 104, it is verified whether or not the object included in the image represented by the image information 101 is a specific object to be verified.

第2の照合部14は、照合結果(第2の照合結果)を判定部15に対して与える。第2の照合部14は、処理をステップS207に進める。   The second collation unit 14 gives the collation result (second collation result) to the determination unit 15. The second collation unit 14 proceeds with the process to step S207.

ステップS207:
判定部15は、第1の照合結果と、第2の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。
Step S207:
The determination unit 15 determines whether or not the object included in the image represented by the image information 101 is a specific object that is a comparison target, based on the first matching result and the second matching result. .

このように本実施の形態に係る照合装置10によれば、第1の実施形態において説明した効果を享受できると共に、さらに、より速やかに、精度よく「本人らしさ」が低下するような粗雑な偽装を検知すると共に、照合の対象である対象物を照合することができる。   As described above, according to the collation device 10 according to the present embodiment, it is possible to enjoy the effects described in the first embodiment, and moreover, a rough disguise in which the “personality” is more quickly and accurately reduced. Can be detected, and an object to be verified can be verified.

その理由は、照合装置10は、第1の実施形態において説明した検知部2が実行する処理を第1の動作検知部11と、第2の動作検知部12とに分散して実行する。さらに、照合装置10は、第1の実施形態において説明した照合部3が実行する処理を第1の照合部13と、第2の照合部14と、判定部15とに分散して実行する。このため、照合装置10は、それぞれの処理が終了することを待つことなく処理を実行することができるからである。   The reason is that the collation apparatus 10 executes the processing executed by the detection unit 2 described in the first embodiment in a distributed manner between the first operation detection unit 11 and the second operation detection unit 12. Furthermore, the collation apparatus 10 executes the processing executed by the collation unit 3 described in the first embodiment in a distributed manner to the first collation unit 13, the second collation unit 14, and the determination unit 15. For this reason, it is because the collation apparatus 10 can perform a process, without waiting for each process to complete | finish.

また、照合装置10は、第1動作を表す画像及び第1動作をしていないことを表す画像に基づいて抽出された特徴量(第1特徴量103及び第2特徴量104)と、画像情報101から抽出した特徴量とに基づき照合するため、より精度よく照合の対象である特定の対象物を照合することができるからである。   In addition, the collation device 10 extracts feature amounts (first feature amount 103 and second feature amount 104) extracted based on an image representing the first operation and an image representing that the first operation is not performed, and image information. This is because collation is performed based on the feature amount extracted from 101, so that a specific object that is a collation target can be collated more accurately.

<第3の実施形態>
次に、上述した本発明の第2の実施形態に係る照合装置10を基本とする第3の実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Third Embodiment>
Next, a third embodiment based on the collation device 10 according to the second embodiment of the present invention described above will be described. In the following description, the characteristic part according to the present embodiment will be mainly described. At this time, the same reference numerals are assigned to the same configurations as those in the above-described embodiments, and duplicate descriptions are omitted.

本発明の第3の実施形態における照合装置20について、図4乃至図6を参照して説明する。   A collation device 20 according to a third embodiment of the present invention will be described with reference to FIGS.

図5は、本発明の第3の実施形態における照合装置20の構成を示すブロック図である。   FIG. 5 is a block diagram showing a configuration of the collation device 20 according to the third embodiment of the present invention.

図5において、照合装置20は、第1の動作検知部21と、第2の動作検知部12と、第1の照合部13と、第2の照合部14と、判定部15とを備える。   In FIG. 5, the collation device 20 includes a first motion detection unit 21, a second motion detection unit 12, a first collation unit 13, a second collation unit 14, and a determination unit 15.

本実施形態において、照合装置20は、第1の動作検知部21の動作が第2の実施形態において説明した第1の動作検知部11の動作と異なる。   In this embodiment, the collation apparatus 20 differs in the operation | movement of the 1st motion detection part 21 from the operation | movement of the 1st motion detection part 11 demonstrated in 2nd Embodiment.

第2の実施形態において説明した第1の動作検知部11は、画像情報101が表す画像に含まれる対象物が「第1動作」を表す状態、または「第1動作をしていない」ことを表す状態の何れかの状態を識別する構成を例に説明した。   The first motion detection unit 11 described in the second embodiment indicates that the object included in the image represented by the image information 101 represents the “first motion” or “not performing the first motion”. The configuration for identifying one of the states to be expressed has been described as an example.

本実施形態において、第1の動作検知部21は、画像情報101が表す画像に含まれる対象物が「対象物でない」ことを表す状態、「対象物による第1動作」を表す状態及び「対象物による第1動作をしていない」ことを表す状態の何れかの状態を識別する構成を採用する。   In the present embodiment, the first motion detector 21 includes a state representing that the object included in the image represented by the image information 101 is “not a target”, a state representing “a first motion by the target”, and a “target A configuration is adopted in which one of the states indicating that the first action by the object is not performed ”is identified.

これにより、第1の動作検知部21は、より精度よく「なりすまし」を検知することができる。   Thereby, the first motion detector 21 can detect “spoofing” with higher accuracy.

より具体的に、一例として、人物を照合する場合に、第1の動作検知部21は、画像情報101が表す画像に含まれる人物が「人物でない」ことを表す状態、「人物による第1動作」を表す状態及び「人物による第1動作をしていない」ことを表す状態の何れかの状態を識別する。   More specifically, as an example, when collating a person, the first motion detection unit 21 indicates that the person included in the image represented by the image information 101 is “not a person”, “first action by person”. And a state indicating that “the first action by a person is not performed” is identified.

これにより、第1の動作検知部21は、画像情報101が表す画像に含まれる対象物が生体であるか否かを検知するだけでなく、目、眼球及び口等の人体の各部位が人体であるか否かを識別する。即ち、第1の動作検知部21は、「目でない」及び「目であるかのように偽装した」場合であっても、その偽装を、より精度よく検知することができる。   Thereby, the first motion detection unit 21 not only detects whether or not the target object included in the image represented by the image information 101 is a living body, but each part of the human body such as an eye, an eyeball, and a mouth is a human body. Or not. In other words, the first motion detection unit 21 can detect the disguise more accurately even when “not eyes” and “disguise as if it were eyes”.

以下の説明において、より具体的に、本実施形態における第1の動作検知部21の動作について説明する。   In the following description, the operation of the first motion detector 21 in the present embodiment will be described more specifically.

図6は、本発明の第3の実施形態における照合装置20が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置20の動作手順を説明する。   FIG. 6 is a flowchart showing an operation performed by the collation device 20 according to the third embodiment of the present invention. The operation procedure of the collation device 20 will be described along the flowchart.

尚、図6に示すステップS302乃至ステップS307において実行する処理は、図4に示すステップS202乃至ステップS207において説明した処理と同様である。そのため、重複する説明は省略する。   Note that the processing executed in steps S302 to S307 shown in FIG. 6 is the same as the processing described in steps S202 to S207 shown in FIG. Therefore, the overlapping description is omitted.

ステップS301:
第1の動作検知部21は、画像情報101に基づいて、画像情報101に対象物による第1動作を含むと検知した場合に、画像情報101に含まれた対象物が生体であると判定する。
Step S301:
Based on the image information 101, the first motion detection unit 21 determines that the object included in the image information 101 is a living body when it is detected that the image information 101 includes the first motion due to the object. .

本実施形態において、第1の動作検知部21は、統計的パターン認識技術を用いて、生成された識別器によって、画像情報101が表す画像に含まれる対象物が「対象物でない」ことを表す状態、「対象物による第1動作」を表す状態、及び「対象物による第1動作をしていない」ことを表す状態の何れかの状態を識別する。   In the present embodiment, the first motion detection unit 21 uses a statistical pattern recognition technique to indicate that the object included in the image represented by the image information 101 is “not an object” by the generated classifier. Any one of the state, the state representing the “first operation by the object”, and the state representing “the first operation by the object is not performed” is identified.

例えば、検知対象である人物において「目の開閉」を識別する場合に、識別器は、任意の統計的パターン認識技術によって、「目でない」及び「目であるかのように偽装した」ことを表す多数の人体画像と、目の周辺を含む「目を閉じた状態」及び「目を開けた状態」を表す多数の人体画像とを学習することにより生成される。   For example, when identifying “opening / closing of eyes” in a person to be detected, the discriminator determines that “not eyes” and “impersonated as if eyes” by any statistical pattern recognition technique. It is generated by learning a large number of human body images to be represented and a large number of human body images representing “a state where the eyes are closed” and “a state where the eyes are opened” including the periphery of the eyes.

尚、上述した本実施形態では、説明の便宜上、一例として、照合装置20は、第1の動作検知部21により3つ(「対象物でない」、「対象物による第1動作」及び「対象物による第1動作をしていない」)の状態を識別する構成を例に説明した。   In the above-described embodiment, for convenience of explanation, as an example, the collation device 20 includes three (“not an object”, “first operation by the object”, and “object” by the first motion detection unit 21. In the above description, the configuration for identifying the state of “not performing the first operation according to the above” is taken as an example.

しかしながら本発明に係る実施形態は、係る構成に限定されない。照合装置20は、第2の動作検知部12も3つの状態を識別する構成を採用してもよい(以下、各実施形態においても同様)。   However, the embodiment according to the present invention is not limited to such a configuration. The collation device 20 may employ a configuration in which the second motion detection unit 12 also identifies three states (hereinafter, the same applies to each embodiment).

このように本実施の形態に係る照合装置20によれば、各実施形態において説明した効果を享受できると共に、さらに、より精度よく「なりすまし」を検知することができる。   As described above, according to the collation device 20 according to the present embodiment, it is possible to enjoy the effects described in the embodiments and to detect “spoofing” with higher accuracy.

その理由は、照合装置20の第1の動作検知部21は、3つの状態を識別することができるからである。即ち、第1の動作検知部21は、第1動作を検知するだけでなく、第1動作をした部位が本当に対象物であるか否かを検証するように動作する。そのため、例えば、対象物でないものによって偽装された場合であっても、より精度よく「なりすまし」を検知することができる。これにより、照合装置20は、なりすまされた対象物を照合する、つまり、誤照合してしまう問題を防ぐことができるからである。   The reason is that the first motion detection unit 21 of the verification device 20 can identify three states. That is, the first motion detection unit 21 not only detects the first motion, but also operates to verify whether or not the part that has performed the first motion is really an object. Therefore, for example, even when impersonation is performed using a non-target object, “spoofing” can be detected with higher accuracy. Thereby, the collation apparatus 20 can prevent the problem of collating the impersonated object, that is, erroneous collation.

より具体的に、一例として、「なりすまし」の対象である人物を表す顔写真に写った両目を表す部分に細長い紙を被せることによって、目を閉じたように偽装した場合であっても、照合装置20は、正確に「なりすまし」を検知することができる。   More specifically, as an example, even if the eyes are disguised as if the eyes are closed by putting a long piece of paper over the part representing both eyes in the face photograph representing the person who is the subject of “spoofing” The device 20 can accurately detect “spoofing”.

<第4の実施形態>
次に、上述した本発明の第2の実施形態に係る照合装置10を基本とする実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Fourth Embodiment>
Next, an embodiment based on the collation device 10 according to the second embodiment of the present invention described above will be described. In the following description, the characteristic part according to the present embodiment will be mainly described. At this time, the same reference numerals are assigned to the same configurations as those in the above-described embodiments, and duplicate descriptions are omitted.

本発明の第4の実施形態における照合装置30について、図4、図7、図8を参照して説明する。   A verification device 30 according to the fourth embodiment of the present invention will be described with reference to FIGS. 4, 7, and 8.

図7は、本発明の第4の実施形態における照合装置30を含む照合システム50の構成を示すブロック図である。   FIG. 7 is a block diagram showing a configuration of a verification system 50 including a verification device 30 according to the fourth embodiment of the present invention.

図7において、照合システム50は、大別して、照合装置30を含む第1情報処理装置51と、第2情報処理装置52とを備える。   In FIG. 7, the collation system 50 is roughly provided with a first information processing device 51 including a collation device 30 and a second information processing device 52.

照合装置30は、第1の動作検知部11と、第2の動作検知部12と、第1の照合要求部31と、第2の照合要求部32と、判定部15とを備える。   The verification device 30 includes a first motion detection unit 11, a second motion detection unit 12, a first verification request unit 31, a second verification request unit 32, and a determination unit 15.

本実施形態において、第1の照合部33と、第2の照合部34と、記憶部4とは、第1情報処理装置51と異なる(つまり、別体の)第2情報処理装置52が備える。   In the present embodiment, the first verification unit 33, the second verification unit 34, and the storage unit 4 are provided in a second information processing device 52 that is different (that is, separate) from the first information processing device 51. .

第1情報処理装置51と、第2情報処理装置52とは、不図示の通信ネットワークを介して、通信可能に接続する。   The first information processing apparatus 51 and the second information processing apparatus 52 are communicably connected via a communication network (not shown).

より具体的に、第1の照合要求部31は、第1の動作検知部11によって画像情報101が表す画像に含まれる対象物が生体であると検知するのに応じて、第2情報処理装置52の第1の照合部33に対して、画像情報101が表す画像に含まれる対象物を照合するように要求(以降、単に「照合要求」とも記す)する。   More specifically, the first collation request unit 31 receives the second information processing apparatus in response to the first motion detection unit 11 detecting that the object included in the image represented by the image information 101 is a living body. 52 is requested to collate the object included in the image represented by the image information 101 (hereinafter simply referred to as “collation request”).

第1の照合要求部31は、照合要求するに際して、第1の照合部33に対して第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101を送信する。   The first verification request unit 31 uses the image information 101 used when the first verification unit 33 detects that the first motion detection unit 11 includes the first motion in the first verification unit 33 when the verification request is made. Send.

また、第1の照合要求部31は、第1の照合部33から第1の照合結果を受信すると共に、受信した第1の照合結果を判定部15に対して与える。   The first verification request unit 31 receives the first verification result from the first verification unit 33 and gives the received first verification result to the determination unit 15.

第2の照合要求部32は、第2の動作検知部12によって、第1動作をしていない状態であると検知するのに応じて、第2情報処理装置52の第2の照合部34に対して、画像情報101が表す画像に含まれる対象物を照合するように要求する。   The second collation requesting unit 32 makes the second collation unit 34 of the second information processing device 52 respond to the second motion detection unit 12 detecting that the first motion is not being performed. It requests the object included in the image represented by the image information 101 to be collated.

第2の照合要求部32は、照合要求するに際して、第2の照合部34に対して第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101を送信する。   The second collation request unit 32 uses the image information used when the second motion detection unit 12 detects that the first motion is not included in the image information 101 with respect to the second collation unit 34 when the collation request is made. 101 is transmitted.

また、第2の照合要求部32は、第2の照合部34から第2の照合結果を受信すると共に、受信した第2の照合結果を判定部15に対して与える。   The second collation request unit 32 receives the second collation result from the second collation unit 34 and gives the received second collation result to the determination unit 15.

尚、上述した本実施形態では、説明の便宜上、一例として、第1の照合要求部31と、第2の照合要求部32とは、照合要求するに際して、第1の照合部33、または第2の照合部34に対して画像情報101を送信する構成を例に説明した。   In the above-described embodiment, for convenience of explanation, as an example, the first collation request unit 31 and the second collation request unit 32 provide the first collation unit 33 or the second collation request when performing a collation request. The configuration for transmitting the image information 101 to the collation unit 34 has been described as an example.

しかしながら本発明に係る実施形態は、係る構成に限定されない。第1の照合要求部31と、第2の照合要求部32とは、照合要求するに際して、第1の照合部33、または第2の照合部34に対して画像情報101に基づいて、抽出した特徴量を送信する構成を採用してもよい。   However, the embodiment according to the present invention is not limited to such a configuration. The first collation request unit 31 and the second collation request unit 32 are extracted based on the image information 101 with respect to the first collation unit 33 or the second collation unit 34 when requesting collation. A configuration for transmitting the feature amount may be employed.

その場合に、第1の照合要求部31と、第2の照合要求部32とは、画像情報101に基づいて、特徴量を抽出する構成を採用することができる。   In that case, the first collation requesting unit 31 and the second collation requesting unit 32 can employ a configuration that extracts feature amounts based on the image information 101.

尚、第1の照合要求部31と、第2の照合要求部32とが画像情報101に基づいて、特徴量を抽出する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。   Since the first collation requesting unit 31 and the second collation requesting unit 32 extract the feature amount based on the image information 101, a general technique can be adopted at present. Detailed description in this embodiment will be omitted (hereinafter, the same applies to each embodiment).

第1の照合部33は、第1の照合要求部31から照合要求と画像情報101とを受信するのに応じて、処理を開始する。   The first collation unit 33 starts processing in response to receiving the collation request and the image information 101 from the first collation request unit 31.

より具体的に、第1の照合部33は、画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。さらに、第1の照合部33は、第1の照合結果を第1の照合要求部31に対して送信する。   More specifically, the first matching unit 33 is a target included in an image represented by the image information 101 based on the feature amount extracted from the image information 101 and the first feature amount 103 held in the storage unit 4. Whether or not the object is a specific object to be verified is verified. Furthermore, the first collation unit 33 transmits the first collation result to the first collation request unit 31.

第2の照合部34は、第2の照合要求部32から照合要求と画像情報101とを受信するのに応じて、処理を開始する。   The second verification unit 34 starts processing in response to receiving the verification request and the image information 101 from the second verification request unit 32.

第2の照合部34は、画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。さらに、第2の照合部34は、第2の照合結果を第2の照合要求部32に対して送信する。   Based on the feature quantity extracted from the image information 101 and the second feature quantity 104 stored in the storage unit 4, the second collation unit 34 compares the object included in the image represented by the image information 101 with the collation target. It is checked whether or not the object is a specific object. Further, the second collation unit 34 transmits the second collation result to the second collation request unit 32.

以下の説明において、より具体的に、本実施形態における照合装置30の動作について説明する。   In the following description, the operation of the verification device 30 in the present embodiment will be described more specifically.

図8は、本発明の第4の実施形態における照合装置30が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置30の動作手順を説明する。   FIG. 8 is a flowchart showing an operation performed by the collation device 30 according to the fourth embodiment of the present invention. The operation procedure of the collation device 30 will be described along the flowchart.

尚、図8に示すステップS401、ステップS402、ステップS406、ステップS407及びステップS411において実行する処理は、図4に示すステップS201、ステップS202、ステップS204、ステップS205及びステップS207において説明した処理と同様である。そのため、重複する説明は省略する。   Note that the processing executed in step S401, step S402, step S406, step S407, and step S411 shown in FIG. 8 is the same as the processing described in step S201, step S202, step S204, step S205, and step S207 shown in FIG. It is. Therefore, the overlapping description is omitted.

ステップS403:
第1の照合要求部31は、照合要求と、第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101とを第1の照合部33に対して送信する。
Step S403:
The first collation request unit 31 sends the collation request and the image information 101 used when the first motion detection unit 11 detects that the image information 101 includes the first motion to the first collation unit 33. To send.

ステップS404:
第1の照合部33は、第1の照合要求部31から照合要求と、第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101とを受信する。
Step S404:
The first verification unit 33 receives the verification request from the first verification request unit 31 and the image information 101 used when the first motion detection unit 11 detects that the image information 101 includes the first motion. To do.

第1の照合部33は、受信した画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。次に、第1の照合部33は、第1の照合結果を第1の照合要求部31に対して送信する。   Based on the feature amount extracted from the received image information 101 and the first feature amount 103 held in the storage unit 4, the first collation unit 33 detects the object included in the image represented by the image information 101. It is collated whether or not it is a specific object to be collated. Next, the first collation unit 33 transmits the first collation result to the first collation request unit 31.

ステップS405:
第1の照合要求部31は、第1の照合部33から第1の照合結果を受信すると共に、受信した第1の照合結果を判定部15に対して与える。
Step S405:
The first verification request unit 31 receives the first verification result from the first verification unit 33 and gives the received first verification result to the determination unit 15.

ステップS408:
第2の照合要求部32は、照合要求と、第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101とを第2の照合部34に対して送信する。
Step S408:
The second collation request unit 32 sends the collation request and the image information 101 used when the second motion detection unit 12 detects that the image information 101 does not include the first motion to the second collation unit 34. Send to.

ステップS409:
第2の照合部34は、第2の照合要求部32から照合要求と、第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101とを受信する。
Step S409:
The second verification unit 34 receives the verification request from the second verification request unit 32 and the image information 101 used when the second motion detection unit 12 detects that the image information 101 does not include the first motion. Receive.

第2の照合部34は、受信した画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。次に、第2の照合部34は、第2の照合結果を第2の照合要求部32に対して送信する。   Based on the feature amount extracted from the received image information 101 and the second feature amount 104 held in the storage unit 4, the second collation unit 34 determines whether the object included in the image represented by the image information 101 is the target object. It is collated whether or not it is a specific object to be collated. Next, the second verification unit 34 transmits the second verification result to the second verification request unit 32.

ステップS410:
第2の照合要求部32は、第2の照合部34から第2の照合結果を受信すると共に、受信した第2の照合結果を判定部15に対して与える。
Step S410:
The second collation request unit 32 receives the second collation result from the second collation unit 34 and gives the received second collation result to the determination unit 15.

尚、上述した本実施形態では、説明の便宜上、一例として、照合システム50は、第1の動作検知部11、第2の動作検知部12、第1の照合要求部31、第2の照合要求部32及び判定部15を含む第1情報処理装置51と、第1の照合部33、第2の照合部34及び記憶部4を含む第2情報処理装置52とによって構成する例を説明した。   In the above-described embodiment, for convenience of explanation, as an example, the collation system 50 includes the first motion detection unit 11, the second motion detection unit 12, the first collation request unit 31, and the second collation request. The example comprised by the 1st information processing apparatus 51 containing the part 32 and the determination part 15, and the 2nd information processing apparatus 52 containing the 1st collation part 33, the 2nd collation part 34, and the memory | storage part 4 was demonstrated.

しかしながら本発明に係る実施形態は、係る構成に限定されない。照合システム50は、は、例えば、第2の実施形態において説明した照合装置10を構成する全ての各部を含む第1情報処理装置51によって構成してもよい。   However, the embodiment according to the present invention is not limited to such a configuration. The collation system 50 may be configured by, for example, the first information processing apparatus 51 including all the units configuring the collation apparatus 10 described in the second embodiment.

このように本実施の形態に係る照合装置30によれば、各実施形態において説明した効果を享受できると共に、さらに、速やかに「本人らしさ」が低下するような粗雑な偽装を検知すると共に、照合の対象である対象物を照合することができる。   As described above, according to the collation device 30 according to the present embodiment, the effect described in each embodiment can be enjoyed, and further, a rough camouflage in which the “personality” is quickly reduced is detected and collation is performed. It is possible to collate objects that are objects of

その理由は、第1の照合部33と、第2の照合部34とは、照合装置30と異なる情報処理装置51において動作する。即ち、照合装置30は、第1の照合部33と、第2の照合部34と、第1の動作検知部11と、第2の動作検知部12と、判定部15とにおいて実行する処理を分散することができる。これにより、例えば、第1情報処理装置51の演算能力が低い場合であっても、照合装置30は、速やかにそれぞれの処理を実行することができるからである。   The reason is that the first matching unit 33 and the second matching unit 34 operate in an information processing device 51 different from the matching device 30. That is, the collation device 30 performs processing executed in the first collation unit 33, the second collation unit 34, the first motion detection unit 11, the second motion detection unit 12, and the determination unit 15. Can be dispersed. Thereby, for example, even if the computing power of the first information processing device 51 is low, the collation device 30 can quickly execute each process.

また、本実施形態によれば、複数の照合装置30においてシステムを運用する場合であっても、そのシステムを導入するためのコストを低く抑えることができる。   Further, according to the present embodiment, even when a system is operated in a plurality of verification devices 30, the cost for introducing the system can be kept low.

その理由は、照合装置30は、対象物を照合するに際して利用する特徴量(第1特徴量103及び第2特徴量104)を1つの情報処理装置において管理することができるからである。   The reason is that the collation device 30 can manage the feature quantities (first feature quantity 103 and second feature quantity 104) used when collating the object in one information processing apparatus.

さらに、照合装置は、例えば、一般的に知られたパーソナルコンピュータや携帯端末装置、スマーフォン等の情報端末装置に適用することができる。   Furthermore, the collation device can be applied to an information terminal device such as a generally known personal computer, portable terminal device, or smartphone.

(ハードウェア構成例)
上述した実施形態において図面に示した各部は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。これらの各ソフトウェアモジュールは、専用のハードウェアによって実現してもよい。但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定されうる。この場合のハードウェア環境の一例を、図9を参照して説明する。
(Hardware configuration example)
Each unit shown in the drawings in the embodiment described above can be regarded as a function (processing) unit (software module) of a software program. Each of these software modules may be realized by dedicated hardware. However, the division of each part shown in these drawings is a configuration for convenience of explanation, and various configurations can be assumed in mounting. An example of the hardware environment in this case will be described with reference to FIG.

図9は、本発明の模範的な実施形態に係る端末特定装置を実行可能な情報処理装置300(コンピュータ)の構成を例示的に説明する図である。即ち、図9は、図1に示した照合装置1、或いは、図3に示した照合装置10、図5に示した照合装置20及び図7に示した照合装置30、の全体または一部の照合装置を実現可能なサーバ等のコンピュータ(情報処理装置)の構成であって、上述した実施形態における各機能を実現可能なハードウェア環境を表す。   FIG. 9 is a diagram exemplarily illustrating the configuration of an information processing device 300 (computer) that can execute the terminal specifying device according to the exemplary embodiment of the present invention. That is, FIG. 9 shows the whole or a part of the collation apparatus 1 shown in FIG. 1, or the collation apparatus 10 shown in FIG. 3, the collation apparatus 20 shown in FIG. 5, and the collation apparatus 30 shown in FIG. This is a configuration of a computer (information processing apparatus) such as a server capable of realizing a collation apparatus, and represents a hardware environment capable of realizing each function in the above-described embodiment.

図9に示した情報処理装置300は、CPU(Central_Processing_Unit)301、ROM(Read_Only_Memory)302、RAM(Random_Access_Memory)303、ハードディスク304(記憶装置)、並びに外部装置との通信インタフェース(Interfac:以降、「I/F」と称する)305、CD−ROM(Compact_Disc_Read_Only_Memory)等の記憶媒体307に格納されたデータを読み書き可能なリーダライタ308を備え、これらの構成がバス306(通信線)を介して接続された一般的なコンピュータである。   The information processing apparatus 300 illustrated in FIG. 9 includes a CPU (Central_Processing_Unit) 301, a ROM (Read_Only_Memory) 302, a RAM (Random_Access_Memory) 303, a hard disk 304 (storage device), and a communication interface (Interface: hereinafter “I”). / F ”) 305, and a reader / writer 308 capable of reading and writing data stored in a storage medium 307 such as a CD-ROM (Compact_Disc_Read_Only_Memory), and these components are connected via a bus 306 (communication line). It is a general computer.

そして、上述した実施形態を例に説明した本発明は、図9に示した情報処理装置300に対して、その説明において参照したブロック構成図(図1、図3、図5、図7)或いはフローチャート(図2、図4、図6、図8)の機能を実現可能なコンピュータ・プログラムを供給した後、そのコンピュータ・プログラムを、当該ハードウェアのCPU301に読み出して実行することによって達成される。また、当該装置内に供給されたコンピュータ・プログラムは、読み書き可能な一時記憶メモリ(RAM303)またはハードディスク304等の不揮発性の記憶デバイスに格納すれば良い。   The present invention described by taking the above embodiment as an example is the block configuration diagram (FIGS. 1, 3, 5, and 7) referred to in the description of the information processing apparatus 300 shown in FIG. This is achieved by supplying a computer program capable of realizing the functions of the flowcharts (FIGS. 2, 4, 6, and 8) and then reading the computer program to the CPU 301 of the hardware and executing it. Further, the computer program supplied to the apparatus may be stored in a nonvolatile storage device such as a readable / writable temporary storage memory (RAM 303) or a hard disk 304.

また、前記の場合において、当該ハードウェア内へのコンピュータ・プログラムの供給方法は、CD−ROM等の各種記憶媒体307を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等のように、現在では一般的な手順を採用することができる。そして、このような場合において、本発明は、係るコンピュータ・プログラムを構成するコード或いは、そのコードが格納された記憶媒体によって構成されると捉えることができる。   In the above case, the computer program can be supplied to the hardware by a method of installing the computer program via various storage media 307 such as a CD-ROM or a communication line such as the Internet. Currently, a general procedure can be adopted, such as a method of downloading from the outside. In such a case, the present invention can be regarded as being configured by a code constituting the computer program or a storage medium storing the code.

尚、上述した各実施形態の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した実施形態により例示的に説明した本発明は、以下には限らない。即ち、
(付記1)
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする照合装置。
(付記2)
前記検知部は、
前記第1動作を含むと検知する処理、または前記第1動作を含まないと検知する処理の何れか一方の処理を実行し、該何れか一方の処理を実行後に他方の処理を実行することを、
特徴とする付記1に記載の照合装置。
(付記3)
前記照合部は、
さらに前記生体であると検知した場合に、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された第2特徴量とに基づき前記特定の対象物か否かを照合する
ことを特徴とする付記1または付記2に記載の照合装置。
(付記4)
前記検知部は、
前記第1動作及び該第1動作をしていないことを表す画像に基づき統計的パターン認識技術を用いて学習することにより生成された識別器によって前記第1動作を表す状態か否か、または前記第1動作をしていないことを表す状態か否かの何れかの状態を識別すると共に、前記第1動作を表す状態であると識別した場合に、前記第1動作を含むと検知し、前記第1動作をしていないことを表す状態であると識別した場合には、前記第1動作を含まないと検知する
ことを特徴とする付記1乃至付記3に記載の照合装置。
(付記5)
前記検知部は、
さらに前記画像情報に基づいて、前記対象物でないことを表す状態、前記対象物による前記第1動作を表す状態及び前記対象物による前記第1動作をしていないことを表す状態の何れかの状態を識別すると共に、該対象物による前記第1動作を表す状態であると識別した場合に、前記生体であると検知することを特徴とする付記4に記載の照合装置。
(付記6)
前記対象物は人物であって、
前記第1動作は、
前記画像情報に基づき前記検知部が検知するところの前記人物の顔を上下左右に動かす、顔を左右に傾ける、顔の部位である目の開閉動作、眼球の動き及び口の開閉動作の何れか、または1つ以上の動作を組み合わせた動作である
ことを特徴とする付記1乃至付記4の何れかに記載の照合装置。
(付記7)
前記検知部は、
前記目の開閉動作を検知し、前記画像情報に前記人物が目を閉じる動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に目を閉じる動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする付記1乃至付記6の何れかに記載の照合装置。
(付記8)
前記検知部は、
前記口の開閉動作を検知し、前記画像情報に前記人物が口を開ける動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に口を開ける動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする付記1乃至付記6の何れかに記載の照合装置。
(付記9)
第1情報処理端末と、第2情報処理端末とが通信ネットワークを介して通信可能に接続された照合システムであって、
前記第1情報処理端末は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報に基づいて、照合するように要求する第1の照合要求部と、
前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報に基づいて、照合するように要求する第2の照合要求部と、
第1の照合結果と第2の照合結果とに基づいて、照合対象として特定の対象物であるか否かを判定する判定部と、を備え
前記第2情報処理端末は、
前記第1の照合要求部からの要求に応じて、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第1の照合結果を送信する第1の照合部と、
前記第2の照合要求部からの要求に応じて、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された前記第2特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第2の照合結果を送信する第2の照合部と、
を備えることを特徴とする照合システム。
(付記10)
情報処理装置によって、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする照合方法。
(付記11)
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する機能と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する機能と、
をコンピュータに実現させることを特徴とするコンピュータ・プログラム。
In addition, a part or all of each embodiment mentioned above can be described also as the following additional remarks. However, the present invention described by way of example with the above-described embodiments is not limited to the following. That is,
(Appendix 1)
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
A collation device comprising:
(Appendix 2)
The detector is
Executing either one of the processing to detect that the first operation is included or the processing to detect that the first operation is not included, and executing the other processing after executing one of the processing. ,
The collation device according to Supplementary Note 1, which is characterized.
(Appendix 3)
The collation unit
Furthermore, when it is detected that it is the living body, the image information used when it is detected that it includes the first action, and the first feature amount extracted based on the image representing the first action by the specific object, Whether or not it is the specific object, and if it is detected that the first operation is not performed, the image information used when detecting that the first operation is not included, and Supplementary note 1 or Supplementary note 2, wherein whether or not it is the specific target object is collated based on a second feature amount extracted based on an image indicating that the first action by the specific target object is not performed. The verification device described in 1.
(Appendix 4)
The detector is
Whether or not the first operation is represented by a discriminator generated by learning using a statistical pattern recognition technique based on the first operation and an image indicating that the first operation is not performed, or When the state indicating whether or not the first operation is being performed is identified, and when it is identified that the state represents the first operation, it is detected that the first operation is included, and 4. The collation device according to any one of supplementary notes 1 to 3, wherein when it is identified that the state represents that the first operation is not performed, it is detected that the first operation is not included.
(Appendix 5)
The detector is
Furthermore, based on the image information, any one of a state indicating that the object is not an object, a state indicating the first operation by the object, and a state indicating that the first operation by the object is not performed The collation apparatus according to appendix 4, wherein when the object is identified as being in a state representing the first action by the object, the object is detected as the living body.
(Appendix 6)
The object is a person,
The first operation includes
Any of the movement of the person detected by the detection unit based on the image information up and down, left and right, tilting the face left and right, eye opening / closing operation of the face, eyeball movement, and mouth opening / closing operation The collation device according to any one of appendix 1 to appendix 4, wherein the collation device is an operation in which one or more operations are combined.
(Appendix 7)
The detector is
When the eye opening / closing operation is detected, and the image information detects that the person includes an eye closing operation, the object is detected as a living body, and the image information includes an eye closing operation. 7. The collation device according to any one of appendix 1 to appendix 6, wherein when it is detected that the first operation is not performed, it is detected that the first operation is not performed.
(Appendix 8)
The detector is
When the opening / closing operation of the mouth is detected, and the image information includes the operation of opening the mouth of the person, the object is detected as a living body, and the image information includes an operation of opening the mouth. 7. The collation device according to any one of appendix 1 to appendix 6, wherein when it is detected that the first operation is not performed, it is detected that the first operation is not performed.
(Appendix 9)
A verification system in which a first information processing terminal and a second information processing terminal are communicably connected via a communication network,
The first information processing terminal
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
A first collation requesting unit for requesting collation based on the image information used when it is detected as including the first action when it is detected as the living body;
A second collation requesting unit for requesting collation based on image information used when it is detected that the first operation is not included when it is detected that the first operation is not performed; When,
A determination unit configured to determine whether or not a specific target object is to be verified based on the first verification result and the second verification result.
In response to a request from the first verification request unit, a first extracted based on image information used when detecting that the first operation is included and an image representing the first operation by the specific object. A first collation unit that collates whether or not the object is the specific object based on a feature amount and transmits the first collation result;
In response to a request from the second verification request unit, the image information used when it is detected that the first operation is not included, and an image indicating that the first operation by the specific object is not performed A second collation unit that collates whether the object is the specific object based on the second feature amount extracted based on the second feature amount, and transmits the second collation result;
A collation system comprising:
(Appendix 10)
Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
The collation method characterized by this.
(Appendix 11)
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image A function of detecting that the first operation is not performed when it is detected that the information does not include the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A function of determining whether or not the object is the specific object based on a result of collation and a result of collation when it is detected that the first operation is not performed ,
A computer program characterized in that a computer is realized.

1 照合装置
2 検知部
3 照合部
4 記憶部
10 照合装置
11 第1の動作検知部
12 第2の動作検知部
13 第1の照合部
14 第2の照合部
15 判定部
20 照合装置
21 第1の動作検知部
30 照合装置
31 第1の照合要求部
32 第2の照合要求部
33 第1の照合部
34 第2の照合部
50 照合システム
51 第1情報処理装置
52 第2情報処理装置
101 画像情報
102 特徴量
103 第1特徴量
104 第2特徴量
300 情報処理装置
301 CPU
302 ROM
303 RAM
304 ハードディスク
305 通信インタフェース
306 バス
307 記憶媒体
308 リーダライタ
DESCRIPTION OF SYMBOLS 1 Collation apparatus 2 Detection part 3 Collation part 4 Memory | storage part 10 Collation apparatus 11 1st motion detection part 12 2nd motion detection part 13 1st collation part 14 2nd collation part 15 Determination part 20 Collation apparatus 21 1st collation apparatus Motion detection unit 30 collation device 31 first collation request unit 32 second collation request unit 33 first collation unit 34 second collation unit 50 collation system 51 first information processing device 52 second information processing device 101 image Information 102 Feature amount 103 First feature amount 104 Second feature amount 300 Information processing device 301 CPU
302 ROM
303 RAM
304 Hard Disk 305 Communication Interface 306 Bus 307 Storage Medium 308 Reader / Writer

Claims (10)

照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする照合装置。
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
A collation device comprising:
前記検知部は、
前記第1動作を含むと検知する処理、または前記第1動作を含まないと検知する処理の何れか一方の処理を実行し、該何れか一方の処理を実行後に他方の処理を実行することを、
特徴とする請求項1に記載の照合装置。
The detector is
Executing either one of the processing to detect that the first operation is included or the processing to detect that the first operation is not included, and executing the other processing after executing one of the processing. ,
The collation device according to claim 1, wherein
前記照合部は、
さらに前記生体であると検知した場合に、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された第2特徴量とに基づき前記特定の対象物か否かを照合する
ことを特徴とする請求項1または請求項2に記載の照合装置。
The collation unit
Furthermore, when it is detected that it is the living body, the image information used when it is detected that it includes the first action, and the first feature amount extracted based on the image representing the first action by the specific object, Whether or not it is the specific object, and if it is detected that the first operation is not performed, the image information used when detecting that the first operation is not included, and 2. The method according to claim 1, wherein whether or not the object is the specific object is collated based on a second feature amount extracted based on an image indicating that the first operation by the specific object is not performed. Item 3. The verification device according to Item 2.
前記検知部は、
前記第1動作及び該第1動作をしていないことを表す画像に基づき統計的パターン認識技術を用いて学習することにより生成された識別器によって前記第1動作を表す状態か否か、または前記第1動作をしていないことを表す状態か否かの何れかの状態を識別すると共に、前記第1動作を表す状態であると識別した場合に、前記第1動作を含むと検知し、前記第1動作をしていないことを表す状態であると識別した場合には、前記第1動作を含まないと検知する
ことを特徴とする請求項1乃至請求項3に記載の照合装置。
The detector is
Whether or not the first operation is represented by a discriminator generated by learning using a statistical pattern recognition technique based on the first operation and an image indicating that the first operation is not performed, or When the state indicating whether or not the first operation is being performed is identified, and when it is identified that the state represents the first operation, it is detected that the first operation is included, and The collation apparatus according to claim 1, wherein when it is identified that the first operation is not performed, it is detected that the first operation is not included.
前記検知部は、
さらに前記画像情報に基づいて、前記対象物でないことを表す状態、前記対象物による前記第1動作を表す状態及び前記対象物による前記第1動作をしていないことを表す状態の何れかの状態を識別すると共に、該対象物による前記第1動作を表す状態であると識別した場合に、前記生体であると検知することを特徴とする請求項4に記載の照合装置。
The detector is
Furthermore, based on the image information, any one of a state indicating that the object is not an object, a state indicating the first operation by the object, and a state indicating that the first operation by the object is not performed The collation apparatus according to claim 4, wherein when it is identified that the object is in a state representing the first action by the object, the object is detected as the living body.
前記対象物は人物であって、
前記第1動作は、
前記画像情報に基づき前記検知部が検知するところの前記人物の顔を上下左右に動かす、顔を左右に傾ける、顔の部位である目の開閉動作、眼球の動き及び口の開閉動作の何れか、または1つ以上の動作を組み合わせた動作である
ことを特徴とする請求項1乃至請求項4の何れかに記載の照合装置。
The object is a person,
The first operation is:
Any of the movement of the person detected by the detection unit based on the image information up and down, left and right, tilting the face left and right, eye opening / closing operation of the face, eyeball movement, and mouth opening / closing operation 5. The collation apparatus according to claim 1, wherein the collation apparatus is an operation in which one or more operations are combined.
前記検知部は、
前記目の開閉動作を検知し、前記画像情報に前記人物が目を閉じる動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に目を閉じる動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする請求項1乃至請求項6の何れかに記載の照合装置。
The detector is
When the eye opening / closing operation is detected, and the image information detects that the person includes an eye closing operation, the object is detected as a living body, and the image information includes an eye closing operation. The collation apparatus according to any one of claims 1 to 6, wherein when it is detected that the first operation is not performed, it is detected that the first operation is not performed.
第1情報処理端末と、第2情報処理端末とが通信ネットワークを介して通信可能に接続された照合システムであって、
前記第1情報処理端末は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報に基づいて、照合するように要求する第1の照合要求部と、
前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報に基づいて、照合するように要求する第2の照合要求部と、
第1の照合結果と第2の照合結果とに基づいて、照合対象として特定の対象物であるか否かを判定する判定部と、を備え
前記第2情報処理端末は、
前記第1の照合要求部からの要求に応じて、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第1の照合結果を送信する第1の照合部と、
前記第2の照合要求部からの要求に応じて、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された前記第2特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第2の照合結果を送信する第2の照合部と、
を備えることを特徴とする照合システム。
A verification system in which a first information processing terminal and a second information processing terminal are communicably connected via a communication network,
The first information processing terminal
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
A first collation requesting unit for requesting collation based on the image information used when it is detected as including the first action when it is detected as the living body;
A second collation requesting unit for requesting collation based on image information used when it is detected that the first operation is not included when it is detected that the first operation is not performed; When,
A determination unit configured to determine whether or not a specific target object is to be verified based on the first verification result and the second verification result.
In response to a request from the first verification request unit, a first extracted based on image information used when detecting that the first operation is included and an image representing the first operation by the specific object. A first collation unit that collates whether or not the object is the specific object based on a feature amount and transmits the first collation result;
In response to a request from the second verification request unit, the image information used when it is detected that the first operation is not included, and an image indicating that the first operation by the specific object is not performed A second collation unit that collates whether the object is the specific object based on the second feature amount extracted based on the second feature amount, and transmits the second collation result;
A collation system comprising:
情報処理装置によって、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする照合方法。
Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
The collation method characterized by this.
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する機能と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する機能と、
をコンピュータに実現させることを特徴とするコンピュータ・プログラム。
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image A function of detecting that the first operation is not performed when it is detected that the information does not include the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A function of determining whether or not the object is the specific object based on a result of collation and a result of collation when it is detected that the first operation is not performed ,
A computer program characterized in that a computer is realized.
JP2013172900A 2013-08-23 2013-08-23 Collation device and collation method, collation system, and computer program Active JP6311237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013172900A JP6311237B2 (en) 2013-08-23 2013-08-23 Collation device and collation method, collation system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013172900A JP6311237B2 (en) 2013-08-23 2013-08-23 Collation device and collation method, collation system, and computer program

Publications (2)

Publication Number Publication Date
JP2015041307A true JP2015041307A (en) 2015-03-02
JP6311237B2 JP6311237B2 (en) 2018-04-18

Family

ID=52695415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013172900A Active JP6311237B2 (en) 2013-08-23 2013-08-23 Collation device and collation method, collation system, and computer program

Country Status (1)

Country Link
JP (1) JP6311237B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107218A (en) * 2018-12-28 2020-07-09 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
WO2020213166A1 (en) * 2019-04-19 2020-10-22 富士通株式会社 Image processing device, image processing method, and image processing program
WO2022230204A1 (en) 2021-04-30 2022-11-03 日本電気株式会社 Information processing system, information processing method, and recording medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251614A (en) * 2001-02-23 2002-09-06 Omron Corp Device, system, method, and program for collating organism
JP2004110813A (en) * 2002-08-30 2004-04-08 Victor Co Of Japan Ltd Personal identification device
JP2006235718A (en) * 2005-02-22 2006-09-07 Nec Corp Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
JP2007316809A (en) * 2006-05-24 2007-12-06 Fujifilm Corp Face collation apparatus and method, and program
JP2007323104A (en) * 2006-05-30 2007-12-13 Fujifilm Corp Method, device and program for discriminating state of eye
US20110216947A1 (en) * 2008-11-19 2011-09-08 Nec Corporation Authentication system, apparatus, authentication method, and storage medium with program stored therein
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251614A (en) * 2001-02-23 2002-09-06 Omron Corp Device, system, method, and program for collating organism
JP2004110813A (en) * 2002-08-30 2004-04-08 Victor Co Of Japan Ltd Personal identification device
JP2006235718A (en) * 2005-02-22 2006-09-07 Nec Corp Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
JP2007316809A (en) * 2006-05-24 2007-12-06 Fujifilm Corp Face collation apparatus and method, and program
JP2007323104A (en) * 2006-05-30 2007-12-13 Fujifilm Corp Method, device and program for discriminating state of eye
US20110216947A1 (en) * 2008-11-19 2011-09-08 Nec Corporation Authentication system, apparatus, authentication method, and storage medium with program stored therein
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107218A (en) * 2018-12-28 2020-07-09 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JP7256364B2 (en) 2018-12-28 2023-04-12 キヤノンマーケティングジャパン株式会社 Information processing device, its control method and program
WO2020213166A1 (en) * 2019-04-19 2020-10-22 富士通株式会社 Image processing device, image processing method, and image processing program
JPWO2020213166A1 (en) * 2019-04-19 2021-11-04 富士通株式会社 Image processing device, image processing method, and image processing program
JP7268725B2 (en) 2019-04-19 2023-05-08 富士通株式会社 Image processing device, image processing method, and image processing program
WO2022230204A1 (en) 2021-04-30 2022-11-03 日本電気株式会社 Information processing system, information processing method, and recording medium

Also Published As

Publication number Publication date
JP6311237B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
CN109948408B (en) Activity test method and apparatus
JP6634127B2 (en) System and method for biometrics associated with a camera-equipped device
JP6650946B2 (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
Fathy et al. Face-based active authentication on mobile devices
De Marsico et al. Firme: Face and iris recognition for mobile engagement
EP2863339B1 (en) Methods and systems for determing user liveness
CN106778450B (en) Face recognition method and device
Deb et al. Look locally infer globally: A generalizable face anti-spoofing approach
US20140380446A1 (en) Method and apparatus for protecting browser private information
CN107844748A (en) Auth method, device, storage medium and computer equipment
US10303963B1 (en) ATM with biometric security
WO2016084072A1 (en) Anti-spoofing system and methods useful in conjunction therewith
WO2018042996A1 (en) Lifeform sensing device
Smith-Creasey et al. Continuous face authentication scheme for mobile devices with tracking and liveness detection
JP6311237B2 (en) Collation device and collation method, collation system, and computer program
US10922399B2 (en) Authentication verification using soft biometric traits
CN112825128A (en) Method and apparatus for liveness testing and/or biometric verification
CN104036254A (en) Face recognition method
JP2019527868A (en) Biological feature identification apparatus and method, and biological feature template registration method
US10740637B2 (en) Anti-spoofing
CN109034029A (en) Detect face identification method, readable storage medium storing program for executing and the electronic equipment of living body
WO2021011769A1 (en) Methods, systems, and media for secure authentication of users using one or more biometric recognition systems
Ibsen et al. Digital face manipulation in biometric systems
CN108733690B (en) Image data storage method and device and electronic equipment
CN112183167B (en) Attendance checking method, authentication method, living body detection method, device and equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180305

R150 Certificate of patent or registration of utility model

Ref document number: 6311237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150