JP2015041307A - Collation device and collation method and collation system and computer program - Google Patents
Collation device and collation method and collation system and computer program Download PDFInfo
- Publication number
- JP2015041307A JP2015041307A JP2013172900A JP2013172900A JP2015041307A JP 2015041307 A JP2015041307 A JP 2015041307A JP 2013172900 A JP2013172900 A JP 2013172900A JP 2013172900 A JP2013172900 A JP 2013172900A JP 2015041307 A JP2015041307 A JP 2015041307A
- Authority
- JP
- Japan
- Prior art keywords
- collation
- detected
- image information
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、照合の対象である対象物を撮像した画像等に基づき対象物を照合する技術分野に関する。 The present invention relates to a technical field in which an object is collated based on an image or the like obtained by capturing an object to be collated.
人の顔や顔の一部を用いて人物を照合するシステムは、本人ではない他人の顔写真や画像表示装置によって表示された顔写真を、カメラに提示するといった、いわゆる「なりすまし」行為によって、本人を他人として照合してしまう場合がある。 A system that matches a person using a person's face or a part of the face is a so-called “spoofing” act of presenting a photograph of a face of another person who is not the person or a face photograph displayed by an image display device to the camera. There is a case where the person is collated as another person.
このような、「なりすまし」を検知する方法としては、係るシステムに提示された照合の対象物(以降、「照合対象物」と称する)が生体であるか否かを判定することによって、「なりすまし」を検知することが一般的に知られている。そのため、係る方法は、「ライブネスチェック」、または「生体検知」と呼ばれることも多い。 As a method of detecting such “spoofing”, it is possible to detect whether or not the target of verification presented to the system (hereinafter referred to as “target for verification”) is a living body, Is generally known. Therefore, such a method is often called “liveness check” or “biological detection”.
「なりすまし」を検知する方法は、上述した検知方法だけでなく、さまざまな技術が古くから利用されてきた。 As a method for detecting “spoofing”, not only the above-described detection method but also various techniques have been used for a long time.
例えば、係る検知方法は、顔等の照合対象物と、カメラとの距離に基づいて、顔や口及び目等の顔の部位のサイズを推定する。さらに、検知方法は、サイズを推定した結果、照合対象物が人体として適切か否か判定する。 For example, the detection method estimates the size of a facial part such as the face, mouth, and eyes based on the distance between the collation target such as the face and the camera. Further, as a result of estimating the size, the detection method determines whether or not the verification target object is appropriate as a human body.
また、一例として、係る検知方法は、照合対象物の温度を計測する。検知方法は、計測した温度が人体表面の温度か否かを判定する。検知方法は、照合対象物が立体物であるか否かを判定する。 In addition, as an example, the detection method measures the temperature of the verification target object. The detection method determines whether or not the measured temperature is the temperature of the human body surface. The detection method determines whether or not the verification target is a three-dimensional object.
このように、係る検知方法は、照合対象物のサイズや温度等に基づいて、その照合対象物が人体であるか否かを判定することによって、当該照合対象物が生体であると検知する技術が知られている。 As described above, the detection method is a technology for detecting that the verification target is a living body by determining whether or not the verification target is a human body based on the size or temperature of the verification target. It has been known.
一方で、係る検知方法には、照合の対象(以降、「照合対象」と称する)である人物による「所定の動作」を検知することによって、当該照合対象である人物が生体であると検知する技術が存在する。即ち、検知方法は、照合対象である人物が人間らしい動きをしたか否かを判定する。 On the other hand, according to such a detection method, by detecting a “predetermined operation” by a person who is a target of collation (hereinafter referred to as “collation target”), the person who is the collation target is detected as a living body. Technology exists. That is, the detection method determines whether or not the person to be collated has a human-like movement.
この「所定の動作」を検知する技術は、カメラ等によって撮像した顔、顔の一部(部位)及び顔の周辺を表す人体画像を、画像処理することによって、「所定の動作」を検知する。 The technology for detecting the “predetermined motion” detects the “predetermined motion” by performing image processing on a human face image captured by a camera or the like, a part (part) of the face, and the periphery of the face. .
「所定の動作」を検知するに際して、係る「所定の動作」を検知する技術において利用するセンシングデバイスは、カメラのみである。そのため、「所定の動作」を検知する技術は、導入するためのコストを低く抑えることができる。即ち、「所定の動作」を検知する技術は、産業上非常に有用である。 In detecting the “predetermined operation”, the only sensing device used in the technology for detecting the “predetermined operation” is a camera. Therefore, the technology for detecting “predetermined operation” can keep the cost for introduction low. That is, a technique for detecting “predetermined operation” is very useful in industry.
ここで、本願出願に先立って存在する代表的な関連技術としては、例えば、特許文献1乃至特許文献3が知られている。
Here, for example,
特許文献1は、個人識別装置、個人識別方法および個人識別プログラムを記録した記録媒体に関する技術を開示する。
特許文献1に開示された個人識別装置は、時系列に撮像された画像を利用して照合対象である人物のまばたき動作を検知する。個人識別装置は、まばたき動作を検知した場合に、「なりすまし」ではないと判定する。
The personal identification device disclosed in
個人識別装置は、「なりすまし」でないと判定した場合に、照合対象である人物を照合する。個人識別装置は、照合対象である人物がまばたき動作をするまで照合対象である人物を照合する処理を完了できないことがデメリットとなる。 The personal identification device collates a person to be collated when it is determined that it is not “spoofing”. The personal identification device has a disadvantage in that it cannot complete the process of collating the person to be collated until the person to be collated performs the blinking operation.
特許文献2は、生体照合装置、生体照合システム、生体照合方法及びプログラムに関する技術を開示する。
まばたき動作を検知する特許文献1に対して、特許文献2は、照合対象である人物に対して特定の動作をするように要求する技術が開示されている。
In contrast to
より具体的に、係る生体照合システムは、照合対象である人物が目を閉じた後に目を開けるといった、「所定の動作」を検知した場合に、「なりすまし」ではないと判定する。 More specifically, the biometric matching system determines that it is not “spoofing” when a “predetermined action” is detected such that the person to be matched opens his eyes after closing his eyes.
係る生体照合システムは、「なりすまし」ではないと判定した場合に、照合対象である人物の照合を開始する。 When it is determined that the biometric matching system is not “spoofing”, matching of a person who is a matching target is started.
特許文献1及び特許文献2に開示された技術は、「なりすまし」でないと判定した場合のみに、照合対象である人物を照合する。
The techniques disclosed in
一方で、特許文献3に開示された顔認証装置は、「なりすまし」であると判定した場合であっても、照合対象である人物を照合する。
On the other hand, the face authentication device disclosed in
より具体的に、係る顔認証装置は、照合対象である人物を撮像した画像と、テンプレート画像として予め登録された照合対象である人物を表す画像とに基づいて、照合対象である人物が登録された照合対象である人物か否かを判定する。 More specifically, in the face authentication device, the person to be collated is registered based on an image obtained by capturing the person to be collated and an image representing the person to be collated registered in advance as a template image. It is determined whether or not the person is a matching target.
さらに、係る顔認証装置は、目や口等の顔の部位の変化を検出することによって、照合対象である人物が生体か否かを検知する。 Furthermore, the face authentication apparatus detects whether or not the person to be collated is a living body by detecting a change in a facial part such as an eye or a mouth.
即ち、照合対象である人物が生体でないと検知した場合であっても、係る顔認証装置は、照合対象である人物を照合することができる。その結果、照合対象である人物が登録されている照合対象の人物であると判定した場合に、当該顔認証装置は、生体を識別する際に用いる閾値を高めに設定する。これにより、係る顔認証装置は、誤照合してしまうリスクを低減することができる。 That is, even when it is detected that the person to be collated is not a living body, the face authentication apparatus can collate the person to be collated. As a result, when it is determined that the person to be collated is a registered person to be collated, the face authentication device sets a higher threshold to be used for identifying the living body. As a result, the face authentication apparatus can reduce the risk of erroneous matching.
特許文献1に開示された個人識別装置は、時系列に撮像された異なるフレーム画像に基づいて、それらフレーム画像間の差分画像を生成する。個人識別装置は、生成した差分画像に、例えば、照合対象である人物の目、口等を表す顔の部位があるか否かを判定する。
The personal identification device disclosed in
係る個人識別装置は、例えば、紙等の遮蔽物を照合対象である人物の目に被せた場合であっても、顔の部位があると判定する。 For example, such a personal identification device determines that there is a facial part even when a shielding object such as paper is placed on the eyes of a person to be collated.
特許文献2に開示された生体照合装置は、照合対象である人物を撮像した画像から目を表す部分画像を検出する。さらに、生体照合装置は、検出した目を表す部分画像から抽出された特徴点と、予め記憶された特徴点とに基づいて照合する。
The biometric matching device disclosed in
これにより、係る生体照合装置は、目や口等の顔の部位が動作したことを検知することができる。即ち、当該生体照合装置は、「目を開いた状態」と「目を閉じた状態」とを明確に識別することができる。 Thereby, the biometric matching device can detect that a facial part such as an eye or a mouth has moved. That is, the biometric matching device can clearly distinguish between “a state where the eyes are open” and “a state where the eyes are closed”.
しかしながら、特許文献2には、顔写真を提示する等の「本人らしさ」が低下するような粗雑な偽装か否かを判別する手法について、考慮されておらず何ら述べられていない。そのため、係る生体照合装置では、例えば、手描きされた目のような模様であっても、目が動作したと検知する虞がある。
However,
特許文献3に開示された顔認証装置は、時系列に撮像された異なる複数のフレーム画像に基づいて、それらフレーム画像間の差分画像を生成する。当該顔認証装置は、差分画像に基づいて、目及び口を表す領域を推定する。
The face authentication device disclosed in
係る顔認証装置は、推定したそれぞれの領域において画素数をカウントする。さらに、当該顔認証装置は、カウントした値が予め設定した閾値を超えた場合に、例えば、目に動き(所定の動作)があったと判定する。 The face authentication apparatus counts the number of pixels in each estimated area. Furthermore, the face authentication device determines that there has been movement (predetermined movement) in the eyes, for example, when the counted value exceeds a preset threshold value.
係る顔認証装置は、目、または口の何れか一方のみに動きがあったと判定した場合に、生体であると検知する。また、係る顔認証装置は、撮像された画像を用いて予め登録されたテンプレート画像に対するテンプレートマッチングを行うことによって、照合対象である人物を照合する。 The face authentication apparatus detects that the subject is a living body when it is determined that only one of the eyes and the mouth has moved. In addition, the face authentication apparatus collates a person to be collated by performing template matching on a template image registered in advance using the captured image.
しかしながら、係る顔認証装置は、例えば、紙等の遮蔽物を照合対象である人物の口に被せた場合に、目、または口の何れか一方のみに動きがあったと判定する。即ち、顔認証装置では、依然として、生体であると誤検知する可能性がある。 However, for example, when the face authentication device covers a mouth of a person to be collated with a shield such as paper, the face authentication device determines that only one of the eyes or the mouth has moved. That is, the face authentication device may still erroneously detect that it is a living body.
このように、特許文献1乃至特許文献3に開示された技術は、例えば、顔写真を提示する等の「本人らしさ」が低下するような粗雑な偽装を見逃した場合に、顔写真に含まれる人物を照合する。即ち、係る技術では、「本人らしさ」が低下するような粗雑な偽装を見逃した場合に、誤照合する虞がある。
As described above, the techniques disclosed in
例えば、目を閉じた後に目を開ける等の「所定の動作」を検知することを利用者が既に知っている場合に、係る偽装の方法(つまり、「なりすまし」が検知されるのを回避する方法)は、考案されやすい。 For example, if the user already knows to detect a “predetermined action” such as opening his eyes after closing his eyes, avoiding the detection of such impersonation methods (ie, “spoofing”) Method) is easy to devise.
特に、「なりすまし」される本人と異なる人物の顔を撮像した顔写真を使用する偽装の方法は、容易に考案でき、且つ容易に実施することができる。即ち、「本人らしさ」が低下するような粗雑な偽装は、悪意のある第三者によって、行われやすい。 In particular, a camouflage method using a facial photograph obtained by capturing a face of a person different from the person being “spoofed” can be easily devised and easily implemented. That is, a rough camouflage that reduces the “personality” is easily performed by a malicious third party.
さらに、上述した偽装方法の他に、例えば、係る偽装の方法としては、「所定の動作」をする第三者を表す画像を利用する。また、当該偽装の方法は、「所定の動作」に見えるように複数の画像を貼り合わせることによって生成した画像を利用する。または、偽装の方法は、照合対象である人物を撮像した顔写真に遮蔽物をかぶせるといった手法が存在する。 Further, in addition to the above-described camouflaging method, for example, as the camouflaging method, an image representing a third party who performs a “predetermined operation” is used. The camouflage method uses an image generated by combining a plurality of images so as to look like a “predetermined operation”. Alternatively, the camouflaging method includes a method of covering a face photograph obtained by capturing a person to be collated with a shield.
より具体的に、一例として、ここでは、照合対象である人物が「目を閉じる動作」を所定の動作として検知する場合について説明する。 More specifically, as an example, here, a case will be described in which a person to be collated detects “an eye closing operation” as a predetermined operation.
例えば、照合対象である人物(つまり、なりすまされる人物)と異なる第三者は、当該照合対象である人物が目を開いた状態を表す顔写真を、容易に入手することができる。さらに、係る第三者にとっては、不特定の人物(照合対象である人物と異なる人物)が目を閉じた状態を表す顔写真を入手することも容易である。 For example, a third person who is different from the person to be collated (that is, the person to be impersonated) can easily obtain a facial photograph representing a state in which the person to be collated is open. Furthermore, it is easy for such a third party to obtain a facial photograph showing a state in which an unspecified person (a person different from the person to be collated) closed his eyes.
まず、係る第三者は、照合対象である人物が目を開いた状態を表す顔写真を、例えば、照合対象である人物を撮像するカメラに提示する。第三者は、照合対象である人物が目を開いた状態を表す顔写真を、不特定の人物が目を閉じた状態を表す顔写真に差し替える。 First, the third party presents a facial photograph representing a state in which the person to be collated has opened eyes, for example, to a camera that captures the person to be collated. The third person replaces the facial photograph representing the state in which the person to be collated has eyes open with the facial photograph representing the state in which an unspecified person has closed eyes.
さらに、係る第三者は、不特定の人物が目を閉じた状態を表す顔写真を、照合対象である人物が目を開いた状態を表す顔写真に差し替える。即ち、第三者は、係る目を開いた状態を表す顔写真を改めて提示する。 Furthermore, the third party replaces a facial photograph representing a state in which an unspecified person has closed his eyes with a facial photograph representing a state in which the person to be collated has his eyes opened. That is, the third person presents a new face photograph representing the state of opening his eyes.
これにより、特許文献1乃至特許文献3に開示された技術は、顔写真の変化を「所定の動作(つまり、目を閉じる動作)」として検知する。即ち、係る技術は、生体であると誤検知する。さらに、係る技術は、改めて提示された照合対象である人物が目を開いた状態を表す顔写真に基づいて、照合対象の人物であると照合する。
As a result, the techniques disclosed in
このような問題が生じる理由は、係る技術は、生体であると判定した後に照合対象である人物を照合する。このため、偽装によって生体であると誤検知した場合に、係る技術では、照合対象である人物として誤照合してしまうからである。 The reason why such a problem occurs is that such technology collates a person to be collated after determining that the subject is a living body. For this reason, if it is erroneously detected that the subject is a living body by impersonation, such technology will erroneously collate as a person to be collated.
尚、照合対象である人物を照合後に、照合対象である人物が生体であるか否かを検知する場合であっても、係る技術では、同様の問題を解決することができない。 Even if it is a case where it is detected whether the person who is a collation object is a living body after collating the person who is a collation object, the technique cannot solve the same problem.
本発明の主たる目的は、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することが可能な照合装置等を提供することを主たる目的とする。 The main object of the present invention is to perform collation capable of more accurately detecting the impersonation and collating the target object to be collated even if it is a rough camouflage that reduces the “personality” The main purpose is to provide devices and the like.
上記の課題を達成すべく、本発明に係る照合装置は、以下の構成を備えることを特徴とする。 In order to achieve the above object, a collation apparatus according to the present invention has the following configuration.
即ち、本発明に係る照合装置は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする。
That is, the verification device according to the present invention is
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
It is characterized by providing.
或いは、同目的は、上記に示す照合装置を含む照合システムによっても達成される。 Alternatively, this object can be achieved by a verification system including the verification device described above.
また、同目的を達成すべく、本発明に係る照合方法は、以下の構成を備えることを特徴とする。 In order to achieve the same object, the collation method according to the present invention is characterized by having the following configuration.
即ち、本発明に係る照合方法は、
情報処理装置によって、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする。
That is, the verification method according to the present invention is:
Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
It is characterized by that.
尚、同目的は、上記の各構成を有する照合装置及び照合方法を、コンピュータによって実現するコンピュータ・プログラム、及びそのコンピュータ・プログラムが格納されている、読み取り可能な記憶媒体によっても達成される。 This object is also achieved by a computer program that implements the collation apparatus and collation method having the above-described configurations by a computer, and a readable storage medium that stores the computer program.
本発明によれば、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することが可能な照合装置等を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is a rough camouflage with which "personality" falls, the collation apparatus which can detect the camouflage more correctly and can collate the target object which is the object of collation Etc. can be provided.
以下、本発明の実施形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
<第1の実施形態>
図1は、本発明の第1の実施形態における照合装置1の構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing a configuration of a
図1において、照合装置1は、検知部2と、照合部3とを備える。
In FIG. 1, the
より具体的に、検知部2は、照合対象である対象物を表す画像(画像を構成する情報)を含む画像情報101に基づいて、その画像情報101に所定の動作(以降、説明の便宜上、「第1動作」と称する)を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。
More specifically, the
また、検知部2は、第1動作をしていない状態であることを検知する。即ち、検知部2は、照合の対象である対象物を照合しやすい(自然な)状態であることを検知する。
In addition, the
ここで、照合しやすい(自然な)状態とは、例えば、人物を照合する場合に、人物が目を開き、且つ口を閉じた無表情であることを表す状態を含む。但し、本実施形態を例に説明する本発明は、前述した構成には限定されない(以下、各実施形態においても同様)。 Here, the state that is easy to collate (natural) includes, for example, a state that represents that the person has an open face and a mouthless expression when collating the person. However, the present invention described using this embodiment as an example is not limited to the configuration described above (hereinafter, the same applies to each embodiment).
より具体的に、検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。
More specifically, when the
画像情報101は、例えば、カメラ等の撮影機器によって撮像された照合対象である対象物を表す画像を含む時系列な複数の画像フレームによって構成される動画像である。
The
より具体的に、画像情報101は、例えば、人物を照合する場合に、照合対象である人体の顔、または目や口等の顔の部位(一部)を表す部分画像を含む。
More specifically, the
尚、上述した本実施形態では、説明の便宜上、一例として、画像情報101は、時系列な複数の画像フレームによって構成される動画像を例に説明した。しかしながら本発明に係る実施形態は、係る構成に限定されない。
In the above-described embodiment, for convenience of explanation, the
画像情報101は、時系列な複数の画像フレームによって構成される画像を採用してもよい。また、例えば、画像情報101は、照合対象である対象物を表す画像から抽出された特徴量を採用してもよい。
The
第1動作とは、画像情報101に基づき検知部2が検知するところの対象物、または対象物の部位の動作である。
The first operation is an operation of an object or a part of the object detected by the
より具体的に、第1動作は、例えば、人物を照合する場合に、照合対象である人物の顔、または顔の部位の動作である。 More specifically, the first operation is, for example, an operation of a person's face or face part to be collated when the person is collated.
第1動作は、例えば、人物の顔を上下左右に動かす、顔を左右に傾ける、目(瞼)の開閉、眼球(虹彩)の動き、口の開閉動作を採用することができる。 As the first operation, for example, a person's face can be moved up and down, left and right, a face can be tilted left and right, eye (eyelid) opening and closing, eyeball (iris) movement, and mouth opening and closing operation can be adopted.
尚、第1動作は、上述した動作の何れか、または1つ以上の動作を組み合わせてもよい。 The first operation may be any of the operations described above or a combination of one or more operations.
より具体的に、一例として、目の開閉動作を第1動作に採用する場合に、第1動作は、「目を閉じる」動作を表すこととする。検知部2は、画像情報101に「目を閉じる」動作を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。
More specifically, as an example, when an eye opening / closing operation is adopted as the first operation, the first operation represents an “eye closing” operation. When the
また、検知部2は、画像情報101に「目を閉じる」動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。例えば、検知部2は、画像情報101に「目を開く」動作を検知した場合に、画像情報101に「目を閉じる」動作を含まないと検知してもよい。また、例えば、検知部2は、画像情報101に「目を開いている」状態を検知した場合に、画像情報101に「目を閉じる」動作を含まないと検知してもよい。
Further, when the
また、一例として、口の開閉動作を第1動作に採用する場合に、第1動作は、「口を開く」動作を表すこととする。検知部2は、画像情報101に「口を開ける」動作を含むと検知した場合に、画像情報101が表す画像に含まれた対象物が生体であると検知する。
As an example, when the opening / closing operation of the mouth is adopted as the first operation, the first operation represents an operation of “opening the mouth”. When the
また、検知部2は、画像情報101に「口を開ける」動作を含まないと検知した場合に、第1動作をしていない状態であると検知する。例えば、検知部2は、画像情報101に「口を閉じる」動作を検知した場合に、画像情報101に「口を開く」動作を含まないと検知してもよい。また、例えば、検知部2は、画像情報101に「口を閉じている」状態を検知した場合に、画像情報101に「口を開ける」動作を含まないと検知してもよい。
Further, when the
これにより、検知部2は、画像情報101に基づいて、「目を閉じている」と識別した場合には、画像情報101に第1動作を含むと検知することができる。
As a result, when the
また、検知部2は、画像情報101に基づいて、例えば、「目を開いている」と識別した場合には、画像情報101に第1動作を含まないと検知することができる。即ち、検知部2は、画像情報101に第1動作を含まないと検知することによって、第1動作が終了したと判定することができる。
For example, when the
次に、照合部3は、検知部2により対象物が生体であると検知した場合に、画像情報101に第1動作を含むと検知した際に用いた画像情報101と、記憶部4に保持された特徴量102とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Next, when the
また、照合部3は、検知部2により対象物が第1動作をしていない状態であると検知した場合に、第1動作をしていない状態であると検知した際に用いた画像情報101と、特徴量102とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Further, when the
ここで、特徴量102とは、照合部3が照合の対象である対象物を照合するに際して利用するデータである。即ち、画像により人物を照合する場合に、特徴量102は、照合対象である個人を区別しやすいように変換された数値列(ベクトル)である。
Here, the
より具体的に、特徴量102は、予め記憶部4に保持された照合対象である特定の対象物による第1動作をしていないこと(つまり、第1動作と異なる動作及び状態)を表す画像に基づいて抽出された特徴量である。
More specifically, the
尚、上述した本実施形態では、説明の便宜上、一例として、特徴量102は、照合対象である特定の対象物による第1動作をしていないことを表す画像に基づいて抽出された特徴量を採用する例に説明した。
In the above-described embodiment, for convenience of explanation, as an example, the
しかしながら本発明に係る実施形態は、係る構成に限定されない。特徴量102は、照合対象である特定の対象物による第1動作を表す画像に基づいて抽出された特徴量を採用してもよい。
However, the embodiment according to the present invention is not limited to such a configuration. As the
また、対象物を表す画像に基づき任意の統計的パターン認識技術を用いて、特徴量を抽出する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。 In addition, since a technique for extracting a feature amount using an arbitrary statistical pattern recognition technique based on an image representing an object can be a general technique at present, a detailed description in the present embodiment is provided. Is omitted (hereinafter, the same applies to each embodiment).
照合部3は、検知部2により対象物が生体であると検知した際に照合した結果(以降、説明の便宜上、「第1の照合結果」と称する)と、第1動作をしていない状態であると検知した際に照合した結果(以降、説明の便宜上、「第2の照合結果」と称する)とに基づいて、画像情報101が表す画像に含まれる対象物が照合の対象として予め記憶部4に保持された特定の対象物であるか否かを判定する。
The
記憶部4は、特徴量102を保持する。記憶部4は、コンピュータによるデータの読み書きが可能な不揮発性の記憶デバイスである。
The storage unit 4 holds the
より具体的に、一例として、記憶部4は、情報処理装置等の電子機器に搭載されたハードディスクドライブ(Hard_disk_drive:以降、「HDD」と称する)等の不揮発性の記憶装置を採用することができる。 More specifically, as an example, the storage unit 4 may employ a nonvolatile storage device such as a hard disk drive (Hard_disk_drive: hereinafter referred to as “HDD”) mounted on an electronic device such as an information processing device. .
また、一例として、記憶部4は、不図示の通信ネットワークに接続されたストレージデバイス(不図示)を採用してもよい。但し、本実施形態を例に説明する本発明は、前述した構成には限定されない(以下の実施形態においても同様)。 As an example, the storage unit 4 may employ a storage device (not shown) connected to a communication network (not shown). However, the present invention described using this embodiment as an example is not limited to the above-described configuration (the same applies to the following embodiments).
以下の説明において、より具体的に、本実施形態における照合装置1の動作について説明する。
In the following description, the operation of the
図2は、本発明の第1の実施形態における照合装置1が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置1の動作手順を説明する。
FIG. 2 is a flowchart showing an operation performed by the
ここでは、説明の便宜上、一例として、照合装置1は、照合対象である人物の目の開閉動作を検知することとする。第1動作は、「目を閉じる」動作を表すこととする。また、画像情報101は、照合対象である人物を表す部分画像を含むこととする。
Here, for convenience of explanation, as an example, the
尚、説明の便宜上、上述した構成を例に説明するが、本実施形態を例に説明する本発明は、前述した構成にはこれに限定されない(以下の実施形態においても同様)。 For convenience of explanation, the above-described configuration will be described as an example. However, the present invention described by taking this embodiment as an example is not limited to the above-described configuration (the same applies to the following embodiments).
ステップS101:
検知部2は、画像情報101に基づいて、画像情報101が表す画像に含まれる人物が生体であるか否かを検知する。即ち、検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含むか否かを検知する。
Step S101:
Based on the
より具体的に、検知部2は、一般的に知られた任意の統計的パターン認識技術を用いて、生成された識別器によって、画像情報101が表す画像に含まれる人物が「第1動作」を表す状態か否かを識別する。検知部2は、「第1動作」を表す状態であると識別した場合に、画像情報101に第1動作を含むと検知する。
More specifically, the
任意の統計的パターン認識技術としては、一般的に知られたサポートベクトルマシン、ニューラルネットワーク、学習ベクトル量子化及びブースティング等を採用することができる。 As an arbitrary statistical pattern recognition technique, generally known support vector machines, neural networks, learning vector quantization, boosting, and the like can be adopted.
例えば、検知対象である人物において「目の開閉」を識別する場合に、識別器は、任意の統計的パターン認識技術によって、目の周辺を含む「目を閉じた状態」及び「目を開けた状態」を表す多数の人体画像を学習することにより生成される(以下、各実施形態においても同様)。 For example, when identifying “open / closed eyes” in a person to be detected, the discriminator uses an arbitrary statistical pattern recognition technique to “close the eyes” and “open the eyes” including the periphery of the eyes. It is generated by learning a large number of human body images representing the “state” (the same applies to the following embodiments).
ステップS102において「YES」:
検知部2は、画像情報101が表す画像に含まれる人物が生体であると検知した場合に、処理をステップS103及びステップS104に進める。
“YES” in step S102:
When the
ステップS102において「NO」:
検知部2は、画像情報101が表す画像に含まれる人物が生体でないと検知した場合に、次の映像フレームの処理を進める。即ち、検知部2は、処理をステップS101に戻す。
“NO” in step S102:
When the
ステップS103:
照合部3は、検知部2が生体であると検知した際に用いた画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。照合部3は、処理をステップS107に進める。
Step S103:
The
より具体的に、照合部3は、検知部2が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づいて、当該画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。
More specifically, the
尚、照合部3が画像情報101から特徴量を抽出すると共に、抽出した特徴量と特徴量102とに基づき照合する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。
In addition, since the
ステップS104:
検知部2は、画像情報101に基づいて、その画像情報101に第1動作を含むか否かを検知する。
Step S104:
Based on the
より具体的に、検知部2は、画像情報101が表す画像に含まれる人物が「第1動作」を表す状態か否かを識別する。検知部2は、「第1動作」を表す状態でないと識別した場合に、画像情報101に第1動作を含まないと検知する。
More specifically, the
尚、ステップS104において、検知部2が画像情報101に第1動作を含むか否かを検知する際に用いる画像情報101は、ステップS101において、検知部2が画像情報101に第1動作を含むか否かを検知する際に用いた画像情報101と異なる画像情報である。即ち、ステップS101において用いる画像情報101とステップS104において用いる画像情報101とは、別の映像フレームである(以下、各実施形態においても同様)。
Note that the
尚、検知部2が画像情報101に第1動作を含むか否かを検知する手法は、上述したステップS101において画像情報101に第1動作を含むか否か検知した手法を採用することができる。そのため、重複する説明は省略する。
As a method for detecting whether the
ステップS105において「NO」:
検知部2は、画像情報101に第1動作を含まないと検知した場合に、処理をステップS106に進める。
“NO” in step S105:
If the
ステップS105において「YES」:
検知部2は、画像情報101に第1動作を含むと検知した場合に、次の映像フレームの処理を進める。即ち、検知部2は、処理をステップS101に戻す。
“YES” in step S105:
When the
ステップS106:
照合部3は、検知部2が第1動作を含まないと検知した際に用いた画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。照合部3は、処理をステップS107に進める。
Step S106:
The
より具体的に、照合部3は、検知部2が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づいて、当該画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを照合する。
More specifically, the
ステップS107:
照合部3は、ステップS103において照合した結果(第1の照合結果)と、ステップS106において照合した結果(第2の照合結果)とに基づいて、画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを判定する。
Step S107:
Based on the result collated in step S103 (first collation result) and the result collated in step S106 (second collation result), the
より具体的に、照合部3は、生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づき照合した結果(第1の照合結果)と、第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された特徴量102とに基づき照合した結果(第2の照合結果)とに基づいて、画像情報101が表す画像に含まれる人物が照合対象である特定の人物であるか否かを判定する。
More specifically, the
尚、上述したステップS103、ステップS106及びステップS107に示す判定結果は、照合対象である特定の対象物であることを示す「真」、または照合対象である特定の対象物でないことを示す「偽」の2値で表してもよい。また、当該判定結果は、照合対象である対象物らしさを表す数値(照合スコア)で表してもよい。 It should be noted that the determination results shown in steps S103, S106, and S107 described above are “true” indicating that the object is a specific object to be verified, or “false” indicating that the object is not a specific object that is a target to be verified. ”May be represented by a binary value. In addition, the determination result may be represented by a numerical value (collation score) that represents the object likeness to be collated.
判定結果として「真」、または「偽」を表す2値を採用した場合に、照合部3は、第1の照合結果と、第2の照合結果との論理積(AND)をとり、その結果に応じて判定する。
When a binary value representing “true” or “false” is adopted as the determination result, the
より具体的に、第1及び第2の照合結果が「真」を表す場合に、照合部3は、「真」、つまり、照合対象である特定の対象物であると判定する。その一方で、第1及び第2の照合結果の何れかが「偽」を表す場合に、照合部3は、「偽」、つまり、照合対象である特定の対象物でないと判定する。
More specifically, when the first and second collation results represent “true”, the
また、判定結果として数値(照合スコア)を採用した場合に、照合部3は、第1の照合結果と第2の照合結果との線形和、または最小値と、所定の閾値との比較結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。
When a numerical value (collation score) is adopted as the determination result, the
より具体的に、一例として、照合部3は、係る線形和、または最小値と、所定の閾値とを比較した結果、閾値より小さい場合に、照合対象である特定の対象物でないと判定する。一方で、照合部3は、比較した結果、閾値以上の場合に、照合対象である特定の対象物であると判定してもよい。
More specifically, as an example, the
また、照合部3は、第1の照合結果と第2の照合結果との照合スコアの値を、確率として扱えるように、例えば、「0.0」から「1.0」の実数としてスケーリングする。
Further, the
照合部3は、スケーリングされた第1の照合結果の値と、第2の照合結果の値とを乗算する。照合部3は、乗算することによって求めた値と、所定の閾値とを比較した結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。
The
また、照合部3は、値「1」からスケーリングされた第1の照合結果の値と、第2の照合結果の値とを乗算することによって求めた値を減算する。照合部3は、減算することによって求めた値を、例えば、ソフトマックス関数を用いて変換する。照合部3は、変換した値と、所定の閾値とを比較した結果に応じて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。
The
所定の閾値は、例えば、管理者によって予め設定される構成を採用してもよい。また、所定の閾値は、照合部3による判定結果に応じて、設定される構成を採用してもよい。
As the predetermined threshold, for example, a configuration set in advance by an administrator may be employed. In addition, a configuration in which the predetermined threshold is set according to the determination result by the
尚、上述した本実施形態では、説明の便宜上、一例として、照合装置1は、ステップS101において画像情報101に第1動作を含むか否かを検知後にステップS104において画像情報101に第1動作を含むか否かを検知する構成を例に説明した。
In the present embodiment described above, for convenience of explanation, as an example, the
しかしながら本発明に係る実施形態は、係る構成に限定されない。 However, the embodiment according to the present invention is not limited to such a configuration.
より具体的に、例えば、本実施形態において、照合装置1は、図2に示すステップS104乃至ステップS106において説明した処理を、ステップS101乃至ステップS103において説明した処理よりも先に実行する構成を採用することができる。即ち、検知部2は、画像情報101に第1動作を含むと検知する処理、または画像情報101に第1動作を含まないと検知する処理の何れか一方の処理を実行すると共に、その何れか一方の処理を実行後に他方の処理を実行する構成を採用することができる。
More specifically, for example, in the present embodiment, the
この場合に、図2に示すステップS104において、検知部2は、第1動作が終了したことを検知するのではなく、照合対象である対象物が照合可能な状態(第1動作をしていない状態)であることを検知する構成を採用することができる(以下、各実施形態においても同様)。
In this case, in step S104 shown in FIG. 2, the
また、照合装置1は、図2に示すステップS104、ステップS103、ステップS105、ステップS106の順に処理を実行する構成を採用してもよい。さらに、照合装置1は、ステップS103、ステップS104乃至ステップS106において説明した処理を略並列に実行する構成を採用してもよい。
Moreover, the
このように本実施の形態に係る照合装置1によれば、「本人らしさ」が低下するような粗雑な偽装であっても、その偽装を、より正確に検知すると共に、照合の対象である対象物を照合することができる。その理由は、以下に述べる通りである。
As described above, according to the
即ち、検知部2は、画像情報101に基づいて、その画像情報101に所定の動作(第1動作)を含むか否かを検知する。これにより、検知部2は、より正確に照合対象である対象物が生体か否かを検知することができる。さらに、照合部3は、検知部2によって、画像情報101に所定の動作を含むと検知した際に用いた画像情報101と、画像情報101に所定の動作を含まないと検知した際に用いた画像情報101とに基づいて、画像情報101が表す画像に含まれる対象物を照合する。照合部3は、その所定の動作を含むと検知した際の照合結果と、その所定の動作を含まないと検知した際の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定することができるからである。
That is, based on the
このように、照合装置1は、照合対象である対象物(本人)らしさを検証することができる。また、照合装置1は、「本人らしさ」が低下するような粗雑な偽装であっても、なりすまされた対象物を照合する、つまり、誤照合してしまう問題を防ぐことができる。
Thus, the
<第2の実施形態>
次に、上述した本発明の第1の実施形態に係る照合装置1を基本とする第2の実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Second Embodiment>
Next, a second embodiment based on the
本発明の第2の実施形態における照合装置10について、図2乃至図4を参照して説明する。
A
図3は、本発明の第2の実施形態における照合装置10の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of the
図3において、照合装置10は、第1の動作検知部11と、第2の動作検知部12と、第1の照合部13と、第2の照合部14と、判定部15とを備える。
In FIG. 3, the
より具体的に、第1の動作検知部11と、第2の動作検知部12とは、第1の実施形態において説明した検知部2に相当する。
More specifically, the first
第1の動作検知部11は、図2に示すステップS101及びステップS102において説明した処理を実行する。
The first
第2の動作検知部12は、図2に示すステップS104及びステップS105において説明した処理を実行する。
The second
第1の照合部13と、第2の照合部14と、判定部15とは、第1の実施形態において説明した照合部3に相当する。
The
第1の照合部13は、図2に示すステップS103において説明した処理を実行する。第2の照合部14は、図2に示すステップS106において説明した処理を実行する。判定部15は、図2に示すステップS107において説明した処理を実行する。
The
より具体的に、第1の照合部13は、第1の動作検知部11が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。第1の照合部13は、照合結果(第1の照合結果)を判定部15に与える。
More specifically, the
第2の照合部14は、第2の動作検知部12が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。第2の照合部14は、照合結果(第2の照合結果)を判定部15に与える。
The
判定部15は、第1の照合結果と、第2の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合の対象として予め記憶部5に保持された特定の対象物であるか否かを判定する。
Based on the first collation result and the second collation result, the
記憶部4は、第1特徴量103と、第2特徴量104とを保持する。
The storage unit 4 holds the
本実施形態において、第1特徴量103は、照合対象である特定の対象物による第1動作を表す画像に基づいて抽出された特徴量である。第2特徴量104は、照合対象である特定の対象物による第1動作をしていないことを表す画像に基づいて抽出された特徴量である。
In the present embodiment, the
図4は、本発明の第2の実施形態における照合装置10が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置10の動作手順を説明する。
FIG. 4 is a flowchart showing an operation performed by the
尚、図4に示すステップS201、ステップS202、ステップS204及びステップS205において実行する処理は、図2に示すステップS101、ステップS102、ステップS104及びステップS105において説明した処理と同様である。そのため、重複する説明は省略する。 Note that the processing executed in step S201, step S202, step S204, and step S205 shown in FIG. 4 is the same as the processing described in step S101, step S102, step S104, and step S105 shown in FIG. Therefore, the overlapping description is omitted.
ステップS203:
第1の照合部13は、第1の動作検知部11が生体であると検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Step S203:
The
第1の照合部13は、照合結果(第1の照合結果)を判定部15に対して与える。第1の照合部13は、処理をステップS207に進める。
The
ステップS206:
第2の照合部14は、第2の動作検知部12が第1動作を含まないと検知した際に用いた画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。
Step S206:
The
第2の照合部14は、照合結果(第2の照合結果)を判定部15に対して与える。第2の照合部14は、処理をステップS207に進める。
The
ステップS207:
判定部15は、第1の照合結果と、第2の照合結果とに基づいて、画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを判定する。
Step S207:
The
このように本実施の形態に係る照合装置10によれば、第1の実施形態において説明した効果を享受できると共に、さらに、より速やかに、精度よく「本人らしさ」が低下するような粗雑な偽装を検知すると共に、照合の対象である対象物を照合することができる。
As described above, according to the
その理由は、照合装置10は、第1の実施形態において説明した検知部2が実行する処理を第1の動作検知部11と、第2の動作検知部12とに分散して実行する。さらに、照合装置10は、第1の実施形態において説明した照合部3が実行する処理を第1の照合部13と、第2の照合部14と、判定部15とに分散して実行する。このため、照合装置10は、それぞれの処理が終了することを待つことなく処理を実行することができるからである。
The reason is that the
また、照合装置10は、第1動作を表す画像及び第1動作をしていないことを表す画像に基づいて抽出された特徴量(第1特徴量103及び第2特徴量104)と、画像情報101から抽出した特徴量とに基づき照合するため、より精度よく照合の対象である特定の対象物を照合することができるからである。
In addition, the
<第3の実施形態>
次に、上述した本発明の第2の実施形態に係る照合装置10を基本とする第3の実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Third Embodiment>
Next, a third embodiment based on the
本発明の第3の実施形態における照合装置20について、図4乃至図6を参照して説明する。
A
図5は、本発明の第3の実施形態における照合装置20の構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of the
図5において、照合装置20は、第1の動作検知部21と、第2の動作検知部12と、第1の照合部13と、第2の照合部14と、判定部15とを備える。
In FIG. 5, the
本実施形態において、照合装置20は、第1の動作検知部21の動作が第2の実施形態において説明した第1の動作検知部11の動作と異なる。
In this embodiment, the
第2の実施形態において説明した第1の動作検知部11は、画像情報101が表す画像に含まれる対象物が「第1動作」を表す状態、または「第1動作をしていない」ことを表す状態の何れかの状態を識別する構成を例に説明した。
The first
本実施形態において、第1の動作検知部21は、画像情報101が表す画像に含まれる対象物が「対象物でない」ことを表す状態、「対象物による第1動作」を表す状態及び「対象物による第1動作をしていない」ことを表す状態の何れかの状態を識別する構成を採用する。
In the present embodiment, the
これにより、第1の動作検知部21は、より精度よく「なりすまし」を検知することができる。
Thereby, the
より具体的に、一例として、人物を照合する場合に、第1の動作検知部21は、画像情報101が表す画像に含まれる人物が「人物でない」ことを表す状態、「人物による第1動作」を表す状態及び「人物による第1動作をしていない」ことを表す状態の何れかの状態を識別する。
More specifically, as an example, when collating a person, the first
これにより、第1の動作検知部21は、画像情報101が表す画像に含まれる対象物が生体であるか否かを検知するだけでなく、目、眼球及び口等の人体の各部位が人体であるか否かを識別する。即ち、第1の動作検知部21は、「目でない」及び「目であるかのように偽装した」場合であっても、その偽装を、より精度よく検知することができる。
Thereby, the first
以下の説明において、より具体的に、本実施形態における第1の動作検知部21の動作について説明する。
In the following description, the operation of the
図6は、本発明の第3の実施形態における照合装置20が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置20の動作手順を説明する。
FIG. 6 is a flowchart showing an operation performed by the
尚、図6に示すステップS302乃至ステップS307において実行する処理は、図4に示すステップS202乃至ステップS207において説明した処理と同様である。そのため、重複する説明は省略する。 Note that the processing executed in steps S302 to S307 shown in FIG. 6 is the same as the processing described in steps S202 to S207 shown in FIG. Therefore, the overlapping description is omitted.
ステップS301:
第1の動作検知部21は、画像情報101に基づいて、画像情報101に対象物による第1動作を含むと検知した場合に、画像情報101に含まれた対象物が生体であると判定する。
Step S301:
Based on the
本実施形態において、第1の動作検知部21は、統計的パターン認識技術を用いて、生成された識別器によって、画像情報101が表す画像に含まれる対象物が「対象物でない」ことを表す状態、「対象物による第1動作」を表す状態、及び「対象物による第1動作をしていない」ことを表す状態の何れかの状態を識別する。
In the present embodiment, the first
例えば、検知対象である人物において「目の開閉」を識別する場合に、識別器は、任意の統計的パターン認識技術によって、「目でない」及び「目であるかのように偽装した」ことを表す多数の人体画像と、目の周辺を含む「目を閉じた状態」及び「目を開けた状態」を表す多数の人体画像とを学習することにより生成される。 For example, when identifying “opening / closing of eyes” in a person to be detected, the discriminator determines that “not eyes” and “impersonated as if eyes” by any statistical pattern recognition technique. It is generated by learning a large number of human body images to be represented and a large number of human body images representing “a state where the eyes are closed” and “a state where the eyes are opened” including the periphery of the eyes.
尚、上述した本実施形態では、説明の便宜上、一例として、照合装置20は、第1の動作検知部21により3つ(「対象物でない」、「対象物による第1動作」及び「対象物による第1動作をしていない」)の状態を識別する構成を例に説明した。
In the above-described embodiment, for convenience of explanation, as an example, the
しかしながら本発明に係る実施形態は、係る構成に限定されない。照合装置20は、第2の動作検知部12も3つの状態を識別する構成を採用してもよい(以下、各実施形態においても同様)。
However, the embodiment according to the present invention is not limited to such a configuration. The
このように本実施の形態に係る照合装置20によれば、各実施形態において説明した効果を享受できると共に、さらに、より精度よく「なりすまし」を検知することができる。
As described above, according to the
その理由は、照合装置20の第1の動作検知部21は、3つの状態を識別することができるからである。即ち、第1の動作検知部21は、第1動作を検知するだけでなく、第1動作をした部位が本当に対象物であるか否かを検証するように動作する。そのため、例えば、対象物でないものによって偽装された場合であっても、より精度よく「なりすまし」を検知することができる。これにより、照合装置20は、なりすまされた対象物を照合する、つまり、誤照合してしまう問題を防ぐことができるからである。
The reason is that the first
より具体的に、一例として、「なりすまし」の対象である人物を表す顔写真に写った両目を表す部分に細長い紙を被せることによって、目を閉じたように偽装した場合であっても、照合装置20は、正確に「なりすまし」を検知することができる。
More specifically, as an example, even if the eyes are disguised as if the eyes are closed by putting a long piece of paper over the part representing both eyes in the face photograph representing the person who is the subject of “spoofing” The
<第4の実施形態>
次に、上述した本発明の第2の実施形態に係る照合装置10を基本とする実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した各実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。
<Fourth Embodiment>
Next, an embodiment based on the
本発明の第4の実施形態における照合装置30について、図4、図7、図8を参照して説明する。
A
図7は、本発明の第4の実施形態における照合装置30を含む照合システム50の構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a verification system 50 including a
図7において、照合システム50は、大別して、照合装置30を含む第1情報処理装置51と、第2情報処理装置52とを備える。
In FIG. 7, the collation system 50 is roughly provided with a first
照合装置30は、第1の動作検知部11と、第2の動作検知部12と、第1の照合要求部31と、第2の照合要求部32と、判定部15とを備える。
The
本実施形態において、第1の照合部33と、第2の照合部34と、記憶部4とは、第1情報処理装置51と異なる(つまり、別体の)第2情報処理装置52が備える。
In the present embodiment, the
第1情報処理装置51と、第2情報処理装置52とは、不図示の通信ネットワークを介して、通信可能に接続する。
The first
より具体的に、第1の照合要求部31は、第1の動作検知部11によって画像情報101が表す画像に含まれる対象物が生体であると検知するのに応じて、第2情報処理装置52の第1の照合部33に対して、画像情報101が表す画像に含まれる対象物を照合するように要求(以降、単に「照合要求」とも記す)する。
More specifically, the first
第1の照合要求部31は、照合要求するに際して、第1の照合部33に対して第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101を送信する。
The first
また、第1の照合要求部31は、第1の照合部33から第1の照合結果を受信すると共に、受信した第1の照合結果を判定部15に対して与える。
The first
第2の照合要求部32は、第2の動作検知部12によって、第1動作をしていない状態であると検知するのに応じて、第2情報処理装置52の第2の照合部34に対して、画像情報101が表す画像に含まれる対象物を照合するように要求する。
The second
第2の照合要求部32は、照合要求するに際して、第2の照合部34に対して第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101を送信する。
The second
また、第2の照合要求部32は、第2の照合部34から第2の照合結果を受信すると共に、受信した第2の照合結果を判定部15に対して与える。
The second
尚、上述した本実施形態では、説明の便宜上、一例として、第1の照合要求部31と、第2の照合要求部32とは、照合要求するに際して、第1の照合部33、または第2の照合部34に対して画像情報101を送信する構成を例に説明した。
In the above-described embodiment, for convenience of explanation, as an example, the first
しかしながら本発明に係る実施形態は、係る構成に限定されない。第1の照合要求部31と、第2の照合要求部32とは、照合要求するに際して、第1の照合部33、または第2の照合部34に対して画像情報101に基づいて、抽出した特徴量を送信する構成を採用してもよい。
However, the embodiment according to the present invention is not limited to such a configuration. The first
その場合に、第1の照合要求部31と、第2の照合要求部32とは、画像情報101に基づいて、特徴量を抽出する構成を採用することができる。
In that case, the first
尚、第1の照合要求部31と、第2の照合要求部32とが画像情報101に基づいて、特徴量を抽出する技術自体は、現在では一般的な技術を採用することができるので、本実施形態における詳細な説明は省略する(以下、各実施形態においても同様)。
Since the first
第1の照合部33は、第1の照合要求部31から照合要求と画像情報101とを受信するのに応じて、処理を開始する。
The
より具体的に、第1の照合部33は、画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。さらに、第1の照合部33は、第1の照合結果を第1の照合要求部31に対して送信する。
More specifically, the
第2の照合部34は、第2の照合要求部32から照合要求と画像情報101とを受信するのに応じて、処理を開始する。
The
第2の照合部34は、画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。さらに、第2の照合部34は、第2の照合結果を第2の照合要求部32に対して送信する。
Based on the feature quantity extracted from the
以下の説明において、より具体的に、本実施形態における照合装置30の動作について説明する。
In the following description, the operation of the
図8は、本発明の第4の実施形態における照合装置30が行う動作を示すフローチャートである。係るフローチャートに沿って照合装置30の動作手順を説明する。
FIG. 8 is a flowchart showing an operation performed by the
尚、図8に示すステップS401、ステップS402、ステップS406、ステップS407及びステップS411において実行する処理は、図4に示すステップS201、ステップS202、ステップS204、ステップS205及びステップS207において説明した処理と同様である。そのため、重複する説明は省略する。 Note that the processing executed in step S401, step S402, step S406, step S407, and step S411 shown in FIG. 8 is the same as the processing described in step S201, step S202, step S204, step S205, and step S207 shown in FIG. It is. Therefore, the overlapping description is omitted.
ステップS403:
第1の照合要求部31は、照合要求と、第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101とを第1の照合部33に対して送信する。
Step S403:
The first
ステップS404:
第1の照合部33は、第1の照合要求部31から照合要求と、第1の動作検知部11が画像情報101に第1動作を含むと検知した際に用いた画像情報101とを受信する。
Step S404:
The
第1の照合部33は、受信した画像情報101から抽出した特徴量と、記憶部4に保持された第1特徴量103とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。次に、第1の照合部33は、第1の照合結果を第1の照合要求部31に対して送信する。
Based on the feature amount extracted from the received
ステップS405:
第1の照合要求部31は、第1の照合部33から第1の照合結果を受信すると共に、受信した第1の照合結果を判定部15に対して与える。
Step S405:
The first
ステップS408:
第2の照合要求部32は、照合要求と、第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101とを第2の照合部34に対して送信する。
Step S408:
The second
ステップS409:
第2の照合部34は、第2の照合要求部32から照合要求と、第2の動作検知部12が画像情報101に第1動作を含まないと検知した際に用いた画像情報101とを受信する。
Step S409:
The
第2の照合部34は、受信した画像情報101から抽出した特徴量と、記憶部4に保持された第2特徴量104とに基づいて、当該画像情報101が表す画像に含まれる対象物が照合対象である特定の対象物であるか否かを照合する。次に、第2の照合部34は、第2の照合結果を第2の照合要求部32に対して送信する。
Based on the feature amount extracted from the received
ステップS410:
第2の照合要求部32は、第2の照合部34から第2の照合結果を受信すると共に、受信した第2の照合結果を判定部15に対して与える。
Step S410:
The second
尚、上述した本実施形態では、説明の便宜上、一例として、照合システム50は、第1の動作検知部11、第2の動作検知部12、第1の照合要求部31、第2の照合要求部32及び判定部15を含む第1情報処理装置51と、第1の照合部33、第2の照合部34及び記憶部4を含む第2情報処理装置52とによって構成する例を説明した。
In the above-described embodiment, for convenience of explanation, as an example, the collation system 50 includes the first
しかしながら本発明に係る実施形態は、係る構成に限定されない。照合システム50は、は、例えば、第2の実施形態において説明した照合装置10を構成する全ての各部を含む第1情報処理装置51によって構成してもよい。
However, the embodiment according to the present invention is not limited to such a configuration. The collation system 50 may be configured by, for example, the first
このように本実施の形態に係る照合装置30によれば、各実施形態において説明した効果を享受できると共に、さらに、速やかに「本人らしさ」が低下するような粗雑な偽装を検知すると共に、照合の対象である対象物を照合することができる。
As described above, according to the
その理由は、第1の照合部33と、第2の照合部34とは、照合装置30と異なる情報処理装置51において動作する。即ち、照合装置30は、第1の照合部33と、第2の照合部34と、第1の動作検知部11と、第2の動作検知部12と、判定部15とにおいて実行する処理を分散することができる。これにより、例えば、第1情報処理装置51の演算能力が低い場合であっても、照合装置30は、速やかにそれぞれの処理を実行することができるからである。
The reason is that the
また、本実施形態によれば、複数の照合装置30においてシステムを運用する場合であっても、そのシステムを導入するためのコストを低く抑えることができる。
Further, according to the present embodiment, even when a system is operated in a plurality of
その理由は、照合装置30は、対象物を照合するに際して利用する特徴量(第1特徴量103及び第2特徴量104)を1つの情報処理装置において管理することができるからである。
The reason is that the
さらに、照合装置は、例えば、一般的に知られたパーソナルコンピュータや携帯端末装置、スマーフォン等の情報端末装置に適用することができる。 Furthermore, the collation device can be applied to an information terminal device such as a generally known personal computer, portable terminal device, or smartphone.
(ハードウェア構成例)
上述した実施形態において図面に示した各部は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。これらの各ソフトウェアモジュールは、専用のハードウェアによって実現してもよい。但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定されうる。この場合のハードウェア環境の一例を、図9を参照して説明する。
(Hardware configuration example)
Each unit shown in the drawings in the embodiment described above can be regarded as a function (processing) unit (software module) of a software program. Each of these software modules may be realized by dedicated hardware. However, the division of each part shown in these drawings is a configuration for convenience of explanation, and various configurations can be assumed in mounting. An example of the hardware environment in this case will be described with reference to FIG.
図9は、本発明の模範的な実施形態に係る端末特定装置を実行可能な情報処理装置300(コンピュータ)の構成を例示的に説明する図である。即ち、図9は、図1に示した照合装置1、或いは、図3に示した照合装置10、図5に示した照合装置20及び図7に示した照合装置30、の全体または一部の照合装置を実現可能なサーバ等のコンピュータ(情報処理装置)の構成であって、上述した実施形態における各機能を実現可能なハードウェア環境を表す。
FIG. 9 is a diagram exemplarily illustrating the configuration of an information processing device 300 (computer) that can execute the terminal specifying device according to the exemplary embodiment of the present invention. That is, FIG. 9 shows the whole or a part of the
図9に示した情報処理装置300は、CPU(Central_Processing_Unit)301、ROM(Read_Only_Memory)302、RAM(Random_Access_Memory)303、ハードディスク304(記憶装置)、並びに外部装置との通信インタフェース(Interfac:以降、「I/F」と称する)305、CD−ROM(Compact_Disc_Read_Only_Memory)等の記憶媒体307に格納されたデータを読み書き可能なリーダライタ308を備え、これらの構成がバス306(通信線)を介して接続された一般的なコンピュータである。
The
そして、上述した実施形態を例に説明した本発明は、図9に示した情報処理装置300に対して、その説明において参照したブロック構成図(図1、図3、図5、図7)或いはフローチャート(図2、図4、図6、図8)の機能を実現可能なコンピュータ・プログラムを供給した後、そのコンピュータ・プログラムを、当該ハードウェアのCPU301に読み出して実行することによって達成される。また、当該装置内に供給されたコンピュータ・プログラムは、読み書き可能な一時記憶メモリ(RAM303)またはハードディスク304等の不揮発性の記憶デバイスに格納すれば良い。
The present invention described by taking the above embodiment as an example is the block configuration diagram (FIGS. 1, 3, 5, and 7) referred to in the description of the
また、前記の場合において、当該ハードウェア内へのコンピュータ・プログラムの供給方法は、CD−ROM等の各種記憶媒体307を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等のように、現在では一般的な手順を採用することができる。そして、このような場合において、本発明は、係るコンピュータ・プログラムを構成するコード或いは、そのコードが格納された記憶媒体によって構成されると捉えることができる。 In the above case, the computer program can be supplied to the hardware by a method of installing the computer program via various storage media 307 such as a CD-ROM or a communication line such as the Internet. Currently, a general procedure can be adopted, such as a method of downloading from the outside. In such a case, the present invention can be regarded as being configured by a code constituting the computer program or a storage medium storing the code.
尚、上述した各実施形態の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した実施形態により例示的に説明した本発明は、以下には限らない。即ち、
(付記1)
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする照合装置。
(付記2)
前記検知部は、
前記第1動作を含むと検知する処理、または前記第1動作を含まないと検知する処理の何れか一方の処理を実行し、該何れか一方の処理を実行後に他方の処理を実行することを、
特徴とする付記1に記載の照合装置。
(付記3)
前記照合部は、
さらに前記生体であると検知した場合に、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された第2特徴量とに基づき前記特定の対象物か否かを照合する
ことを特徴とする付記1または付記2に記載の照合装置。
(付記4)
前記検知部は、
前記第1動作及び該第1動作をしていないことを表す画像に基づき統計的パターン認識技術を用いて学習することにより生成された識別器によって前記第1動作を表す状態か否か、または前記第1動作をしていないことを表す状態か否かの何れかの状態を識別すると共に、前記第1動作を表す状態であると識別した場合に、前記第1動作を含むと検知し、前記第1動作をしていないことを表す状態であると識別した場合には、前記第1動作を含まないと検知する
ことを特徴とする付記1乃至付記3に記載の照合装置。
(付記5)
前記検知部は、
さらに前記画像情報に基づいて、前記対象物でないことを表す状態、前記対象物による前記第1動作を表す状態及び前記対象物による前記第1動作をしていないことを表す状態の何れかの状態を識別すると共に、該対象物による前記第1動作を表す状態であると識別した場合に、前記生体であると検知することを特徴とする付記4に記載の照合装置。
(付記6)
前記対象物は人物であって、
前記第1動作は、
前記画像情報に基づき前記検知部が検知するところの前記人物の顔を上下左右に動かす、顔を左右に傾ける、顔の部位である目の開閉動作、眼球の動き及び口の開閉動作の何れか、または1つ以上の動作を組み合わせた動作である
ことを特徴とする付記1乃至付記4の何れかに記載の照合装置。
(付記7)
前記検知部は、
前記目の開閉動作を検知し、前記画像情報に前記人物が目を閉じる動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に目を閉じる動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする付記1乃至付記6の何れかに記載の照合装置。
(付記8)
前記検知部は、
前記口の開閉動作を検知し、前記画像情報に前記人物が口を開ける動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に口を開ける動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする付記1乃至付記6の何れかに記載の照合装置。
(付記9)
第1情報処理端末と、第2情報処理端末とが通信ネットワークを介して通信可能に接続された照合システムであって、
前記第1情報処理端末は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報に基づいて、照合するように要求する第1の照合要求部と、
前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報に基づいて、照合するように要求する第2の照合要求部と、
第1の照合結果と第2の照合結果とに基づいて、照合対象として特定の対象物であるか否かを判定する判定部と、を備え
前記第2情報処理端末は、
前記第1の照合要求部からの要求に応じて、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第1の照合結果を送信する第1の照合部と、
前記第2の照合要求部からの要求に応じて、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された前記第2特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第2の照合結果を送信する第2の照合部と、
を備えることを特徴とする照合システム。
(付記10)
情報処理装置によって、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする照合方法。
(付記11)
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する機能と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する機能と、
をコンピュータに実現させることを特徴とするコンピュータ・プログラム。
In addition, a part or all of each embodiment mentioned above can be described also as the following additional remarks. However, the present invention described by way of example with the above-described embodiments is not limited to the following. That is,
(Appendix 1)
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
A collation device comprising:
(Appendix 2)
The detector is
Executing either one of the processing to detect that the first operation is included or the processing to detect that the first operation is not included, and executing the other processing after executing one of the processing. ,
The collation device according to
(Appendix 3)
The collation unit
Furthermore, when it is detected that it is the living body, the image information used when it is detected that it includes the first action, and the first feature amount extracted based on the image representing the first action by the specific object, Whether or not it is the specific object, and if it is detected that the first operation is not performed, the image information used when detecting that the first operation is not included, and
(Appendix 4)
The detector is
Whether or not the first operation is represented by a discriminator generated by learning using a statistical pattern recognition technique based on the first operation and an image indicating that the first operation is not performed, or When the state indicating whether or not the first operation is being performed is identified, and when it is identified that the state represents the first operation, it is detected that the first operation is included, and 4. The collation device according to any one of
(Appendix 5)
The detector is
Furthermore, based on the image information, any one of a state indicating that the object is not an object, a state indicating the first operation by the object, and a state indicating that the first operation by the object is not performed The collation apparatus according to appendix 4, wherein when the object is identified as being in a state representing the first action by the object, the object is detected as the living body.
(Appendix 6)
The object is a person,
The first operation includes
Any of the movement of the person detected by the detection unit based on the image information up and down, left and right, tilting the face left and right, eye opening / closing operation of the face, eyeball movement, and mouth opening / closing operation The collation device according to any one of
(Appendix 7)
The detector is
When the eye opening / closing operation is detected, and the image information detects that the person includes an eye closing operation, the object is detected as a living body, and the image information includes an eye closing operation. 7. The collation device according to any one of
(Appendix 8)
The detector is
When the opening / closing operation of the mouth is detected, and the image information includes the operation of opening the mouth of the person, the object is detected as a living body, and the image information includes an operation of opening the mouth. 7. The collation device according to any one of
(Appendix 9)
A verification system in which a first information processing terminal and a second information processing terminal are communicably connected via a communication network,
The first information processing terminal
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
A first collation requesting unit for requesting collation based on the image information used when it is detected as including the first action when it is detected as the living body;
A second collation requesting unit for requesting collation based on image information used when it is detected that the first operation is not included when it is detected that the first operation is not performed; When,
A determination unit configured to determine whether or not a specific target object is to be verified based on the first verification result and the second verification result.
In response to a request from the first verification request unit, a first extracted based on image information used when detecting that the first operation is included and an image representing the first operation by the specific object. A first collation unit that collates whether or not the object is the specific object based on a feature amount and transmits the first collation result;
In response to a request from the second verification request unit, the image information used when it is detected that the first operation is not included, and an image indicating that the first operation by the specific object is not performed A second collation unit that collates whether the object is the specific object based on the second feature amount extracted based on the second feature amount, and transmits the second collation result;
A collation system comprising:
(Appendix 10)
Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
The collation method characterized by this.
(Appendix 11)
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image A function of detecting that the first operation is not performed when it is detected that the information does not include the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A function of determining whether or not the object is the specific object based on a result of collation and a result of collation when it is detected that the first operation is not performed ,
A computer program characterized in that a computer is realized.
1 照合装置
2 検知部
3 照合部
4 記憶部
10 照合装置
11 第1の動作検知部
12 第2の動作検知部
13 第1の照合部
14 第2の照合部
15 判定部
20 照合装置
21 第1の動作検知部
30 照合装置
31 第1の照合要求部
32 第2の照合要求部
33 第1の照合部
34 第2の照合部
50 照合システム
51 第1情報処理装置
52 第2情報処理装置
101 画像情報
102 特徴量
103 第1特徴量
104 第2特徴量
300 情報処理装置
301 CPU
302 ROM
303 RAM
304 ハードディスク
305 通信インタフェース
306 バス
307 記憶媒体
308 リーダライタ
DESCRIPTION OF
302 ROM
303 RAM
304
Claims (10)
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する照合部と、
を備えることを特徴とする照合装置。 When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A collation unit that determines whether or not the object is the specific object based on a result collated and a result collated when it is detected that the first operation is not performed When,
A collation device comprising:
前記第1動作を含むと検知する処理、または前記第1動作を含まないと検知する処理の何れか一方の処理を実行し、該何れか一方の処理を実行後に他方の処理を実行することを、
特徴とする請求項1に記載の照合装置。 The detector is
Executing either one of the processing to detect that the first operation is included or the processing to detect that the first operation is not included, and executing the other processing after executing one of the processing. ,
The collation device according to claim 1, wherein
さらに前記生体であると検知した場合に、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された第2特徴量とに基づき前記特定の対象物か否かを照合する
ことを特徴とする請求項1または請求項2に記載の照合装置。 The collation unit
Furthermore, when it is detected that it is the living body, the image information used when it is detected that it includes the first action, and the first feature amount extracted based on the image representing the first action by the specific object, Whether or not it is the specific object, and if it is detected that the first operation is not performed, the image information used when detecting that the first operation is not included, and 2. The method according to claim 1, wherein whether or not the object is the specific object is collated based on a second feature amount extracted based on an image indicating that the first operation by the specific object is not performed. Item 3. The verification device according to Item 2.
前記第1動作及び該第1動作をしていないことを表す画像に基づき統計的パターン認識技術を用いて学習することにより生成された識別器によって前記第1動作を表す状態か否か、または前記第1動作をしていないことを表す状態か否かの何れかの状態を識別すると共に、前記第1動作を表す状態であると識別した場合に、前記第1動作を含むと検知し、前記第1動作をしていないことを表す状態であると識別した場合には、前記第1動作を含まないと検知する
ことを特徴とする請求項1乃至請求項3に記載の照合装置。 The detector is
Whether or not the first operation is represented by a discriminator generated by learning using a statistical pattern recognition technique based on the first operation and an image indicating that the first operation is not performed, or When the state indicating whether or not the first operation is being performed is identified, and when it is identified that the state represents the first operation, it is detected that the first operation is included, and The collation apparatus according to claim 1, wherein when it is identified that the first operation is not performed, it is detected that the first operation is not included.
さらに前記画像情報に基づいて、前記対象物でないことを表す状態、前記対象物による前記第1動作を表す状態及び前記対象物による前記第1動作をしていないことを表す状態の何れかの状態を識別すると共に、該対象物による前記第1動作を表す状態であると識別した場合に、前記生体であると検知することを特徴とする請求項4に記載の照合装置。 The detector is
Furthermore, based on the image information, any one of a state indicating that the object is not an object, a state indicating the first operation by the object, and a state indicating that the first operation by the object is not performed The collation apparatus according to claim 4, wherein when it is identified that the object is in a state representing the first action by the object, the object is detected as the living body.
前記第1動作は、
前記画像情報に基づき前記検知部が検知するところの前記人物の顔を上下左右に動かす、顔を左右に傾ける、顔の部位である目の開閉動作、眼球の動き及び口の開閉動作の何れか、または1つ以上の動作を組み合わせた動作である
ことを特徴とする請求項1乃至請求項4の何れかに記載の照合装置。 The object is a person,
The first operation is:
Any of the movement of the person detected by the detection unit based on the image information up and down, left and right, tilting the face left and right, eye opening / closing operation of the face, eyeball movement, and mouth opening / closing operation 5. The collation apparatus according to claim 1, wherein the collation apparatus is an operation in which one or more operations are combined.
前記目の開閉動作を検知し、前記画像情報に前記人物が目を閉じる動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に目を閉じる動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する
ことを特徴とする請求項1乃至請求項6の何れかに記載の照合装置。 The detector is
When the eye opening / closing operation is detected, and the image information detects that the person includes an eye closing operation, the object is detected as a living body, and the image information includes an eye closing operation. The collation apparatus according to any one of claims 1 to 6, wherein when it is detected that the first operation is not performed, it is detected that the first operation is not performed.
前記第1情報処理端末は、
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知する検知部と、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報に基づいて、照合するように要求する第1の照合要求部と、
前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報に基づいて、照合するように要求する第2の照合要求部と、
第1の照合結果と第2の照合結果とに基づいて、照合対象として特定の対象物であるか否かを判定する判定部と、を備え
前記第2情報処理端末は、
前記第1の照合要求部からの要求に応じて、前記第1動作を含むと検知した際に用いた画像情報と、前記特定の対象物による第1動作を表す画像に基づき抽出された第1特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第1の照合結果を送信する第1の照合部と、
前記第2の照合要求部からの要求に応じて、前記第1動作を含まないと検知した際に用いた画像情報と、前記特定の対象物による第1動作をしていないことを表す画像に基づき抽出された前記第2特徴量とに基づいて、前記特定の対象物か否かを照合すると共に前記第2の照合結果を送信する第2の照合部と、
を備えることを特徴とする照合システム。 A verification system in which a first information processing terminal and a second information processing terminal are communicably connected via a communication network,
The first information processing terminal
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first operation, a detection unit that detects that the information is not in the first operation;
A first collation requesting unit for requesting collation based on the image information used when it is detected as including the first action when it is detected as the living body;
A second collation requesting unit for requesting collation based on image information used when it is detected that the first operation is not included when it is detected that the first operation is not performed; When,
A determination unit configured to determine whether or not a specific target object is to be verified based on the first verification result and the second verification result.
In response to a request from the first verification request unit, a first extracted based on image information used when detecting that the first operation is included and an image representing the first operation by the specific object. A first collation unit that collates whether or not the object is the specific object based on a feature amount and transmits the first collation result;
In response to a request from the second verification request unit, the image information used when it is detected that the first operation is not included, and an image indicating that the first operation by the specific object is not performed A second collation unit that collates whether the object is the specific object based on the second feature amount extracted based on the second feature amount, and transmits the second collation result;
A collation system comprising:
照合対象である対象物を表す画像を構成する情報を含む画像情報に基づいて、その画像情報に第1動作を含むと検知した場合には、該対象物が生体であると検知し、前記画像情報に前記第1動作を含まないと検知した場合には、前記第1動作をしていない状態であると検知し、
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する、
ことを特徴とする照合方法。 Depending on the information processing device,
When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image When it is detected that the information does not include the first action, it is detected that the first action is not performed,
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. Determining whether or not the object is the specific object based on the result of collation and the result of collation when detecting that the first operation is not performed,
The collation method characterized by this.
前記生体であると検知した場合には、前記第1動作を含むと検知した際に用いた画像情報と、記憶部に保持された照合対象として特定の対象物による前記第1動作を表す画像または前記第1動作をしていないことを表す画像の何れかの画像に基づき抽出された特徴量とに基づき前記特定の対象物か否かを照合し、前記第1動作をしていない状態であると検知した場合には、前記第1動作を含まないと検知した際に用いた画像情報と、前記特徴量とに基づき前記特定の対象物か否かを照合し、前記生体であると検知した際に照合した結果と、前記第1動作をしていない状態であると検知した際に照合した結果とに基づいて、前記対象物が前記特定の対象物であるか否かを判定する機能と、
をコンピュータに実現させることを特徴とするコンピュータ・プログラム。 When it is detected that the image information includes the first action based on image information including information constituting an image representing the object to be collated, the object is detected as a living body, and the image A function of detecting that the first operation is not performed when it is detected that the information does not include the first operation;
When it is detected that it is the living body, the image information used when it is detected that the first action is included, and the image representing the first action by a specific object as a collation target held in the storage unit or A state in which the first operation is not performed by checking whether or not the object is the specific object based on a feature amount extracted based on any one of the images indicating that the first operation is not performed. If it is detected, the image information used when it is detected that the first operation is not included is compared with the feature amount based on the image information, and it is detected as the living body. A function of determining whether or not the object is the specific object based on a result of collation and a result of collation when it is detected that the first operation is not performed ,
A computer program characterized in that a computer is realized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013172900A JP6311237B2 (en) | 2013-08-23 | 2013-08-23 | Collation device and collation method, collation system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013172900A JP6311237B2 (en) | 2013-08-23 | 2013-08-23 | Collation device and collation method, collation system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015041307A true JP2015041307A (en) | 2015-03-02 |
JP6311237B2 JP6311237B2 (en) | 2018-04-18 |
Family
ID=52695415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013172900A Active JP6311237B2 (en) | 2013-08-23 | 2013-08-23 | Collation device and collation method, collation system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6311237B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020107218A (en) * | 2018-12-28 | 2020-07-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, control method therefor, and program |
WO2020213166A1 (en) * | 2019-04-19 | 2020-10-22 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
WO2022230204A1 (en) | 2021-04-30 | 2022-11-03 | 日本電気株式会社 | Information processing system, information processing method, and recording medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2019208182B2 (en) | 2018-07-25 | 2021-04-08 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251614A (en) * | 2001-02-23 | 2002-09-06 | Omron Corp | Device, system, method, and program for collating organism |
JP2004110813A (en) * | 2002-08-30 | 2004-04-08 | Victor Co Of Japan Ltd | Personal identification device |
JP2006235718A (en) * | 2005-02-22 | 2006-09-07 | Nec Corp | Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon |
JP2007316809A (en) * | 2006-05-24 | 2007-12-06 | Fujifilm Corp | Face collation apparatus and method, and program |
JP2007323104A (en) * | 2006-05-30 | 2007-12-13 | Fujifilm Corp | Method, device and program for discriminating state of eye |
US20110216947A1 (en) * | 2008-11-19 | 2011-09-08 | Nec Corporation | Authentication system, apparatus, authentication method, and storage medium with program stored therein |
US8457367B1 (en) * | 2012-06-26 | 2013-06-04 | Google Inc. | Facial recognition |
-
2013
- 2013-08-23 JP JP2013172900A patent/JP6311237B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002251614A (en) * | 2001-02-23 | 2002-09-06 | Omron Corp | Device, system, method, and program for collating organism |
JP2004110813A (en) * | 2002-08-30 | 2004-04-08 | Victor Co Of Japan Ltd | Personal identification device |
JP2006235718A (en) * | 2005-02-22 | 2006-09-07 | Nec Corp | Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon |
JP2007316809A (en) * | 2006-05-24 | 2007-12-06 | Fujifilm Corp | Face collation apparatus and method, and program |
JP2007323104A (en) * | 2006-05-30 | 2007-12-13 | Fujifilm Corp | Method, device and program for discriminating state of eye |
US20110216947A1 (en) * | 2008-11-19 | 2011-09-08 | Nec Corporation | Authentication system, apparatus, authentication method, and storage medium with program stored therein |
US8457367B1 (en) * | 2012-06-26 | 2013-06-04 | Google Inc. | Facial recognition |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020107218A (en) * | 2018-12-28 | 2020-07-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, control method therefor, and program |
JP7256364B2 (en) | 2018-12-28 | 2023-04-12 | キヤノンマーケティングジャパン株式会社 | Information processing device, its control method and program |
WO2020213166A1 (en) * | 2019-04-19 | 2020-10-22 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
JPWO2020213166A1 (en) * | 2019-04-19 | 2021-11-04 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
JP7268725B2 (en) | 2019-04-19 | 2023-05-08 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
WO2022230204A1 (en) | 2021-04-30 | 2022-11-03 | 日本電気株式会社 | Information processing system, information processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6311237B2 (en) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948408B (en) | Activity test method and apparatus | |
JP6634127B2 (en) | System and method for biometrics associated with a camera-equipped device | |
JP6650946B2 (en) | System and method for performing fingerprint-based user authentication using images captured with a mobile device | |
Fathy et al. | Face-based active authentication on mobile devices | |
De Marsico et al. | Firme: Face and iris recognition for mobile engagement | |
EP2863339B1 (en) | Methods and systems for determing user liveness | |
CN106778450B (en) | Face recognition method and device | |
Deb et al. | Look locally infer globally: A generalizable face anti-spoofing approach | |
US20140380446A1 (en) | Method and apparatus for protecting browser private information | |
CN107844748A (en) | Auth method, device, storage medium and computer equipment | |
US10303963B1 (en) | ATM with biometric security | |
WO2016084072A1 (en) | Anti-spoofing system and methods useful in conjunction therewith | |
WO2018042996A1 (en) | Lifeform sensing device | |
Smith-Creasey et al. | Continuous face authentication scheme for mobile devices with tracking and liveness detection | |
JP6311237B2 (en) | Collation device and collation method, collation system, and computer program | |
US10922399B2 (en) | Authentication verification using soft biometric traits | |
CN112825128A (en) | Method and apparatus for liveness testing and/or biometric verification | |
CN104036254A (en) | Face recognition method | |
JP2019527868A (en) | Biological feature identification apparatus and method, and biological feature template registration method | |
US10740637B2 (en) | Anti-spoofing | |
CN109034029A (en) | Detect face identification method, readable storage medium storing program for executing and the electronic equipment of living body | |
WO2021011769A1 (en) | Methods, systems, and media for secure authentication of users using one or more biometric recognition systems | |
Ibsen et al. | Digital face manipulation in biometric systems | |
CN108733690B (en) | Image data storage method and device and electronic equipment | |
CN112183167B (en) | Attendance checking method, authentication method, living body detection method, device and equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6311237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |