JP2006133945A - Collation device, collation method, and collation program - Google Patents
Collation device, collation method, and collation program Download PDFInfo
- Publication number
- JP2006133945A JP2006133945A JP2004320236A JP2004320236A JP2006133945A JP 2006133945 A JP2006133945 A JP 2006133945A JP 2004320236 A JP2004320236 A JP 2004320236A JP 2004320236 A JP2004320236 A JP 2004320236A JP 2006133945 A JP2006133945 A JP 2006133945A
- Authority
- JP
- Japan
- Prior art keywords
- specific part
- collation
- unit
- motion
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 239000000284 extract Substances 0.000 claims abstract description 8
- 238000012795 verification Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000006698 induction Effects 0.000 claims 7
- 230000003287 optical effect Effects 0.000 description 15
- 238000007781 pre-processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、成りすましを防止する照合装置、照合方法および照合プログラムに関する。 The present invention relates to a collation device, a collation method, and a collation program that prevent impersonation.
従来の照合装置として、例えば、予め登録された顔等の生体の所定部位の画像についての情報と、カメラ等の撮像部によって撮像された同部位の画像についての情報とを照合するものにおいて、目を所定時間閉じて開くという特定の動作を規定しておき、この特定の動作の検出を条件として、顔画像の照合を行うようにした装置がある(例えば、特許文献1参照)。
しかしながら、このような従来の照合装置では、写真等による成りすましを防止するために規定した特定の動作をユーザが上手に行えない場合はユーザがその動作を何回も繰り返さなければならないため、ユーザの負荷が大きくなるという問題があった。 However, in such a conventional collation device, if the user cannot perform a specific operation defined in order to prevent impersonation by a photograph or the like, the user must repeat the operation many times. There was a problem that the load increased.
また、照合の処理を開始する前に、特定部位の検出、特定部位の輪郭検出、動作の種類判別等の処理が必要で、処理量が多くなるため、特に、携帯電話等の少資源の装置では、リアルタイムに実現することが難しいという問題もあった。 In addition, since processing such as detection of a specific part, contour detection of a specific part, operation type determination, etc. is required before starting the verification process, the amount of processing increases. Then, there was a problem that it was difficult to realize in real time.
本発明はこのような問題を解決するためになされたものであり、ユーザが特定の動作を意識して行う必要がなく、しかも成りすましをより確実に抑制することができ、また照合を開始する前の処理が、少資源で照合を行うことのできる照合装置、照合方法および照合プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and it is not necessary for the user to be aware of a specific operation, and impersonation can be more reliably suppressed, and before starting collation. It is an object of the present invention to provide a collation apparatus, a collation method and a collation program that can collate with a small amount of resources.
本発明の照合装置は、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する誘導動作選択部と、前記誘導動作選択部により選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う動作誘導部と、前記認証対象を撮像する撮像部と、前記動作誘導部により誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する動き部位推定部と、前記特定部位の動作が前記動作誘導部の誘導した動作内容であるかどうかを判定する動作内容判定部と、前記動き部位推定部により推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する照合対象領域抽出部と、前記照合対象領域抽出部により抽出した前記照合対象領域を予め撮像された画像と照合する照合部と、前記照合部の照合結果を出力する照合結果出力部とを備える。 The collation device of the present invention includes a guidance operation selection unit that selects a guidance method for causing movement at a specific part to be authenticated from a plurality of items prepared in advance, and a guidance method selected by the guidance operation selection unit. An action guiding unit that performs guidance so as to cause movement in a specific part of the authentication target, an imaging unit that images the authentication target, and the authentication target that is guided by the motion guiding part to move the specific part. A motion part estimation unit that estimates a motion region of the specific part from a time-series image captured by the imaging unit, and an operation content determination that determines whether or not the motion of the specific part is an operation content guided by the motion guide unit And the position of the specific part of the authentication target from the position of the motion region estimated by the motion part estimation unit, and the verification target of the authentication target based on the estimated specific part A collation target region extracting unit for extracting a region, a collation unit for collating the collation target region extracted by the collation target region extracting unit with an image captured in advance, and a collation result output unit for outputting a collation result of the collation unit With.
この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。 According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.
本発明の照合装置は、前記構成において、前記動き部位検出部が、前記時系列画像の画
素における水平方向の微分値を演算する水平微分演算部と、前記時系列画像の画素における垂直方向の微分値を演算する垂直微分演算部と、前記時系列画像の画素における時間方向の微分値を演算する時間微分演算部と、前記時系列画像の画素の前記水平・垂直・時間方向の各微分値に基づいて動きベクトルを算出するベクトル算出部とを備える。
The collation apparatus of the present invention is the collation device according to the above-described configuration, wherein the moving part detection unit calculates a horizontal differential value in a pixel in the time-series image, and a vertical differential in the pixel in the time-series image. A vertical differential calculation unit that calculates a value, a time differential calculation unit that calculates a differential value in the time direction of the pixel of the time-series image, and each horizontal, vertical, and temporal differential value of the pixel of the time-series image. A vector calculation unit that calculates a motion vector based on the vector.
この構成によれば、認証対象の特定部位の動きの検出を、少処理量のオプティカルフロー算出アルゴリズムを用いて部位特定と同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。 According to this configuration, since the movement of the specific part to be authenticated can be detected at the same time as the part specification using the optical flow calculation algorithm with a small amount of processing, it is possible to perform preprocessing of matching with a small amount of processing. it can.
本発明の照合装置は、前記構成において、前記動作誘導部が、キャラクタを表示するキャラクタ表示部と、前記認証対象の特定部位に動きを生じさせる誘導を行う前記キャラクタを出力するキャラクタ動作部とを備える。 The collation device of the present invention is characterized in that, in the configuration described above, the motion guide unit includes a character display unit that displays a character, and a character motion unit that outputs the character that performs a motion that causes a specific part to be authenticated. Prepare.
この構成によれば、画面に表示されたキャラクタと会話している間に照合の領域が検出されるので、認証対象が意識することなく成りすましを防止した照合を行うことができる。 According to this configuration, since the verification area is detected while talking with the character displayed on the screen, it is possible to perform verification that prevents spoofing without being aware of the authentication target.
本発明の照合装置は、前記構成において、フラッシュを発光させる発光部を備える。 The collation apparatus of this invention is equipped with the light emission part which light-emits a flash in the said structure.
この構成によれば、フラッシュが発光した時に発生する認証対象の目の動きを検出することにより照合の顔領域を設定でき、認証対象が意識することなく成りすましを防止した照合を行うことができる。 According to this configuration, it is possible to set the face area for verification by detecting the eye movement of the authentication target that occurs when the flash is emitted, and it is possible to perform verification that prevents spoofing without being conscious of the authentication target.
本発明の照合装置は、前記構成において、前記照合対象領域が顔であり、前記特定部位が前記顔の一部である。 In the verification apparatus according to the present invention, in the configuration, the verification target region is a face, and the specific part is a part of the face.
この構成によれば、顔による照合を行うことで、認証対象が意識することなく成りすましを防止することができる。 According to this configuration, it is possible to prevent impersonation without being conscious of the authentication target by performing face matching.
本発明の照合方法は、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択するステップと、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行うステップと、誘導されて前記特定部位を動かしている前記認証対象を撮像部が撮像するステップと、前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定するステップと、前記特定部位の動作が誘導した動作内容であるかどうかを判定するステップと、推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出するステップと、抽出した前記照合対象領域を予め撮像された画像と照合するステップと、照合結果を出力するステップとを備える。 The collation method of the present invention includes a step of selecting a guidance method for causing movement in a specific part to be authenticated from among a plurality of items prepared in advance, and a movement to a specific part to be authenticated by the selected guidance method. A step of performing guidance so as to generate, a step of imaging the authentication target that is guided and moving the specific part, and an operation region of the specific part is estimated from a time-series image captured by the imaging unit A step of determining whether or not the motion of the specific part is the induced motion content, estimating the position of the specific part to be authenticated from the estimated position of the motion region, and estimating the specific part A step of extracting the verification target area based on the authentication, a step of collating the extracted verification target area with a pre-captured image, and outputting a verification result And a step.
この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。 According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.
本発明の照合プログラムは、コンピュータに、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像する機能と、前記撮像部が撮像した
時系列画像から前記特定部位の動作領域を推定する機能と、推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定する機能と、前記特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する機能と、抽出した前記照合対象領域を予め撮像した画像と照合する機能と、照合結果を表示する機能とを実行させる。
The collation program of the present invention includes a function for selecting, from a plurality of items prepared in advance, a guidance method for causing a computer to cause a movement in a specific part to be authenticated, and a specific part to be authenticated by the selected guidance method. A function of performing guidance so as to cause movement, a function of imaging the authentication target that is guided and moving the specific part, and a time series image captured by the imaging unit of the specific part. A function for estimating an action area, a function for estimating the position of the specific part to be authenticated from the estimated position of the action area, and a function for determining whether the action of the specific part is an action content induced. A function of extracting the verification target area of the authentication target based on the estimated specific part, a function of matching the extracted verification target area with an image captured in advance, and a verification result To a function and you want to run.
この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。 According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.
以上のように、本発明の照合装置、照合方法および照合プログラムによれば、装置と認証対象との間でインタラクティブな処理を行い、しかも認証対象の特定部位に動きを生じさせる誘導方法を予め用意された複数項目の中から選択し、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導することにより、認証の際、装置を操作する過程で生じる認証対象の自然な動きを検出して照合できるので、認証対象の負荷を軽減することができるとともに、成りすましをより確実に防止することができる。また、認証対象の動きを検出する際に、部位の特定を行うことができるので、照合を少ない前処理で行うことができ、したがって携帯電話等の少資源の装置を用いて成りすましを防止することができる。 As described above, according to the collation device, the collation method, and the collation program of the present invention, a guidance method for performing interactive processing between the apparatus and the authentication target and causing a motion to occur in a specific part of the authentication target is prepared in advance. By selecting from a plurality of selected items and guiding the selected part to cause movement in the specific part of the authentication target, the authentication target is naturally generated in the process of operating the device. Since the movement can be detected and collated, the load on the authentication target can be reduced and impersonation can be more reliably prevented. In addition, since the part can be specified when detecting the movement of the authentication target, collation can be performed with a small amount of pre-processing, and therefore impersonation using a low-resource device such as a mobile phone can be prevented. Can do.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施の形態に係る照合装置のブロック図である。 FIG. 1 is a block diagram of a collation apparatus according to an embodiment of the present invention.
図1において、この照合装置は、ユーザ動作データベース140に「フラッシュ発光」、「キャラクタと会話させる」、「キャラクタの動作を真似させる」等予め保持し用意しておいた認証対象であるユーザの動作を誘導する複数項目の中から切り替えにより一つまたは複数をランダムに選択する誘導動作選択部110と、誘導動作選択部110により選択された誘導方法、例えば、フラッシュを発光したり、認証対象であるユーザと会話させるキャラクタを表示したりすることで、ユーザの特定部位、例えば顔の一部、すなわち目等に動きを生じさせるように誘導を行う動作誘導部120と、照合結果を表示にて出力する照合結果出力部130とを備えた表示手段100と、ユーザの顔の画像を撮像する撮像部であるカメラ210を備えた入力手段200と、ユーザの顔の画像を入力する画像入力部310と、カメラ210が撮像した時系列画像から動きベクトルを算出により検出する動き部位検出部320と、動きベクトルから顔の中の動いた部分の領域を推定する動き部位推定部330と、動き部位検出部320により検出した領域の動きベクトルからユーザの動作が誘導した動作内容かどうかを判定する動作内容判定部340と、動き部位推定部330により推定した動作領域の位置からユーザの特定部位、すなわち目を推定し、推定した特定部位に基づいてユーザの照合対象領域、例えば顔等を抽出する照合対象領域抽出部350と、照合対象領域抽出部350により抽出した顔領域の画像を予め撮像しておいた顔画像と照合して本人か否かを判断する照合部360を備えた認証手段300とを有している。
In FIG. 1, this collation apparatus has the user's action to be authenticated that is stored and prepared in advance in the
次に、本実施の形態の照合装置の動作について説明する。 Next, the operation of the collation device according to the present embodiment will be described.
図2は、本実施の形態に係る照合装置の処理手順を示すフローチャートである。図3は、本実施の形態に係る照合装置でフラッシュが発光した時に撮像されるユーザの顔画像の例を示す説明図である。図4は、本実施の形態に係る照合装置の1画素の動きベクトルを算出する時に使用する画素の例を示す図である。図5は、本実施の形態に係る照合装置で算出された動きベクトルの例を示す図である。図6は、本実施の形態に係る照合装置で抽出される顔領域の例を示す図である。 FIG. 2 is a flowchart showing a processing procedure of the collation device according to the present embodiment. FIG. 3 is an explanatory diagram showing an example of a user's face image captured when the flash is emitted by the collation device according to the present embodiment. FIG. 4 is a diagram illustrating an example of pixels used when calculating a motion vector of one pixel of the collation device according to the present embodiment. FIG. 5 is a diagram illustrating an example of motion vectors calculated by the collation device according to the present embodiment. FIG. 6 is a diagram illustrating an example of a face area extracted by the collation device according to the present embodiment.
まず、誘導動作選択部110がユーザに動作を行わせるための誘導方法を予め保持して用意している誘導動作データベース140の複数項目の中からランダムに1つ選択する。その選択の項目としては、例えば「フラッシュ発光」、「キャラクタと会話させる」、「キャラクタの動作を真似させる」等がある。誘導動作選択部110が、例えば「フラッシュ発光」を選択すると(ステップS200)、動作誘導部120がフラッシュを発光させ(ステップS201)、ユーザが瞬きをするよう誘導する。このとき、図3(a)〜(d)に示したようにユーザが目を動かすので、フラッシュを発光させると同時に、動作誘導部120は、処理開始を通知する。ここで、図3(a)、(c)は目を開いている状態、図3(b)、(d)は目を閉じている状態をそれぞれ示す。フラッシュが発光すると、ユーザが瞬きをするために目の領域の動きが大きくなる。カメラ210はユーザの画像を撮像しているので、動作誘導部120から処理開始の通知を受け取ると、画像入力部310が図3に示すような画像を1フレームずつ入力する(ステップS202)。このユーザが瞬きしている時系列画像に対して、動きベクトル検出部320が画像内でオプティカルフローを算出する(ステップS203)。
First, the guidance
オプティカルフローを算出すると、誘導された動きのある画素、つまり、目の輪郭の各画素で、図5の矢印で示すような動きベクトル501が得られる。そこで、動き部位推定部330が、オプティカルフローの存在している領域を目領域と推定し抽出する(切り出す)(ステップS204)。瞬きをする際の目の上側の輪郭の動きは上下方向の動きであるので、動き部位推定部330が抽出した動作領域のオプティカルフローが上下のオプティカルフローであれば(ステップS205、Yes)、動作内容判定部340は、目領域の位置を照合対象領域抽出部350に出力する。一方、動き部位推定部330が抽出した動作領域のオプティカルフローが上下のオプティカルフローでなければ(ステップS205、No)、照合せずに終了する。対象領域抽出部350は、動作内容判定部340から入力した両目領域の位置に基づいて顔領域を抽出する(ステップS206)。例えば、図6に示すように、目幅601の二倍の長さを顔領域605の横幅と縦幅とし、両目の中心602から垂直に目幅半分603下にある点を顔領域中心604とした矩形領域を顔領域605として抽出する。最後に、対象領域抽出部350が抽出した顔領域を予め撮像しておいた顔画像と照合部360が対比することで、本人か否かを照合する(ステップS207)。このとき、照合のアルゴリズムは特に限定する必要はなく、例えば、登録した顔のテンプレートによるマッチング等でも良い。
When the optical flow is calculated, a
ここで、動作誘導部120による誘導方法は、ユーザから動きを導き出せるものであれば何でも良い。すなわち、フラッシュを発光させてユーザに瞬きさせる、キャラクタと会話させる、キャラクタの動作を真似させてユーザに顔を動かせる以外でも良い。キャラクタと会話させる場合、動きが発生する部位は、ユーザの口の領域となるので、顔領域抽出部350が行う顔領域の抽出では、口の幅の2倍の横幅と縦幅で、口の中心から垂直に口の間隔の半分上にある点を中心とした矩形領域を顔領域として抽出する等しても良い。キャラクタの動作を真似させて顔を動かせる場合は、動きが発生する部位は、ユーザの頭部全体となるので、対象領域抽出部350が行う顔領域の検出では、頭部全体の中心を中心とし、中心から上端までの距離を横幅と縦幅とするような矩形領域を顔領域として抽出する等しても良い。
Here, the guidance method by the
また、誘導動作選択部110は、複数の処理項目を選択しても良い。例えば、「フラッシュ発光」および「キャラクタと会話させる」の2つを選択しても良い。このとき、動作誘導部120は、2つの処理を順番に行う。
In addition, the guidance
動いている特定部位を推定する手段は、オプティカルフローには限らない。例えば、時間的に連続する2枚の画像の差分をとって、差の大きい領域を動いている部位と推定しても良い。 The means for estimating the specific part that moves is not limited to the optical flow. For example, a difference between two temporally continuous images may be taken and a region with a large difference may be estimated as a moving part.
オプティカルフローを算出する式は、例えば、処理の軽い勾配法を用いた式を使用する。勾配法によるオプティカルフロー算出の方法を以下に示す。画像中の点 As an equation for calculating the optical flow, for example, an equation using a light gradient method of processing is used. The method of optical flow calculation by the gradient method is shown below. Points in the image
輝度 Luminance
ここで、 here,
微分 differential
(数1)の近傍領域を
The neighborhood area of (Equation 1)
(数18)を整理して Organize (Equation 18)
(数19)を (Equation 19)
(数21)からオプティカルフローを算出するために、輝度の空間微分 In order to calculate the optical flow from (Equation 21), the spatial differentiation of luminance
つまり、オプティカルフロー算出は、画素値の差の平均を用いて求めることができる。 That is, the optical flow calculation can be obtained by using an average of pixel value differences.
ここで、オプティカルフロー算出法は、上記例には限らない。 Here, the optical flow calculation method is not limited to the above example.
以上のように、本実施の形態によれは、動作誘導部110がユーザの身体の特定部位に動きを生じさせるようにユーザを誘導すると、画像入力部310から入力した時系列画像から動きベクトル検出部320が動きベクトルを算出し、照合対象領域抽出部350が動きベクトルに基づいて画像から照合対象領域の位置を推定して抽出し、照合部360が抽出された照合対象領域を予め撮像された画像と照合するので、装置とユーザとの間でインタラクティブな処理を行うことができ、認証の際、ユーザの負荷を軽減して成りすましを防止することができる。しかも、ユーザの特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する誘導動作選択部110と、選択された誘導方法にてユーザの特定部位に動きを生じさせるように誘導を行う動作誘導部120を備えているので、成りすましをより確実に防止することができる。さらに、ユーザの動きを検出する際に、少処理量のオプティカルフロー算出アルゴリズムを用い、動き検出と同時に部位の特定を行うことができるので、少ない前処理で照合を行うことができる。
As described above, according to the present embodiment, when the
なお、本実施の形態では、ユーザに目を動かせて、目の位置を推定し、照合に使う顔領域を抽出する場合を例にして説明したが、顔での照合、および、目の位置の推定を行うのは一例であり、顔の他の部位、すなわち口等の部位が動く場合でも、また、顔以外の身体特徴で照合する場合でも勿論良い。 In this embodiment, the case where the user moves the eyes, estimates the position of the eyes, and extracts the face area used for matching has been described as an example. The estimation is merely an example, and it is of course possible even when other parts of the face, that is, parts such as the mouth move, or when collating with body features other than the face.
なお、前記実施の形態では、ハードウエア構成を例として説明したが、本発明は、これに限らず、前述の機能をCPUがプログラムを実行することにより、ソフトウエア的に実現するように構成しても良い。すなわち、本発明は、コンピュータに、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、誘導されて特定部位を動かしている認証対象を撮像部が撮像する機能と、撮像部が撮像した時系列画像から特定部位の動作領域を推定する機能と、推定した動作領域の位置から認証対象の特定部位の位置を推定する機能と、特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、推定した特定部位に基づいて認証対象の照合対象領域を抽出する機能と、抽出した照合対象領域を予め撮像した画像と照合する機能と、照合結果を表示する機能とを実行させる照合プログラムを有することによっても、本発明の目的を達成することができる。 In the above embodiment, the hardware configuration has been described as an example. However, the present invention is not limited to this, and the above functions are configured to be realized by software by the CPU executing a program. May be. That is, the present invention provides a computer with a function of selecting a guidance method for causing a motion in a specific part to be authenticated from a plurality of items prepared in advance, and a specific part to be authenticated by the selected guidance method. A function for performing guidance so as to cause movement, a function for the imaging unit to image an authentication target that is guided and moving the specific site, and a function for estimating an operation region of the specific site from a time-series image captured by the imaging unit A function for estimating the position of a specific part to be authenticated from the position of the estimated motion region, a function for determining whether or not the action of the specific part is a guided action, and an authentication target based on the estimated specific part A collation program for executing a function for extracting a collation target area, a function for collating the extracted collation target area with an image captured in advance, and a function for displaying a collation result. Also, it is possible to achieve the object of the present invention.
本発明に係る照合装置、照合方法および照合プログラムは、装置と認証対象との間でインタラクティブな処理を行い、しかも認証対象の特定部位に動きを生じさせる誘導方法を予め用意された複数項目の中から選択し、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導することにより、認証の際、装置を操作する過程で生じる認証対象の自然な動きを検出して照合できるので、認証対象の負荷を軽減することができるとともに、成りすましをより確実に防止することができ、また認証対象の動きを検出する際に、部位の特定を行うことができるので、照合を少ない前処理で行うことができるという効果を有し、身体の一部を対象として認証を行う個人認証装置、特に携帯電話等の少資源な端末の個人認証装置等として有用である。 A collation device, a collation method, and a collation program according to the present invention are a plurality of items prepared in advance as a guidance method for performing interactive processing between an apparatus and an authentication target and generating a motion in a specific part of the authentication target. By detecting the natural movement of the authentication target that occurs in the process of operating the device at the time of authentication, the selected guidance method is used to induce the movement to occur in the specific part of the authentication target. Since it is possible to reduce the load on the authentication target, spoofing can be prevented more reliably, and when the movement of the authentication target can be detected, the part can be identified, so there is less verification A personal authentication device that has the effect of being able to be performed by pre-processing and performs authentication for a part of the body, especially a personal authentication device for a low-resource terminal such as a mobile phone. It is useful.
100 表示手段
110 誘導動作選択部
120 動作誘導部
130 照合結果出力部
140 誘導動作データベース
200 入力手段
210 カメラ
300 認証手段
310 画像入力部
320 動きベクトル検出部
330 動き部位推定部
340 動作内容判定部
350 照合対象領域抽出部
360 照合部
DESCRIPTION OF
Claims (7)
前記誘導動作選択部により選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う動作誘導部と、
前記認証対象を撮像する撮像部と、
前記動作誘導部により誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する動き部位推定部と、
前記特定部位の動作が前記動作誘導部の誘導した動作内容であるかどうかを判定する動作内容判定部と、
前記動き部位推定部により推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する照合対象領域抽出部と、
前記照合対象領域抽出部により抽出した前記照合対象領域を予め撮像された画像と照合する照合部と、
前記照合部の照合結果を出力する照合結果出力部と、
を備える照合装置。 A guidance operation selection unit that selects a guidance method for causing movement in a specific part to be authenticated from a plurality of items prepared in advance;
An operation induction unit that performs induction so as to cause movement in a specific part to be authenticated by the induction method selected by the induction operation selection unit;
An imaging unit that images the authentication target;
A motion part estimation unit that estimates a motion region of the specific part from a time-series image in which the imaging unit images the authentication target that is guided by the motion guide part and moves the specific part;
An operation content determination unit for determining whether the operation of the specific part is the operation content induced by the operation induction unit;
A verification target region extraction unit that estimates the position of the specific part of the authentication target from the position of the motion region estimated by the motion part estimation unit, and extracts the verification target region of the authentication target based on the estimated specific part When,
A collation unit that collates the collation target region extracted by the collation target region extraction unit with an image captured in advance;
A collation result output unit for outputting a collation result of the collation unit;
A collation device comprising:
前記時系列画像の画素における水平方向の微分値を演算する水平微分演算部と、
前記時系列画像の画素における垂直方向の微分値を演算する垂直微分演算部と、
前記時系列画像の画素における時間方向の微分値を演算する時間微分演算部と、
前記時系列画像の画素の前記水平・垂直・時間方向の各微分値に基づいて動きベクトルを算出するベクトル算出部と、
を備える請求項1に記載の照合装置。 The movement part detection unit is
A horizontal differential operation unit for calculating a horizontal differential value in the pixels of the time-series image;
A vertical differential operation unit for calculating a differential value in the vertical direction in the pixels of the time-series image;
A time differential calculation unit for calculating a differential value in the time direction in the pixels of the time-series image;
A vector calculation unit that calculates a motion vector based on the differential values in the horizontal, vertical, and time directions of the pixels of the time-series image;
The collation apparatus of Claim 1 provided with.
キャラクタを表示するキャラクタ表示部と、
前記認証対象の特定部位に動きを生じさせる誘導を行う前記キャラクタを出力するキャラクタ動作部と、
を備える請求項1または2に記載の照合装置。 The motion induction unit is
A character display for displaying the character;
A character action unit for outputting the character for performing a guidance for causing movement in the specific part to be authenticated;
The collation apparatus of Claim 1 or 2 provided with.
フラッシュを発光させる発光部を備える請求項1ないし3のいずれかに記載の照合装置。 The motion induction unit is
4. The collation device according to claim 1, further comprising a light emitting unit that emits a flash.
前記特定部位が前記顔の一部である請求項1ないし4のいずれかに記載の照合装置。 The verification target area is a face;
The collation apparatus according to claim 1, wherein the specific part is a part of the face.
選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行うステップと、
誘導されて前記特定部位を動かしている前記認証対象を撮像部が撮像するステップと、
前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定するステップと、
前記特定部位の動作が誘導した動作内容であるかどうかを判定するステップと、
推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出するステップと、
抽出した前記照合対象領域を予め撮像された画像と照合するステップと、
照合結果を出力するステップと、
を備える照合方法。 Selecting from among a plurality of items prepared in advance a guidance method for causing movement in a specific part to be authenticated;
Performing guidance so as to cause movement in a specific part to be authenticated by the selected guidance method;
An imaging unit that images the authentication target that is guided and moves the specific part; and
Estimating a motion region of the specific part from a time-series image captured by the imaging unit;
Determining whether the action of the specific part is the induced action content;
Estimating the position of the specific part of the authentication target from the estimated position of the motion area, and extracting the verification target area of the authentication target based on the estimated specific part;
Collating the extracted region to be collated with an image captured in advance;
Outputting a verification result; and
A collation method comprising:
認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、
選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、
誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像する機能と、
前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する機能と、
推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定する機能と、
前記特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、
前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する機能と、
抽出した前記照合対象領域を予め撮像した画像と照合する機能と、
照合結果を表示する機能と、
を実行させる照合プログラム。
On the computer,
A function of selecting a guidance method for causing movement in a specific part to be authenticated from a plurality of items prepared in advance;
A function to guide the selected part to cause movement in a specific part of the authentication target,
A function for the imaging unit to image the authentication target that is guided and moves the specific part;
A function of estimating an operation region of the specific part from a time-series image captured by the imaging unit;
A function of estimating the position of the specific part to be authenticated from the position of the estimated motion region;
A function of determining whether the action of the specific part is the induced action content;
A function of extracting a verification target region of the authentication target based on the estimated specific part;
A function of collating the extracted region to be collated with an image captured in advance;
A function to display the verification results;
A collation program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004320236A JP2006133945A (en) | 2004-11-04 | 2004-11-04 | Collation device, collation method, and collation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004320236A JP2006133945A (en) | 2004-11-04 | 2004-11-04 | Collation device, collation method, and collation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006133945A true JP2006133945A (en) | 2006-05-25 |
Family
ID=36727462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004320236A Pending JP2006133945A (en) | 2004-11-04 | 2004-11-04 | Collation device, collation method, and collation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006133945A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036965A (en) * | 2016-09-01 | 2018-03-08 | 株式会社日立製作所 | Living body detection device |
WO2022024222A1 (en) | 2020-07-28 | 2022-02-03 | 富士通株式会社 | Evaluation method, information processing device, and evaluation program |
-
2004
- 2004-11-04 JP JP2004320236A patent/JP2006133945A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018036965A (en) * | 2016-09-01 | 2018-03-08 | 株式会社日立製作所 | Living body detection device |
WO2018042996A1 (en) * | 2016-09-01 | 2018-03-08 | 株式会社日立製作所 | Lifeform sensing device |
WO2022024222A1 (en) | 2020-07-28 | 2022-02-03 | 富士通株式会社 | Evaluation method, information processing device, and evaluation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6467965B2 (en) | Emotion estimation device and emotion estimation method | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
JP2020194608A (en) | Living body detection device, living body detection method, and living body detection program | |
WO2019127262A1 (en) | Cloud end-based human face in vivo detection method, electronic device and program product | |
EP2339536A2 (en) | Image processing system, image processing apparatus, image processing method, and program | |
CN110569808A (en) | Living body detection method and device and computer equipment | |
JP6754642B2 (en) | Biodetector | |
JP2009211311A (en) | Image processing apparatus and method | |
CN108280418A (en) | The deception recognition methods of face image and device | |
JP2016009453A (en) | Face authentication device and face authentication method | |
CN109002786A (en) | Method for detecting human face, equipment and computer readable storage medium | |
JP5061563B2 (en) | Detection apparatus, biological determination method, and program | |
JP2011095862A (en) | Apparatus and method for processing image and program | |
US9355641B2 (en) | Monitoring device using selective attention model and method for monitoring same | |
JP2023063314A (en) | Information processing device, information processing method, and recording medium | |
JP2005149370A (en) | Imaging device, personal authentication device and imaging method | |
JP2007213528A (en) | Action recognition system | |
JP4659722B2 (en) | Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program | |
JP2006133945A (en) | Collation device, collation method, and collation program | |
JP7400886B2 (en) | Video conferencing systems, video conferencing methods, and programs | |
KR101314687B1 (en) | Providing device of eye scan path and mehtod for providing eye scan path | |
JP6742837B2 (en) | Image processing apparatus, image processing method and program | |
JP2020035290A (en) | Detector creation device, monitoring device, detector creation method, and detector creation program | |
JP2006133937A (en) | Behavior identifying device | |
JP2014150348A (en) | Imaging apparatus |