JP2006133945A - Collation device, collation method, and collation program - Google Patents

Collation device, collation method, and collation program Download PDF

Info

Publication number
JP2006133945A
JP2006133945A JP2004320236A JP2004320236A JP2006133945A JP 2006133945 A JP2006133945 A JP 2006133945A JP 2004320236 A JP2004320236 A JP 2004320236A JP 2004320236 A JP2004320236 A JP 2004320236A JP 2006133945 A JP2006133945 A JP 2006133945A
Authority
JP
Japan
Prior art keywords
specific part
collation
unit
motion
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004320236A
Other languages
Japanese (ja)
Inventor
Megumi Yamaoka
めぐみ 山岡
Keisuke Hayata
啓介 早田
Katsunao Takahashi
克直 高橋
Takanori Shimada
孝徳 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004320236A priority Critical patent/JP2006133945A/en
Publication of JP2006133945A publication Critical patent/JP2006133945A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a collation device which does not require a user to consciously make specific actions, further prevents impersonation, and executes pre-collation processing with less resources. <P>SOLUTION: The collation device selects a guiding method, which makes a user's specific part move, from a plurality of items by means of a guiding movement selection part 110, makes the specific part move by the guidance of a movement guiding part 120 by using the selected guiding method, photographs the user moving the specific part with a camera 210, estimates the movement area of the specific part from the time-series photographed images by means of a movement part estimation part 330, extracts a collation object area based on the specific part estimated from the position of the estimated movement area by means of a collation object area extraction part 350, and collates the extracted area by using the collation object area by means of a collation part 360. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、成りすましを防止する照合装置、照合方法および照合プログラムに関する。   The present invention relates to a collation device, a collation method, and a collation program that prevent impersonation.

従来の照合装置として、例えば、予め登録された顔等の生体の所定部位の画像についての情報と、カメラ等の撮像部によって撮像された同部位の画像についての情報とを照合するものにおいて、目を所定時間閉じて開くという特定の動作を規定しておき、この特定の動作の検出を条件として、顔画像の照合を行うようにした装置がある(例えば、特許文献1参照)。
特開2002−251614号公報
As a conventional collation device, for example, a device that collates information on an image of a predetermined part of a living body such as a face registered in advance with information on an image of the same part imaged by an imaging unit such as a camera. There is a device that prescribes a specific operation of closing and opening a predetermined time, and collates face images on the condition that the specific operation is detected (see, for example, Patent Document 1).
JP 2002-251614 A

しかしながら、このような従来の照合装置では、写真等による成りすましを防止するために規定した特定の動作をユーザが上手に行えない場合はユーザがその動作を何回も繰り返さなければならないため、ユーザの負荷が大きくなるという問題があった。   However, in such a conventional collation device, if the user cannot perform a specific operation defined in order to prevent impersonation by a photograph or the like, the user must repeat the operation many times. There was a problem that the load increased.

また、照合の処理を開始する前に、特定部位の検出、特定部位の輪郭検出、動作の種類判別等の処理が必要で、処理量が多くなるため、特に、携帯電話等の少資源の装置では、リアルタイムに実現することが難しいという問題もあった。   In addition, since processing such as detection of a specific part, contour detection of a specific part, operation type determination, etc. is required before starting the verification process, the amount of processing increases. Then, there was a problem that it was difficult to realize in real time.

本発明はこのような問題を解決するためになされたものであり、ユーザが特定の動作を意識して行う必要がなく、しかも成りすましをより確実に抑制することができ、また照合を開始する前の処理が、少資源で照合を行うことのできる照合装置、照合方法および照合プログラムを提供することを目的とする。   The present invention has been made to solve such a problem, and it is not necessary for the user to be aware of a specific operation, and impersonation can be more reliably suppressed, and before starting collation. It is an object of the present invention to provide a collation apparatus, a collation method and a collation program that can collate with a small amount of resources.

本発明の照合装置は、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する誘導動作選択部と、前記誘導動作選択部により選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う動作誘導部と、前記認証対象を撮像する撮像部と、前記動作誘導部により誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する動き部位推定部と、前記特定部位の動作が前記動作誘導部の誘導した動作内容であるかどうかを判定する動作内容判定部と、前記動き部位推定部により推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する照合対象領域抽出部と、前記照合対象領域抽出部により抽出した前記照合対象領域を予め撮像された画像と照合する照合部と、前記照合部の照合結果を出力する照合結果出力部とを備える。   The collation device of the present invention includes a guidance operation selection unit that selects a guidance method for causing movement at a specific part to be authenticated from a plurality of items prepared in advance, and a guidance method selected by the guidance operation selection unit. An action guiding unit that performs guidance so as to cause movement in a specific part of the authentication target, an imaging unit that images the authentication target, and the authentication target that is guided by the motion guiding part to move the specific part. A motion part estimation unit that estimates a motion region of the specific part from a time-series image captured by the imaging unit, and an operation content determination that determines whether or not the motion of the specific part is an operation content guided by the motion guide unit And the position of the specific part of the authentication target from the position of the motion region estimated by the motion part estimation unit, and the verification target of the authentication target based on the estimated specific part A collation target region extracting unit for extracting a region, a collation unit for collating the collation target region extracted by the collation target region extracting unit with an image captured in advance, and a collation result output unit for outputting a collation result of the collation unit With.

この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。   According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.

本発明の照合装置は、前記構成において、前記動き部位検出部が、前記時系列画像の画
素における水平方向の微分値を演算する水平微分演算部と、前記時系列画像の画素における垂直方向の微分値を演算する垂直微分演算部と、前記時系列画像の画素における時間方向の微分値を演算する時間微分演算部と、前記時系列画像の画素の前記水平・垂直・時間方向の各微分値に基づいて動きベクトルを算出するベクトル算出部とを備える。
The collation apparatus of the present invention is the collation device according to the above-described configuration, wherein the moving part detection unit calculates a horizontal differential value in a pixel in the time-series image, and a vertical differential in the pixel in the time-series image. A vertical differential calculation unit that calculates a value, a time differential calculation unit that calculates a differential value in the time direction of the pixel of the time-series image, and each horizontal, vertical, and temporal differential value of the pixel of the time-series image. A vector calculation unit that calculates a motion vector based on the vector.

この構成によれば、認証対象の特定部位の動きの検出を、少処理量のオプティカルフロー算出アルゴリズムを用いて部位特定と同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。   According to this configuration, since the movement of the specific part to be authenticated can be detected at the same time as the part specification using the optical flow calculation algorithm with a small amount of processing, it is possible to perform preprocessing of matching with a small amount of processing. it can.

本発明の照合装置は、前記構成において、前記動作誘導部が、キャラクタを表示するキャラクタ表示部と、前記認証対象の特定部位に動きを生じさせる誘導を行う前記キャラクタを出力するキャラクタ動作部とを備える。   The collation device of the present invention is characterized in that, in the configuration described above, the motion guide unit includes a character display unit that displays a character, and a character motion unit that outputs the character that performs a motion that causes a specific part to be authenticated. Prepare.

この構成によれば、画面に表示されたキャラクタと会話している間に照合の領域が検出されるので、認証対象が意識することなく成りすましを防止した照合を行うことができる。   According to this configuration, since the verification area is detected while talking with the character displayed on the screen, it is possible to perform verification that prevents spoofing without being aware of the authentication target.

本発明の照合装置は、前記構成において、フラッシュを発光させる発光部を備える。   The collation apparatus of this invention is equipped with the light emission part which light-emits a flash in the said structure.

この構成によれば、フラッシュが発光した時に発生する認証対象の目の動きを検出することにより照合の顔領域を設定でき、認証対象が意識することなく成りすましを防止した照合を行うことができる。   According to this configuration, it is possible to set the face area for verification by detecting the eye movement of the authentication target that occurs when the flash is emitted, and it is possible to perform verification that prevents spoofing without being conscious of the authentication target.

本発明の照合装置は、前記構成において、前記照合対象領域が顔であり、前記特定部位が前記顔の一部である。   In the verification apparatus according to the present invention, in the configuration, the verification target region is a face, and the specific part is a part of the face.

この構成によれば、顔による照合を行うことで、認証対象が意識することなく成りすましを防止することができる。   According to this configuration, it is possible to prevent impersonation without being conscious of the authentication target by performing face matching.

本発明の照合方法は、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択するステップと、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行うステップと、誘導されて前記特定部位を動かしている前記認証対象を撮像部が撮像するステップと、前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定するステップと、前記特定部位の動作が誘導した動作内容であるかどうかを判定するステップと、推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出するステップと、抽出した前記照合対象領域を予め撮像された画像と照合するステップと、照合結果を出力するステップとを備える。   The collation method of the present invention includes a step of selecting a guidance method for causing movement in a specific part to be authenticated from among a plurality of items prepared in advance, and a movement to a specific part to be authenticated by the selected guidance method. A step of performing guidance so as to generate, a step of imaging the authentication target that is guided and moving the specific part, and an operation region of the specific part is estimated from a time-series image captured by the imaging unit A step of determining whether or not the motion of the specific part is the induced motion content, estimating the position of the specific part to be authenticated from the estimated position of the motion region, and estimating the specific part A step of extracting the verification target area based on the authentication, a step of collating the extracted verification target area with a pre-captured image, and outputting a verification result And a step.

この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。   According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.

本発明の照合プログラムは、コンピュータに、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像する機能と、前記撮像部が撮像した
時系列画像から前記特定部位の動作領域を推定する機能と、推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定する機能と、前記特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する機能と、抽出した前記照合対象領域を予め撮像した画像と照合する機能と、照合結果を表示する機能とを実行させる。
The collation program of the present invention includes a function for selecting, from a plurality of items prepared in advance, a guidance method for causing a computer to cause a movement in a specific part to be authenticated, and a specific part to be authenticated by the selected guidance method. A function of performing guidance so as to cause movement, a function of imaging the authentication target that is guided and moving the specific part, and a time series image captured by the imaging unit of the specific part. A function for estimating an action area, a function for estimating the position of the specific part to be authenticated from the estimated position of the action area, and a function for determining whether the action of the specific part is an action content induced. A function of extracting the verification target area of the authentication target based on the estimated specific part, a function of matching the extracted verification target area with an image captured in advance, and a verification result To a function and you want to run.

この構成によれば、装置と認証対象との間でインタラクティブな操作を行い、また認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択することにより発生する認証対象の特定部位の動きで認証対象の照合領域を決定するので、写真等による成りすましをより確実に防止することができる。また、ユーザの動き検出の際に、部位特定を同時に行うことができるので、少ない処理量で照合の前処理を行うことができる。   According to this configuration, it is generated by performing an interactive operation between the device and the authentication target, and selecting a guidance method for causing movement at a specific part of the authentication target from a plurality of items prepared in advance. Since the verification region to be authenticated is determined based on the movement of the specific part to be authenticated, impersonation with a photograph or the like can be more reliably prevented. In addition, since the part specification can be performed at the same time when the user's motion is detected, the preprocessing for collation can be performed with a small amount of processing.

以上のように、本発明の照合装置、照合方法および照合プログラムによれば、装置と認証対象との間でインタラクティブな処理を行い、しかも認証対象の特定部位に動きを生じさせる誘導方法を予め用意された複数項目の中から選択し、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導することにより、認証の際、装置を操作する過程で生じる認証対象の自然な動きを検出して照合できるので、認証対象の負荷を軽減することができるとともに、成りすましをより確実に防止することができる。また、認証対象の動きを検出する際に、部位の特定を行うことができるので、照合を少ない前処理で行うことができ、したがって携帯電話等の少資源の装置を用いて成りすましを防止することができる。   As described above, according to the collation device, the collation method, and the collation program of the present invention, a guidance method for performing interactive processing between the apparatus and the authentication target and causing a motion to occur in a specific part of the authentication target is prepared in advance. By selecting from a plurality of selected items and guiding the selected part to cause movement in the specific part of the authentication target, the authentication target is naturally generated in the process of operating the device. Since the movement can be detected and collated, the load on the authentication target can be reduced and impersonation can be more reliably prevented. In addition, since the part can be specified when detecting the movement of the authentication target, collation can be performed with a small amount of pre-processing, and therefore impersonation using a low-resource device such as a mobile phone can be prevented. Can do.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施の形態に係る照合装置のブロック図である。   FIG. 1 is a block diagram of a collation apparatus according to an embodiment of the present invention.

図1において、この照合装置は、ユーザ動作データベース140に「フラッシュ発光」、「キャラクタと会話させる」、「キャラクタの動作を真似させる」等予め保持し用意しておいた認証対象であるユーザの動作を誘導する複数項目の中から切り替えにより一つまたは複数をランダムに選択する誘導動作選択部110と、誘導動作選択部110により選択された誘導方法、例えば、フラッシュを発光したり、認証対象であるユーザと会話させるキャラクタを表示したりすることで、ユーザの特定部位、例えば顔の一部、すなわち目等に動きを生じさせるように誘導を行う動作誘導部120と、照合結果を表示にて出力する照合結果出力部130とを備えた表示手段100と、ユーザの顔の画像を撮像する撮像部であるカメラ210を備えた入力手段200と、ユーザの顔の画像を入力する画像入力部310と、カメラ210が撮像した時系列画像から動きベクトルを算出により検出する動き部位検出部320と、動きベクトルから顔の中の動いた部分の領域を推定する動き部位推定部330と、動き部位検出部320により検出した領域の動きベクトルからユーザの動作が誘導した動作内容かどうかを判定する動作内容判定部340と、動き部位推定部330により推定した動作領域の位置からユーザの特定部位、すなわち目を推定し、推定した特定部位に基づいてユーザの照合対象領域、例えば顔等を抽出する照合対象領域抽出部350と、照合対象領域抽出部350により抽出した顔領域の画像を予め撮像しておいた顔画像と照合して本人か否かを判断する照合部360を備えた認証手段300とを有している。   In FIG. 1, this collation apparatus has the user's action to be authenticated that is stored and prepared in advance in the user action database 140 such as “flash emission”, “speak to character”, “make the character imitate”. A guidance operation selection unit 110 that randomly selects one or a plurality of items from among a plurality of items that induce guidance, and a guidance method selected by the guidance operation selection unit 110, for example, flashing light or an authentication target By displaying a character to be talked to the user, the action guiding unit 120 that guides the user to move the specific part of the user, for example, a part of the face, that is, the eyes, and the collation result are displayed on the display. A display unit 100 including a collation result output unit 130 and a camera 210 which is an image capturing unit that captures an image of the user's face. Force means 200, an image input unit 310 that inputs an image of the user's face, a motion part detection unit 320 that detects a motion vector from a time-series image captured by the camera 210, and a motion in the face from the motion vector A motion part estimation unit 330 that estimates the region of the part, a motion content determination unit 340 that determines whether or not the user's motion is motion content derived from the motion vector of the region detected by the motion part detection unit 320, and a motion part estimation A collation target region extraction unit 350 that estimates a user's specific part, that is, an eye from the position of the motion region estimated by the unit 330, and extracts the user's collation target area, such as a face, based on the estimated specific part; A collation unit 360 is provided that collates the face area image extracted by the area extraction unit 350 with a face image captured in advance to determine whether the person is the person himself or herself. And a certification unit 300.

次に、本実施の形態の照合装置の動作について説明する。   Next, the operation of the collation device according to the present embodiment will be described.

図2は、本実施の形態に係る照合装置の処理手順を示すフローチャートである。図3は、本実施の形態に係る照合装置でフラッシュが発光した時に撮像されるユーザの顔画像の例を示す説明図である。図4は、本実施の形態に係る照合装置の1画素の動きベクトルを算出する時に使用する画素の例を示す図である。図5は、本実施の形態に係る照合装置で算出された動きベクトルの例を示す図である。図6は、本実施の形態に係る照合装置で抽出される顔領域の例を示す図である。   FIG. 2 is a flowchart showing a processing procedure of the collation device according to the present embodiment. FIG. 3 is an explanatory diagram showing an example of a user's face image captured when the flash is emitted by the collation device according to the present embodiment. FIG. 4 is a diagram illustrating an example of pixels used when calculating a motion vector of one pixel of the collation device according to the present embodiment. FIG. 5 is a diagram illustrating an example of motion vectors calculated by the collation device according to the present embodiment. FIG. 6 is a diagram illustrating an example of a face area extracted by the collation device according to the present embodiment.

まず、誘導動作選択部110がユーザに動作を行わせるための誘導方法を予め保持して用意している誘導動作データベース140の複数項目の中からランダムに1つ選択する。その選択の項目としては、例えば「フラッシュ発光」、「キャラクタと会話させる」、「キャラクタの動作を真似させる」等がある。誘導動作選択部110が、例えば「フラッシュ発光」を選択すると(ステップS200)、動作誘導部120がフラッシュを発光させ(ステップS201)、ユーザが瞬きをするよう誘導する。このとき、図3(a)〜(d)に示したようにユーザが目を動かすので、フラッシュを発光させると同時に、動作誘導部120は、処理開始を通知する。ここで、図3(a)、(c)は目を開いている状態、図3(b)、(d)は目を閉じている状態をそれぞれ示す。フラッシュが発光すると、ユーザが瞬きをするために目の領域の動きが大きくなる。カメラ210はユーザの画像を撮像しているので、動作誘導部120から処理開始の通知を受け取ると、画像入力部310が図3に示すような画像を1フレームずつ入力する(ステップS202)。このユーザが瞬きしている時系列画像に対して、動きベクトル検出部320が画像内でオプティカルフローを算出する(ステップS203)。   First, the guidance operation selection unit 110 randomly selects one of a plurality of items in the guidance operation database 140 that is prepared by holding a guidance method for causing the user to perform an action. The selection items include, for example, “flash emission”, “conversation with character”, “simulation of character movement”, and the like. When the guidance operation selection unit 110 selects, for example, “flash emission” (step S200), the operation guidance unit 120 causes the flash to emit light (step S201), and the user is induced to blink. At this time, since the user moves his eyes as shown in FIGS. 3A to 3D, the operation guiding unit 120 notifies the start of processing at the same time as the flash is emitted. Here, FIGS. 3A and 3C show a state where the eyes are open, and FIGS. 3B and 3D show a state where the eyes are closed. When the flash is emitted, the movement of the eye area increases because the user blinks. Since the camera 210 captures an image of the user, when receiving a processing start notification from the motion guiding unit 120, the image input unit 310 inputs an image as shown in FIG. 3 frame by frame (step S202). The motion vector detection unit 320 calculates an optical flow in the image for the time-series image in which the user is blinking (step S203).

オプティカルフローを算出すると、誘導された動きのある画素、つまり、目の輪郭の各画素で、図5の矢印で示すような動きベクトル501が得られる。そこで、動き部位推定部330が、オプティカルフローの存在している領域を目領域と推定し抽出する(切り出す)(ステップS204)。瞬きをする際の目の上側の輪郭の動きは上下方向の動きであるので、動き部位推定部330が抽出した動作領域のオプティカルフローが上下のオプティカルフローであれば(ステップS205、Yes)、動作内容判定部340は、目領域の位置を照合対象領域抽出部350に出力する。一方、動き部位推定部330が抽出した動作領域のオプティカルフローが上下のオプティカルフローでなければ(ステップS205、No)、照合せずに終了する。対象領域抽出部350は、動作内容判定部340から入力した両目領域の位置に基づいて顔領域を抽出する(ステップS206)。例えば、図6に示すように、目幅601の二倍の長さを顔領域605の横幅と縦幅とし、両目の中心602から垂直に目幅半分603下にある点を顔領域中心604とした矩形領域を顔領域605として抽出する。最後に、対象領域抽出部350が抽出した顔領域を予め撮像しておいた顔画像と照合部360が対比することで、本人か否かを照合する(ステップS207)。このとき、照合のアルゴリズムは特に限定する必要はなく、例えば、登録した顔のテンプレートによるマッチング等でも良い。   When the optical flow is calculated, a motion vector 501 as indicated by an arrow in FIG. 5 is obtained for each pixel with induced motion, that is, each pixel of the eye contour. Therefore, the motion region estimation unit 330 estimates and extracts (cuts out) an area where the optical flow exists as an eye area (step S204). Since the motion of the upper contour of the eye when blinking is a vertical motion, if the optical flow of the motion region extracted by the motion region estimation unit 330 is a vertical optical flow (step S205, Yes), the motion The content determination unit 340 outputs the position of the eye region to the verification target region extraction unit 350. On the other hand, if the optical flow of the motion region extracted by the motion part estimation unit 330 is not the upper or lower optical flow (No in step S205), the process ends without matching. The target area extraction unit 350 extracts a face area based on the position of both eye areas input from the operation content determination unit 340 (step S206). For example, as shown in FIG. 6, the length twice as wide as the eye width 601 is set to the horizontal width and the vertical width of the face area 605, and a point vertically below the eye width half 603 from the center 602 of both eyes is the face area center 604. The rectangular area thus extracted is extracted as a face area 605. Finally, the collation unit 360 compares the face image extracted in advance with the face region extracted by the target region extraction unit 350, thereby collating whether or not the person is the person (step S207). At this time, the matching algorithm is not particularly limited, and for example, matching using a registered face template may be used.

ここで、動作誘導部120による誘導方法は、ユーザから動きを導き出せるものであれば何でも良い。すなわち、フラッシュを発光させてユーザに瞬きさせる、キャラクタと会話させる、キャラクタの動作を真似させてユーザに顔を動かせる以外でも良い。キャラクタと会話させる場合、動きが発生する部位は、ユーザの口の領域となるので、顔領域抽出部350が行う顔領域の抽出では、口の幅の2倍の横幅と縦幅で、口の中心から垂直に口の間隔の半分上にある点を中心とした矩形領域を顔領域として抽出する等しても良い。キャラクタの動作を真似させて顔を動かせる場合は、動きが発生する部位は、ユーザの頭部全体となるので、対象領域抽出部350が行う顔領域の検出では、頭部全体の中心を中心とし、中心から上端までの距離を横幅と縦幅とするような矩形領域を顔領域として抽出する等しても良い。   Here, the guidance method by the motion guidance unit 120 may be anything as long as the motion can be derived from the user. In other words, the flash may be emitted to cause the user to blink, to have a conversation with the character, or to imitate the action of the character and allow the user to move the face. When talking with the character, the part where the movement occurs is the area of the user's mouth. Therefore, in the face area extraction performed by the face area extracting unit 350, the width of the mouth is twice the width of the mouth and the width of the mouth. For example, a rectangular area centered on a point that is perpendicular to the center and half the interval between the mouths may be extracted as a face area. When the face can be moved by imitating the movement of the character, the part where the movement occurs is the entire head of the user. Therefore, the detection of the face area performed by the target area extraction unit 350 is centered on the center of the entire head. Alternatively, a rectangular area in which the distance from the center to the upper end is set to the horizontal width and the vertical width may be extracted as the face area.

また、誘導動作選択部110は、複数の処理項目を選択しても良い。例えば、「フラッシュ発光」および「キャラクタと会話させる」の2つを選択しても良い。このとき、動作誘導部120は、2つの処理を順番に行う。   In addition, the guidance operation selection unit 110 may select a plurality of processing items. For example, two of “flash emission” and “speak to character” may be selected. At this time, the operation guiding unit 120 performs two processes in order.

動いている特定部位を推定する手段は、オプティカルフローには限らない。例えば、時間的に連続する2枚の画像の差分をとって、差の大きい領域を動いている部位と推定しても良い。   The means for estimating the specific part that moves is not limited to the optical flow. For example, a difference between two temporally continuous images may be taken and a region with a large difference may be estimated as a moving part.

オプティカルフローを算出する式は、例えば、処理の軽い勾配法を用いた式を使用する。勾配法によるオプティカルフロー算出の方法を以下に示す。画像中の点   As an equation for calculating the optical flow, for example, an equation using a light gradient method of processing is used. The method of optical flow calculation by the gradient method is shown below. Points in the image

Figure 2006133945
の、時刻における輝度を
Figure 2006133945
Of brightness at time

Figure 2006133945
とし、この点が時刻
Figure 2006133945
And this point is the time

Figure 2006133945
に点
Figure 2006133945
Point to

Figure 2006133945
に移動すると仮定すると、
Figure 2006133945
Assuming that

Figure 2006133945
が得られる。
Figure 2006133945
Is obtained.

輝度   Luminance

Figure 2006133945
Figure 2006133945
But

Figure 2006133945
に関して滑らかに変化したとすると、(数5)の左辺をテイラー展開でき、
Figure 2006133945
If the left side of (Equation 5) is Taylor expanded,

Figure 2006133945
を得る。
Figure 2006133945
Get.

ここで、   here,

Figure 2006133945
は微小であるので省略できる。(数8)を
Figure 2006133945
Is small and can be omitted. (Equation 8)

Figure 2006133945
で割り、
Figure 2006133945
Divide by

Figure 2006133945
とした極限をとり整理して、
Figure 2006133945
Organize the limit as

Figure 2006133945
を得る。
Figure 2006133945
Get.

微分   differential

Figure 2006133945
は画像から計算される。
(数1)の近傍領域を
Figure 2006133945
Is calculated from the image.
The neighborhood area of (Equation 1)

Figure 2006133945
とすると、近傍領域(数14)で動きが滑らかに変化するならば、(数12)で表される拘束式に関する
Figure 2006133945
Then, if the motion changes smoothly in the neighborhood region (Equation 14), the constraint equation represented by (Equation 12)

Figure 2006133945
の誤差が最小になる。
Figure 2006133945
Error is minimized.

Figure 2006133945
が最小になるとき、
Figure 2006133945
When is minimized

Figure 2006133945
であるから、
Figure 2006133945
Because

Figure 2006133945
を得る。
Figure 2006133945
Get.

(数18)を整理して   Organize (Equation 18)

Figure 2006133945
が得られる。
Figure 2006133945
Is obtained.

(数19)を   (Equation 19)

Figure 2006133945
について解き、
Figure 2006133945
Solve about

Figure 2006133945
を得る。
Figure 2006133945
Get.

(数21)からオプティカルフローを算出するために、輝度の空間微分   In order to calculate the optical flow from (Equation 21), the spatial differentiation of luminance

Figure 2006133945
と、時間微分
Figure 2006133945
And time derivative

Figure 2006133945
を計算する必要がある。これは、画像の格子点上の1階差分を用いて求める。1階差分の計算は、図4に示すような4個の画素が交差する場所において2枚の連続する画像の中間点で行う。
Figure 2006133945
Need to be calculated. This is obtained using the first-order difference on the lattice points of the image. The calculation of the first-order difference is performed at an intermediate point between two consecutive images at a place where four pixels intersect as shown in FIG.

Figure 2006133945
をそれぞれ(数7)に対応する添字とすると、(数13)は
Figure 2006133945
Is a subscript corresponding to (Equation 7), respectively, (Equation 13) becomes

Figure 2006133945
のようになる。
Figure 2006133945
become that way.

つまり、オプティカルフロー算出は、画素値の差の平均を用いて求めることができる。   That is, the optical flow calculation can be obtained by using an average of pixel value differences.

ここで、オプティカルフロー算出法は、上記例には限らない。   Here, the optical flow calculation method is not limited to the above example.

以上のように、本実施の形態によれは、動作誘導部110がユーザの身体の特定部位に動きを生じさせるようにユーザを誘導すると、画像入力部310から入力した時系列画像から動きベクトル検出部320が動きベクトルを算出し、照合対象領域抽出部350が動きベクトルに基づいて画像から照合対象領域の位置を推定して抽出し、照合部360が抽出された照合対象領域を予め撮像された画像と照合するので、装置とユーザとの間でインタラクティブな処理を行うことができ、認証の際、ユーザの負荷を軽減して成りすましを防止することができる。しかも、ユーザの特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する誘導動作選択部110と、選択された誘導方法にてユーザの特定部位に動きを生じさせるように誘導を行う動作誘導部120を備えているので、成りすましをより確実に防止することができる。さらに、ユーザの動きを検出する際に、少処理量のオプティカルフロー算出アルゴリズムを用い、動き検出と同時に部位の特定を行うことができるので、少ない前処理で照合を行うことができる。   As described above, according to the present embodiment, when the motion guiding unit 110 guides the user to cause a motion in a specific part of the user's body, motion vector detection is performed from the time-series image input from the image input unit 310. The unit 320 calculates a motion vector, the collation target region extraction unit 350 estimates and extracts the position of the collation target region from the image based on the motion vector, and the collation unit 360 has captured the extracted collation target region in advance. Since the image is collated, interactive processing can be performed between the apparatus and the user, and impersonation can be prevented by reducing the load on the user during authentication. In addition, a guidance operation selection unit 110 that selects a guidance method for causing a motion at a specific part of the user from a plurality of items prepared in advance, and a motion at the specific part of the user by the selected guidance method. Since the operation guiding unit 120 that performs the guidance is provided, impersonation can be prevented more reliably. Furthermore, when detecting a user's movement, the optical flow calculation algorithm with a small amount of processing can be used to identify a part at the same time as the movement detection, so that collation can be performed with a small amount of preprocessing.

なお、本実施の形態では、ユーザに目を動かせて、目の位置を推定し、照合に使う顔領域を抽出する場合を例にして説明したが、顔での照合、および、目の位置の推定を行うのは一例であり、顔の他の部位、すなわち口等の部位が動く場合でも、また、顔以外の身体特徴で照合する場合でも勿論良い。   In this embodiment, the case where the user moves the eyes, estimates the position of the eyes, and extracts the face area used for matching has been described as an example. The estimation is merely an example, and it is of course possible even when other parts of the face, that is, parts such as the mouth move, or when collating with body features other than the face.

なお、前記実施の形態では、ハードウエア構成を例として説明したが、本発明は、これに限らず、前述の機能をCPUがプログラムを実行することにより、ソフトウエア的に実現するように構成しても良い。すなわち、本発明は、コンピュータに、認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、誘導されて特定部位を動かしている認証対象を撮像部が撮像する機能と、撮像部が撮像した時系列画像から特定部位の動作領域を推定する機能と、推定した動作領域の位置から認証対象の特定部位の位置を推定する機能と、特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、推定した特定部位に基づいて認証対象の照合対象領域を抽出する機能と、抽出した照合対象領域を予め撮像した画像と照合する機能と、照合結果を表示する機能とを実行させる照合プログラムを有することによっても、本発明の目的を達成することができる。   In the above embodiment, the hardware configuration has been described as an example. However, the present invention is not limited to this, and the above functions are configured to be realized by software by the CPU executing a program. May be. That is, the present invention provides a computer with a function of selecting a guidance method for causing a motion in a specific part to be authenticated from a plurality of items prepared in advance, and a specific part to be authenticated by the selected guidance method. A function for performing guidance so as to cause movement, a function for the imaging unit to image an authentication target that is guided and moving the specific site, and a function for estimating an operation region of the specific site from a time-series image captured by the imaging unit A function for estimating the position of a specific part to be authenticated from the position of the estimated motion region, a function for determining whether or not the action of the specific part is a guided action, and an authentication target based on the estimated specific part A collation program for executing a function for extracting a collation target area, a function for collating the extracted collation target area with an image captured in advance, and a function for displaying a collation result. Also, it is possible to achieve the object of the present invention.

本発明に係る照合装置、照合方法および照合プログラムは、装置と認証対象との間でインタラクティブな処理を行い、しかも認証対象の特定部位に動きを生じさせる誘導方法を予め用意された複数項目の中から選択し、選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導することにより、認証の際、装置を操作する過程で生じる認証対象の自然な動きを検出して照合できるので、認証対象の負荷を軽減することができるとともに、成りすましをより確実に防止することができ、また認証対象の動きを検出する際に、部位の特定を行うことができるので、照合を少ない前処理で行うことができるという効果を有し、身体の一部を対象として認証を行う個人認証装置、特に携帯電話等の少資源な端末の個人認証装置等として有用である。   A collation device, a collation method, and a collation program according to the present invention are a plurality of items prepared in advance as a guidance method for performing interactive processing between an apparatus and an authentication target and generating a motion in a specific part of the authentication target. By detecting the natural movement of the authentication target that occurs in the process of operating the device at the time of authentication, the selected guidance method is used to induce the movement to occur in the specific part of the authentication target. Since it is possible to reduce the load on the authentication target, spoofing can be prevented more reliably, and when the movement of the authentication target can be detected, the part can be identified, so there is less verification A personal authentication device that has the effect of being able to be performed by pre-processing and performs authentication for a part of the body, especially a personal authentication device for a low-resource terminal such as a mobile phone. It is useful.

本発明の実施の形態に係る照合装置を示すブロック図The block diagram which shows the collation apparatus which concerns on embodiment of this invention 本発明の実施の形態に係る照合装置の処理手順を示すフローチャートThe flowchart which shows the process sequence of the collation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る照合装置で撮像される認証対象の画像の例を示す図The figure which shows the example of the image of the authentication target imaged with the collation apparatus which concerns on embodiment of this invention 本発明の実施の形態に係る動き部位推定部による1画素の動きベクトルの算出を説明する図The figure explaining calculation of the motion vector of 1 pixel by the motion region estimation part which concerns on embodiment of this invention 本発明の実施の形態に係る照合装置の動き部位推定部による動きベクトルの例を示す図The figure which shows the example of the motion vector by the motion part estimation part of the collation apparatus which concerns on embodiment of this invention 本発明の実施の形態に係る照合装置の照合対象領域抽出部が抽出する照合領域を示す図The figure which shows the collation area | region which the collation target area extraction part of the collation apparatus which concerns on embodiment of this invention extracts

符号の説明Explanation of symbols

100 表示手段
110 誘導動作選択部
120 動作誘導部
130 照合結果出力部
140 誘導動作データベース
200 入力手段
210 カメラ
300 認証手段
310 画像入力部
320 動きベクトル検出部
330 動き部位推定部
340 動作内容判定部
350 照合対象領域抽出部
360 照合部
DESCRIPTION OF SYMBOLS 100 Display means 110 Guidance motion selection part 120 Motion guidance part 130 Collation result output part 140 Guidance action database 200 Input means 210 Camera 300 Authentication means 310 Image input part 320 Motion vector detection part 330 Motion part estimation part 340 Action content determination part 350 Collation Target area extraction unit 360 verification unit

Claims (7)

認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する誘導動作選択部と、
前記誘導動作選択部により選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う動作誘導部と、
前記認証対象を撮像する撮像部と、
前記動作誘導部により誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する動き部位推定部と、
前記特定部位の動作が前記動作誘導部の誘導した動作内容であるかどうかを判定する動作内容判定部と、
前記動き部位推定部により推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する照合対象領域抽出部と、
前記照合対象領域抽出部により抽出した前記照合対象領域を予め撮像された画像と照合する照合部と、
前記照合部の照合結果を出力する照合結果出力部と、
を備える照合装置。
A guidance operation selection unit that selects a guidance method for causing movement in a specific part to be authenticated from a plurality of items prepared in advance;
An operation induction unit that performs induction so as to cause movement in a specific part to be authenticated by the induction method selected by the induction operation selection unit;
An imaging unit that images the authentication target;
A motion part estimation unit that estimates a motion region of the specific part from a time-series image in which the imaging unit images the authentication target that is guided by the motion guide part and moves the specific part;
An operation content determination unit for determining whether the operation of the specific part is the operation content induced by the operation induction unit;
A verification target region extraction unit that estimates the position of the specific part of the authentication target from the position of the motion region estimated by the motion part estimation unit, and extracts the verification target region of the authentication target based on the estimated specific part When,
A collation unit that collates the collation target region extracted by the collation target region extraction unit with an image captured in advance;
A collation result output unit for outputting a collation result of the collation unit;
A collation device comprising:
前記動き部位検出部は、
前記時系列画像の画素における水平方向の微分値を演算する水平微分演算部と、
前記時系列画像の画素における垂直方向の微分値を演算する垂直微分演算部と、
前記時系列画像の画素における時間方向の微分値を演算する時間微分演算部と、
前記時系列画像の画素の前記水平・垂直・時間方向の各微分値に基づいて動きベクトルを算出するベクトル算出部と、
を備える請求項1に記載の照合装置。
The movement part detection unit is
A horizontal differential operation unit for calculating a horizontal differential value in the pixels of the time-series image;
A vertical differential operation unit for calculating a differential value in the vertical direction in the pixels of the time-series image;
A time differential calculation unit for calculating a differential value in the time direction in the pixels of the time-series image;
A vector calculation unit that calculates a motion vector based on the differential values in the horizontal, vertical, and time directions of the pixels of the time-series image;
The collation apparatus of Claim 1 provided with.
前記動作誘導部は、
キャラクタを表示するキャラクタ表示部と、
前記認証対象の特定部位に動きを生じさせる誘導を行う前記キャラクタを出力するキャラクタ動作部と、
を備える請求項1または2に記載の照合装置。
The motion induction unit is
A character display for displaying the character;
A character action unit for outputting the character for performing a guidance for causing movement in the specific part to be authenticated;
The collation apparatus of Claim 1 or 2 provided with.
前記動作誘導部は、
フラッシュを発光させる発光部を備える請求項1ないし3のいずれかに記載の照合装置。
The motion induction unit is
4. The collation device according to claim 1, further comprising a light emitting unit that emits a flash.
前記照合対象領域が顔であり、
前記特定部位が前記顔の一部である請求項1ないし4のいずれかに記載の照合装置。
The verification target area is a face;
The collation apparatus according to claim 1, wherein the specific part is a part of the face.
認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択するステップと、
選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行うステップと、
誘導されて前記特定部位を動かしている前記認証対象を撮像部が撮像するステップと、
前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定するステップと、
前記特定部位の動作が誘導した動作内容であるかどうかを判定するステップと、
推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定し、前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出するステップと、
抽出した前記照合対象領域を予め撮像された画像と照合するステップと、
照合結果を出力するステップと、
を備える照合方法。
Selecting from among a plurality of items prepared in advance a guidance method for causing movement in a specific part to be authenticated;
Performing guidance so as to cause movement in a specific part to be authenticated by the selected guidance method;
An imaging unit that images the authentication target that is guided and moves the specific part; and
Estimating a motion region of the specific part from a time-series image captured by the imaging unit;
Determining whether the action of the specific part is the induced action content;
Estimating the position of the specific part of the authentication target from the estimated position of the motion area, and extracting the verification target area of the authentication target based on the estimated specific part;
Collating the extracted region to be collated with an image captured in advance;
Outputting a verification result; and
A collation method comprising:
コンピュータに、
認証対象の特定部位に動きを生じさせる誘導方法を予め用意されている複数項目の中から選択する機能と、
選択された誘導方法にて認証対象の特定部位に動きを生じさせるように誘導を行う機能と、
誘導されて前記特定部位を動かしている前記認証対象を前記撮像部が撮像する機能と、
前記撮像部が撮像した時系列画像から前記特定部位の動作領域を推定する機能と、
推定した前記動作領域の位置から前記認証対象の前記特定部位の位置を推定する機能と、
前記特定部位の動作が誘導した動作内容であるかどうかを判定する機能と、
前記推定した特定部位に基づいて前記認証対象の照合対象領域を抽出する機能と、
抽出した前記照合対象領域を予め撮像した画像と照合する機能と、
照合結果を表示する機能と、
を実行させる照合プログラム。

On the computer,
A function of selecting a guidance method for causing movement in a specific part to be authenticated from a plurality of items prepared in advance;
A function to guide the selected part to cause movement in a specific part of the authentication target,
A function for the imaging unit to image the authentication target that is guided and moves the specific part;
A function of estimating an operation region of the specific part from a time-series image captured by the imaging unit;
A function of estimating the position of the specific part to be authenticated from the position of the estimated motion region;
A function of determining whether the action of the specific part is the induced action content;
A function of extracting a verification target region of the authentication target based on the estimated specific part;
A function of collating the extracted region to be collated with an image captured in advance;
A function to display the verification results;
A collation program that executes

JP2004320236A 2004-11-04 2004-11-04 Collation device, collation method, and collation program Pending JP2006133945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004320236A JP2006133945A (en) 2004-11-04 2004-11-04 Collation device, collation method, and collation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004320236A JP2006133945A (en) 2004-11-04 2004-11-04 Collation device, collation method, and collation program

Publications (1)

Publication Number Publication Date
JP2006133945A true JP2006133945A (en) 2006-05-25

Family

ID=36727462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004320236A Pending JP2006133945A (en) 2004-11-04 2004-11-04 Collation device, collation method, and collation program

Country Status (1)

Country Link
JP (1) JP2006133945A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036965A (en) * 2016-09-01 2018-03-08 株式会社日立製作所 Living body detection device
WO2022024222A1 (en) 2020-07-28 2022-02-03 富士通株式会社 Evaluation method, information processing device, and evaluation program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036965A (en) * 2016-09-01 2018-03-08 株式会社日立製作所 Living body detection device
WO2018042996A1 (en) * 2016-09-01 2018-03-08 株式会社日立製作所 Lifeform sensing device
WO2022024222A1 (en) 2020-07-28 2022-02-03 富士通株式会社 Evaluation method, information processing device, and evaluation program

Similar Documents

Publication Publication Date Title
JP6467965B2 (en) Emotion estimation device and emotion estimation method
US10275672B2 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
JP2020194608A (en) Living body detection device, living body detection method, and living body detection program
WO2019127262A1 (en) Cloud end-based human face in vivo detection method, electronic device and program product
EP2339536A2 (en) Image processing system, image processing apparatus, image processing method, and program
CN110569808A (en) Living body detection method and device and computer equipment
JP6754642B2 (en) Biodetector
JP2009211311A (en) Image processing apparatus and method
CN108280418A (en) The deception recognition methods of face image and device
JP2016009453A (en) Face authentication device and face authentication method
CN109002786A (en) Method for detecting human face, equipment and computer readable storage medium
JP5061563B2 (en) Detection apparatus, biological determination method, and program
JP2011095862A (en) Apparatus and method for processing image and program
US9355641B2 (en) Monitoring device using selective attention model and method for monitoring same
JP2023063314A (en) Information processing device, information processing method, and recording medium
JP2005149370A (en) Imaging device, personal authentication device and imaging method
JP2007213528A (en) Action recognition system
JP4659722B2 (en) Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program
JP2006133945A (en) Collation device, collation method, and collation program
JP7400886B2 (en) Video conferencing systems, video conferencing methods, and programs
KR101314687B1 (en) Providing device of eye scan path and mehtod for providing eye scan path
JP6742837B2 (en) Image processing apparatus, image processing method and program
JP2020035290A (en) Detector creation device, monitoring device, detector creation method, and detector creation program
JP2006133937A (en) Behavior identifying device
JP2014150348A (en) Imaging apparatus