JPWO2013114806A1 - Biometric authentication device and biometric authentication method - Google Patents
Biometric authentication device and biometric authentication method Download PDFInfo
- Publication number
- JPWO2013114806A1 JPWO2013114806A1 JP2013556238A JP2013556238A JPWO2013114806A1 JP WO2013114806 A1 JPWO2013114806 A1 JP WO2013114806A1 JP 2013556238 A JP2013556238 A JP 2013556238A JP 2013556238 A JP2013556238 A JP 2013556238A JP WO2013114806 A1 JPWO2013114806 A1 JP WO2013114806A1
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- biometric
- information
- living body
- feature data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Abstract
生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する取得部と、取得部により取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出する検出部と、複数の生体特徴データを格納する格納部から、検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、取得部により取得された3次元情報から対象生体の現生体特徴データを生成する生成部と、抽出部により抽出された生体特徴データと、生成部により生成された対象生体の現生体特徴データとを照合する照合部とを有する。The biometric authentication apparatus includes an acquisition unit that sequentially acquires three-dimensional information including biological information of a target biological body, a detection unit that detects a predetermined operation pattern of a predetermined part of the target biological body from the three-dimensional information acquired by the acquisition unit, An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the detection unit from the storage unit that stores a plurality of biometric feature data, and the three-dimensional acquired by the acquisition unit A generating unit that generates current biological feature data of the target living body from the information, a biometric feature data extracted by the extracting unit, and a matching unit that checks the current biological feature data of the target living body generated by the generating unit.
Description
本発明は、生体認証技術に関する。 The present invention relates to a biometric authentication technique.
モーションキャプチャ技術は、映画やゲームにおけるCG(Computer Graphics)キャラクタの生成やスポーツ分析等のように様々な分野で利用されている。近年では、Kinect(登録商標)と呼ばれるゲームデバイスが登場し、従来のようにマーカ装着が不要となったことから、モーションキャプチャ技術は身近なものとなりつつある。 The motion capture technology is used in various fields such as generation of CG (Computer Graphics) characters in movies and games and sports analysis. In recent years, a game device called Kinect (registered trademark) has appeared, and since there is no need to attach a marker as in the past, motion capture technology is becoming familiar.
モーションキャプチャ技術は、個人認証等のセキュリティ分野においても利用されている。これに伴い、認証対象者のジェスチャを用いた認証手法も提案されている。 Motion capture technology is also used in security fields such as personal authentication. Along with this, an authentication method using the gesture of the person to be authenticated has also been proposed.
下記特許文献1では、生体の所定部位の特定動作(目のまばたき)の検出を、顔画像の照合処理の開始のトリガとすることで、写真を用いた成りすましを防止し、ID番号の入力等の装置操作を不要とすることが提案されている。また、下記特許文献2では、認証対象者が所有する車両のキーによる認証と、認証対象者のジェスチャによる認証との両方の認証の結果により、車両などの機器の利用を許可する手法が提案されている。
In
しかしながら、上述の特許文献1及び2で提案される各手法では、ジェスチャを用いた認証と他方式の認証とを効果的に連携させることができていない。
However, in each method proposed in
具体的には、上記特許文献1で提案される手法は、単に、特定ジェスチャの検出を顔画像照合を開始する上でのトリガとして利用しているに過ぎないため、個人認証自体がジェスチャを用いて行われるわけではない。また、上記特許文献2で提案される手法は、ジェスチャ間の照合と他情報(キー情報)間の照合とを別々に実行しているに過ぎないため、最終的な認証結果が得られるためには両照合処理が完了しなければならない。よって、この手法では、照合処理時間の効率化が図られていない。
Specifically, since the technique proposed in
本発明は、このような事情に鑑みてなされたものであり、生体の動作を用いた生体認証を効率よく実行する技術を提供する。 The present invention has been made in view of such circumstances, and provides a technique for efficiently performing biometric authentication using a biometric action.
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第1の態様は、生体認証装置に関する。第1態様に係る生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、情報取得部により取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出する動作検出部と、複数の生体特徴データを格納する生体情報格納部から、動作検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、情報取得部により取得された3次元情報から対象生体の現生体特徴データを生成する特徴データ生成部と、抽出部により抽出された生体特徴データと、特徴データ生成部により生成された対象生体の現生体特徴データと、を照合する照合部と、を備える。 The first aspect relates to a biometric authentication device. The biometric authentication device according to the first aspect includes an information acquisition unit that sequentially acquires three-dimensional information including biometric information of a target biological body, and a predetermined operation of a predetermined part of the target biological body from the three-dimensional information acquired by the information acquisition unit. Extraction that extracts biometric feature data specified using motion position information of a predetermined motion pattern detected by the motion detection unit from a motion detection unit that detects a pattern and a biometric information storage unit that stores a plurality of biometric feature data , A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit, biometric feature data extracted by the extraction unit, and a target generated by the feature data generation unit A collation unit that collates the current biological feature data of the biological body.
第2の態様は、生体認証方法に関する。第2態様に係る生体認証方法は、対象生体の生体情報を含む3次元情報を順次取得し、取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出し、複数の生体特徴データを格納する生体情報格納部から、検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、取得された3次元情報から対象生体の現生体特徴データを生成し、抽出された生体特徴データと、生成された対象生体の現生体特徴データとを照合する、ことを含む。 The second aspect relates to a biometric authentication method. The biometric authentication method according to the second aspect sequentially acquires three-dimensional information including biological information of a target living body, detects a predetermined operation pattern of a predetermined part of the target living body from the acquired three-dimensional information, and a plurality of living bodies From the biometric information storage unit that stores the feature data, the biometric feature data specified by using the motion position information of the detected predetermined motion pattern is extracted, and the current biometric feature data of the target living body is generated from the acquired three-dimensional information And comparing the extracted biometric feature data with the generated current biometric feature data of the target biometric.
なお、本発明の他の態様としては、第1態様に係る生体認証装置と、上記情報取得部に3次元情報を送る3次元センサと、上記生体情報格納部とを有する生体認証システムであってもよいし、第1態様の構成をコンピュータに実現させるコンピュータプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。 According to another aspect of the present invention, there is provided a biometric authentication system including the biometric authentication device according to the first aspect, a three-dimensional sensor that sends three-dimensional information to the information acquisition unit, and the biometric information storage unit. Alternatively, it may be a computer program that causes a computer to realize the configuration of the first aspect, or a computer-readable recording medium that records such a program. This recording medium includes a non-transitory tangible medium.
本発明の各態様によれば、生体の動作を用いた生体認証を効率よく実行する技術を提供することができる。 According to each aspect of the present invention, it is possible to provide a technique for efficiently performing biometric authentication using a biological action.
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。 The above-described object and other objects, features, and advantages will become more apparent from the preferred embodiments described below and the accompanying drawings.
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。 Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.
本実施形態に係る生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、この情報取得部により取得された3次元情報から、上記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、複数の生体特徴データを格納する生体情報格納部から、動作検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、情報取得部により取得された3次元情報から上記対象生体の現生体特徴データを生成する特徴データ生成部と、抽出部により抽出された生体特徴データと、特徴データ生成部により生成された対象生体の現生体特徴データと、を照合する照合部と、を有する。本実施形態は、このような各処理部に実行される各動作を含む生体認証方法でもあり、このような各処理部をコンピュータに実現させるプログラムやこのプログラムを格納する記録媒体でもある。 The biometric authentication device according to the present embodiment includes an information acquisition unit that sequentially acquires three-dimensional information including biometric information of a target living body, and a predetermined part of the target biological body that is obtained from the three-dimensional information acquired by the information acquisition unit. The biometric feature data specified using the motion position information of the predetermined motion pattern detected by the motion detection unit is extracted from the motion detection unit that detects the motion pattern and the biometric information storage unit that stores a plurality of biometric feature data. Generated by the extraction unit, the feature data generation unit that generates the current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit, the biological feature data extracted by the extraction unit, and the feature data generation unit And a collation unit that collates the current biological feature data of the target biological body. The present embodiment is also a biometric authentication method including each operation executed by each processing unit, and is a program that causes a computer to realize each processing unit and a recording medium that stores the program.
ここで、情報取得部は、3次元センサとして3次元情報を自ら生成してもよいし、外部の3次元センサから当該3次元情報を取得してもよい。また、取得された3次元情報に含まれる生体情報は、人の全身の情報であってもよいし、上半身や下半身のみの情報であってもよいし、頭、手、足などのように或る所定部分の情報であってもよい。また、当該3次元情報により、対象生体の生体画像が生成可能である。 Here, the information acquisition unit may generate three-dimensional information by itself as a three-dimensional sensor, or may acquire the three-dimensional information from an external three-dimensional sensor. Further, the biological information included in the acquired three-dimensional information may be information on the whole body of the person, information on only the upper body and lower body, or a head, hand, foot, or the like. It may be information on a predetermined part. In addition, a living body image of the target living body can be generated from the three-dimensional information.
生体情報格納部は、本実施形態に係る生体認証装置に含まれてもよいし、他の装置(サーバ装置等)が有していてもよい。また、生体特徴データ及び現生体特徴データは、当該3次元情報から取得可能な情報であればよく、例えば、顔、目(虹彩)、手(指紋、静脈)等である。 The biometric information storage unit may be included in the biometric authentication device according to the present embodiment, or may be included in another device (such as a server device). The biometric feature data and the current biometric feature data may be any information that can be acquired from the three-dimensional information, such as a face, eyes (iris), and hands (fingerprints and veins).
上述のように、本実施形態では、対象生体の所定部位の所定動作パターンが検出され、生体情報格納部の中からこの所定動作パターンの動作位置情報により特定される生体特徴データと、対象生体から抽出される現生体特徴データとを用いた1対1照合が実行される。即ち、本実施形態では、所定動作パターン、即ち、所定ジェスチャの動作位置情報をキーとして用いて、1対1照合の生体特徴データが特定される。これは、検出される所定動作パターンの動作位置が対象生体毎に固有に決められることで実現可能である。 As described above, in the present embodiment, a predetermined motion pattern of a predetermined part of the target living body is detected, and the biological feature data specified by the motion position information of the predetermined motion pattern from the biological information storage unit, and the target biological body One-to-one matching is performed using the extracted current biological feature data. That is, in the present embodiment, biometric feature data for one-to-one matching is specified using a predetermined motion pattern, that is, motion position information of a predetermined gesture, as a key. This can be realized by uniquely determining the motion position of the predetermined motion pattern to be detected for each target living body.
これにより、従来の1対1照合では、照合対象となる1つの生体特徴データを特定するために、ユーザIDやパスワード等の入力操作を要していたところ、本実施形態によれば、そのような入力操作が不要となる。更に、本実施形態によれば、1対1照合が行われるため、1対多照合と比べて、高速かつ高精度に認証処理を行うことができる。このように、本実施形態によれば、生体の所定動作が効果的に利用され、生体情報の1対1照合が実行されるため、生体の動作を用いた生体認証を効率よくかつ高精度に実行することができる。 As a result, in the conventional one-to-one matching, an input operation such as a user ID or a password is required to specify one piece of biometric feature data to be verified. Input operation is unnecessary. Furthermore, according to the present embodiment, since one-to-one matching is performed, authentication processing can be performed at higher speed and higher accuracy than one-to-many matching. As described above, according to the present embodiment, the predetermined action of the living body is effectively used and the one-to-one matching of the living body information is executed. Therefore, the biometric authentication using the action of the living body can be performed efficiently and with high accuracy. Can be executed.
以下、上述の実施形態について更に詳細を説明する。以下に示す各詳細実施形態は、上述の実施形態における生体認証装置の構成を顔画像認証に適用した場合の例である。なお、上述の実施形態は、認証に用いられる生体情報を顔画像に限定せず、様々な生体認証に適用可能である。 Hereinafter, the details of the above-described embodiment will be described. Each detailed embodiment shown below is an example when the configuration of the biometric authentication device in the above-described embodiment is applied to face image authentication. Note that the above-described embodiment is applicable to various biometric authentications without limiting the biometric information used for authentication to a face image.
[第1実施形態]
〔装置構成〕
図1は、第1実施形態における顔画像認証装置(以降、単に認証装置とも表記する)10のハードウェア構成例を概念的に示す図である。第1実施形態における認証装置10は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。[First Embodiment]
〔Device configuration〕
FIG. 1 is a diagram conceptually illustrating a hardware configuration example of a face image authentication device (hereinafter simply referred to as an authentication device) 10 according to the first embodiment. The
入出力I/F4は、図1に示されるように、3次元センサ7、表示部9等と接続される。表示部9は、ディスプレイ等の表示装置である。なお、本実施形態は、入出力I/F4に接続される機器を制限せず、キーボード、マウス等のようなユーザ操作の入力を受け付ける入力部や、プリンタや、ネットワーク(図示せず)を介して他のコンピュータと通信を行う通信装置等と接続されてもよい。認証装置10のハードウェア構成は制限されない。
As shown in FIG. 1, the input / output I /
3次元センサ7は、対象者の生体情報を含む3次元情報を検出する。検出される3次元情報は、可視光により得られる対象者の2次元像(画像)の情報と、3次元センサ7からの距離の情報とを含む。以降、3次元センサ7からの距離を示す軸がZ軸と表記される。3次元センサ7は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを対象者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから対象者までの距離が算出される。
The three-
なお、3次元センサ7の実現手法は制限されず、当該3次元センサ7は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図1では、1つの3次元センサ7のみが図示されるが、3次元センサ7として、対象者の2次元画像を撮像する可視光カメラ及び対象者までの距離を検出するセンサといった複数の機器が設けられてもよい。
The method for realizing the three-
図2は、第1実施形態における認証装置10の処理構成例を概念的に示す図である。第1実施形態における認証装置10は、情報取得部11、動作検出部13、抽出部15、特徴データ生成部17、照合部19、識別データ格納部21、生体情報格納部23、表示処理部25等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。
FIG. 2 is a diagram conceptually illustrating a processing configuration example of the
情報取得部11は、3次元センサ7から、対象者(対象生体)の生体情報を含む3次元情報を順次取得する。この3次元情報は、対象者の生体情報と、3次元センサ7からの距離の情報とを含めば、その実現形式は制限されない。当該3次元情報の取得速度は、任意であるが、その取得速度は、許容される操作者の動作速度に関連する。つまり、その取得速度が速ければ、許容される操作者の動作速度も速くなる。
The
動作検出部13は、情報取得部11により取得された3次元情報から、対象者の所定部位の所定の動作パターンを検出する。具体的には、動作検出部13は、当該3次元情報から対象者の所定部位を認識し、順次取得される3次元情報が示す3次元中の所定次元の所定方向における、対象者の所定部位の所定幅の移動を所定動作パターンとして検出する。
The
所定部位の認識には、一般的な画像認識(パターン認識)の技術が利用されればよいため、ここでは説明を簡略化する。例えば、画像の中から、人体、顔、目、口等を認識する手法は周知である。動作検出部13は、このような周知な手法を用いて、対象者の3次元情報から対象者の所定部位を認識する。
Since recognition of a predetermined part should just use the technique of general image recognition (pattern recognition), description is simplified here. For example, a technique for recognizing a human body, face, eyes, mouth and the like from an image is well known. The
動作検出部13は、当該3次元情報に含まれる対象者の生体画像に基づいて対象者の所定基準部位を認識し、この所定基準部位との位置関係に基づいて当該所定部位を認識するようにしてもよい。例えば、動作検出部13は、所定基準部位として顔を認識した後、この顔より、Z軸で3次元センサ7に近い位置にあるものを対象者の両手と認識し、各手のひらの中心部を所定部位として認識する。
The
なお、対象者の所定部位が認識可能であれば、所定基準部位及び所定部位は制限されない。所定部位が各足のつま先に設定され、かつ、所定基準部位が両足に設定されている場合には、生体画像から両足が認識され、距離情報から、両足の部分において最も3次元センサ7に近い位置にあるものが対象者の各つま先であると認識される。
Note that the predetermined reference portion and the predetermined portion are not limited as long as the predetermined portion of the subject can be recognized. When the predetermined part is set on the toes of each foot and the predetermined reference part is set on both feet, both feet are recognized from the biological image, and from the distance information, the portion of both feet is closest to the three-
所定動作パターンとしての上記移動の検出には、一般的なモーションキャプチャ技術が利用されればよい。このモーションキャプチャ技術自体は、周知であるため、ここではそれ自体の説明を省略する。例えば、動作検出部13は、対象者の手のひらが当該3次元情報のZ軸の3次元センサ7に近づく方向に所定幅(例えば、実世界の20センチメートル(cm)に相当する当該3次元情報内における幅)移動したことを検出する。
For the detection of the movement as the predetermined operation pattern, a general motion capture technique may be used. Since this motion capture technique itself is well known, description of itself is omitted here. For example, the
この例の所定動作パターンは、対象者が手のひらを或る位置から前方(3次元センサ7方向)に突き出す動作となる。この例では、Z軸と直交する平面座標上、どの位置で手のひらが突き出されたとしても、動作検出部13は、その動作を所定動作パターンとして検出することになる。例えば、手のひらが、頭の上、顔の前及び胸の前の位置からそれぞれ突き出された場合には、各動作がそれぞれ検出される。
The predetermined operation pattern of this example is an operation in which the subject projects the palm forward from a certain position (in the direction of the three-dimensional sensor 7). In this example, the
動作検出部13は、このような所定動作パターンの検出空間を設定してもよい。即ち、動作検出部13は、情報取得部11により取得された3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、この検出空間外における対象者の所定部位の動作を除外し、検出空間内における対象者の所定部位の所定動作パターンを検出する。検出空間の設定により、動作検出部13は、その空間を示す座標情報を取得する。なお、対象者の所定部位が届く範囲であれば、検出空間の位置及び大きさは制限されない。動作検出部13は、このように設定された検出空間内での対象者の動作のみを、所定動作パターンの検出対象とする。
The
動作検出部13は、当該3次元情報から対象者の所定部位を検出し、この検出された所定部位又は対象者の他の所定部位と所定位置関係を示す位置に、当該検出空間を設定してもよい。例えば、所定部位が手のひらの中心部である場合、動作検出部13は、他の所定部位として認識された顔と略同じ高さの位置で、顔から3次元センサ7方向に両手が届く範囲の位置に、両手が届く範囲の大きさの空間領域を設定する。
The
所定動作パターンは、1つの所定動作であっても、2以上の所定動作の組み合わせであってもよい。2以上の所定動作の組み合わせは、複数の異なる移動形態の組み合わせであってもよいし、複数の同じ移動形態であってもよいし、それらの組み合わせであってもよい。例えば、所定動作パターンが、手のひらを前方に突き出す動作が所定回数行われることであってもよいし、手のひらを前方に突き出す動作が2回と手のひらを手前に引く動作が3回とから構成されてもよい。 The predetermined operation pattern may be one predetermined operation or a combination of two or more predetermined operations. The combination of two or more predetermined movements may be a combination of a plurality of different movement forms, a plurality of the same movement forms, or a combination thereof. For example, the predetermined motion pattern may be that the operation of pushing the palm forward is performed a predetermined number of times, or the operation of pushing the palm forward is composed of two times and the operation of pulling the palm forward is composed of three times. Also good.
動作検出部13は、当該検出空間内における所定動作パターンを検出すると、検出された所定動作パターンの動作位置情報を保持する。動作位置情報とは、所定動作パターンに含まれる所定動作、即ち、上記移動が行われた位置を示す情報である。所定動作パターンが複数の所定動作を含む場合には、当該動作位置情報は、各移動が行われた各位置情報を含む。例えば、所定動作パターンが手のひらをZ軸方向に3回突き出す動作である場合には、当該動作位置情報は、Z軸と直交する平面座標上の、当該動作が行われた3つの位置を示す。
When detecting the predetermined motion pattern in the detection space, the
図3は、識別データ格納部21の例を示す図である。図3に示されるように、識別データ格納部21は、所定動作パターンの動作位置情報と、各生体識別データとの対応関係を格納する。図3の例では、生体識別データが個人ID(Identification)と表記されており、各個人IDについて、第1位置情報から第5位置情報がそれぞれ格納される。図3の例によれば、所定動作パターンの動作位置情報は、1つの位置を示してもよいし、5以下の複数の位置を示してもよい。
FIG. 3 is a diagram illustrating an example of the identification
図4は、生体情報格納部23の例を示す図である。図4に示されるように、生体情報格納部23は、複数の生体特徴データと、各生体特徴データと関連付けられた生体識別データとを格納する。図4の例では、生体識別データが個人IDと表記されている。生体情報格納部23に格納される各生体特徴データは、各個人の正当性を示すために、予め各個人から正当に取得された各生体情報である。当該生体特徴データは、例えば、各個人の顔画像から取得される顔の特徴を示すデータである。なお、各個人から生体情報として生体特徴データを抽出する手法や、生体特徴データ自体の構成は、周知の生体認証技術で利用される周知のものが利用されればよいため、ここでは詳細説明を省略する。
FIG. 4 is a diagram illustrating an example of the biometric
抽出部15は、識別データ格納部21から、動作検出部13により検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた生体特徴データを生体情報格納部23から抽出する。図3及び図4の例では、抽出部15は、所定動作パターンの動作位置情報(複数の位置情報)に対応する個人IDを識別データ格納部21から抽出し、その個人IDに関連付けられた生体特徴データを生体情報格納部23から抽出する。抽出部15は、識別データ格納部21の各位置情報が、当該動作位置情報が示す各位置から所定許容領域内に含まれているレコードを識別データ格納部21で特定し、その特定されたレコードから当該個人IDを抽出してもよい。
The
特徴データ生成部17は、情報取得部11により取得された3次元情報から対象生体の生体特徴データを生成する。特徴データ生成部17により生成される生体特徴データは、生体情報格納部23に格納される生体特徴データと区別するために、現生体特徴データと表記される。例えば、特徴データ生成部17は、当該3次元情報に含まれる2次元の生体画像から対象生体の現生体特徴データを生成する。なお、特徴データ生成部17による生体特徴データの生成手法自体は、周知の生体認証技術で利用される周知の手法が利用されればよいため、ここでは詳細説明を省略する。
The feature
照合部19は、生体情報格納部23から抽出された生体特徴データと、特徴データ生成部17により生成された当該対象生体の現生体特徴データとを照合する。生体特徴データ間の照合については生体認証において周知の手法が利用されればよいため、ここでは説明を省略する。照合部19は、この照合結果を示す出力データを生成し、入出力I/F4を介して表示部9や他の出力装置にその照合結果を出力する。
The collation unit 19 collates the biometric feature data extracted from the biometric
表示処理部25は、入出力I/F4を介して画面データを送ることにより、表示部9に所定の表示画像を表示させる。具体的には、表示処理部25は、情報取得部11により取得された3次元情報から生成される対象生体の生体画像又はその生体画像を模写する生体模写画像と、当該対象生体に所定動作パターンを動作させるように誘導する誘導画像と、を含む表示画像を表示部9に表示させる。その表示画像では、誘導画像の少なくとも一部が表示画像内における動作検出部13により設定される当該検出空間に相当する空間内に配置される。生体模写画像とは、例えば、対象者を模写したアニメーション画像である。
The
表示処理部25は、所定タイミングで、上記誘導画像を上記表示画像内に表示させるようにしてもよい。この所定タイミングは、例えば、動作検出部13が、情報取得部11により取得された3次元情報が示す3次元空間内に対象者の所定部位を検出したタイミングであってもよいし、動作検出部13による所定動作パターンの検出処理の開始のトリガに設定される、対象者の所定ポーズを検出したタイミングであってもよい。また、表示処理部25は、動作検出部13により所定動作パターンが検出された場合に、当該所定動作パターンに対応する形に誘導画像を変化させるようにしてもよい。
The
誘導画像としては、所定動作パターンを説明する文章が表示されてもよいし、ボタン、ダイヤル、ネジ等のような表示画像内の仮想対象者に操作可能なユーザインタフェースを持つ画像が表示されてもよい。例えば、所定動作パターンが、表示画像内の仮想対象者がボタンを押下する動作に対応する場合、表示処理部25は、複数のボタンが配列された誘導画像を当該表示画像内に表示させてもよい。この場合、表示処理部25は、対象者の動作が反映される対象者の生体画像又は当該生体模写画像の動きに対応する所定動作パターンの検出に応じて、複数のボタンの少なくとも1つを変色させてもよいし、押下された状態に変化させてもよい。
As the guidance image, a sentence explaining a predetermined operation pattern may be displayed, or an image having a user interface that can be operated by a virtual subject in a display image such as a button, a dial, or a screw is displayed. Good. For example, when the predetermined operation pattern corresponds to an operation in which a virtual subject in the display image presses a button, the
〔動作例〕
以下、第1実施形態における顔画像認証方法について説明する。図5は、第1実施形態における認証装置10の動作例を示すフローチャートである。[Operation example]
Hereinafter, the face image authentication method according to the first embodiment will be described. FIG. 5 is a flowchart illustrating an operation example of the
認証装置10は、対象者の生体情報を含む3次元情報を順次取得する(S51)。この3次元情報は、上述のように3次元センサ7により検出された情報から取得されてもよいし、他の装置から取得されてもよい。
The
認証装置10は、順次取得される対象者の3次元情報に基づいて、対象者の所定部位の所定動作パターンを検出する(S52)。このとき、認証装置10は、3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、この検出空間を所定動作パターンの検出領域に設定してもよい。また、認証装置10は、対象者の生体画像又はこの生体画像を模写する生体模写画像と、対象者に所定動作パターンを動作するように誘導する誘導画像とを含む表示画像を表示部9に表示させてもよい。この場合、認証装置10は、対象者の所定動作パターンの検出に応じて、その表示画像内の誘導画像を変形させてもよい。
The
認証装置10は、所定動作パターンの検出後、検出された所定動作パターンの動作位置情報に対応する生体識別データを識別データ格納部21から抽出する(S53)。所定動作パターンが複数の或る動作の組み合わせの場合には、各動作が行われた位置情報の組み合わせに対応する生体識別データが抽出される。
After detecting the predetermined motion pattern, the
認証装置10は、複数人の生体特徴データを格納する生体情報格納部23から、(S53)で抽出された生体識別データに対応する生体特徴データを抽出する(S54)。
The
認証装置10は、順次取得される対象者の3次元情報に基づいて、対象者の現生体特徴データを生成する(S55)。
The
認証装置10は、(S54)で生体情報格納部23から抽出された生体特徴データと、(S55)で生成された現生体特徴データとを照合し(S56)、その照合結果を出力する(S57)。なお、図5において、(S55)は、(S53)の前に実行されてもよいし、(S53)と(S54)との間で実行されてもよい。
The
〔第1実施形態の作用及び効果〕
このように、第1実施形態では、3次元センサ7等により順次得られる3次元情報から、対象者の所定動作パターン(所定ジェスチャ)が検出され、その所定動作パターンが行われた位置の情報(動作位置情報)に対応する生体識別データが特定され、この生体識別データに対応する生体特徴データが抽出される。この生体特徴データと、対象者の現在の生体情報が反映された現生体特徴データとの1対1照合が行われる。[Operation and Effect of First Embodiment]
As described above, in the first embodiment, the predetermined motion pattern (predetermined gesture) of the subject is detected from the three-dimensional information sequentially obtained by the three-
従って、第1実施形態によれば、対象者の入力操作等を要することなく、対象者の所定ジェスチャに応じて生体情報の1対1照合を行うことができる。即ち、第1実施形態によれば、生体の動作を用いた生体認証を効率よくかつ高精度に実行することができる。 Therefore, according to the first embodiment, one-to-one verification of biometric information can be performed according to a predetermined gesture of the subject without requiring the subject's input operation or the like. That is, according to the first embodiment, biometric authentication using a biometric operation can be executed efficiently and with high accuracy.
また、第1実施形態によれば、対象者に所定動作パターンの動作をさせるための誘導画像が表示され、所定動作パターンに応じてその誘導画像が変形するため、対象者は、その誘導画像に従って動作すれば、所定動作パターン(押す動作、引く動作など)を自然に実行することができる。 In addition, according to the first embodiment, a guide image for causing the subject to perform a motion of the predetermined motion pattern is displayed, and the guide image is deformed according to the predetermined motion pattern. If it operates, a predetermined operation pattern (pressing operation, pulling operation, etc.) can be naturally executed.
また、第1実施形態によれば、所定動作パターンの検出空間が設定されるため、3次元情報が示す3次元空間内のその空間外に写る対象者の部位や他人や物により、所定動作パターンの検出が阻害されることを防ぐことができる。即ち、対象者は、自然な動作で、顔画像認証装置10に顔認証をさせることができる。
In addition, according to the first embodiment, since a detection space for a predetermined motion pattern is set, the predetermined motion pattern is determined depending on the part of the target person, the other person, or the object in the three-dimensional space indicated by the three-dimensional information. Can be prevented from being inhibited. That is, the target person can cause the face
[変形例]
上述の第1実施形態では、生体識別データ(図3及び図4の個人ID)が利用されたが、生体識別データは利用されなくてもよい。この場合、認証装置10は、識別データ格納部21を持たず、生体情報格納部23は、識別データ格納部21に格納されていた複数の動作位置情報と生体特徴データとを格納すればよい。これにより、図5で示される(S53)及び(S54)が、検出された所定動作パターンの動作位置情報に対応する生体特徴データを抽出する処理に置き換えられる。[Modification]
In the first embodiment described above, the biometric identification data (the personal ID in FIGS. 3 and 4) is used, but the biometric identification data may not be used. In this case, the
また、上述の第1実施形態において、誘導画像及び所定動作パターンの組み合わせが、任意に切り替えられるようにしてもよい。対象者が手のひらを前方に押し出す動作が所定動作パターンであっても、対象者が手のひらを手前に引く動作が所定動作パターンであっても、各動作が同じ位置で実行されれば、両者の動作位置情報は等しくなる。そこで、対象者に対応する動作位置情報が変わらないような誘導画像及び所定動作パターンの組み合わせであれば、任意に切り替えられても、第1実施形態と同様に照合は可能である。この場合、第1実施形態における認証装置10は、パターン切替部を更に有し、このパターン切替部が、任意のタイミングで、誘導画像の切り替え及び所定動作パターンの切り替えを動作検出部13及び表示処理部25に指示する。このようにすれば、第3者によって、対象者の動作から所定動作パターンが把握されるのを困難にできる。
In the first embodiment described above, the combination of the guide image and the predetermined operation pattern may be arbitrarily switched. Even if the movement of the subject pushing the palm forward is a predetermined movement pattern, even if the movement of the subject pulling the palm forward is the predetermined movement pattern, both movements are performed if each movement is executed at the same position. The position information is equal. Therefore, as long as the combination of the guide image and the predetermined motion pattern that does not change the motion position information corresponding to the subject person is used, collation is possible as in the first embodiment even if the combination is arbitrarily switched. In this case, the
また、上述の第1実施形態では、認証装置10が識別データ格納部21及び生体情報格納部23を持つが、識別データ格納部21及び生体情報格納部23は、他の装置に装備され、認証装置10が当該他の装置内の識別データ格納部21及び生体情報格納部23にアクセスするようにしてもよい。
In the first embodiment described above, the
上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。 Each above-mentioned embodiment and each modification can be combined in the range in which the contents do not conflict.
以下に実施例を挙げ、上述の実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。本実施例では、照合結果がドアロックの認証に利用される。実施例では、表示部9に、図6、図7及び図8の例に示されるような表示画像が表示される。図6、図7及び図8は、実施例における表示画像の遷移例を示す図である。
Examples will be given below to describe the above-described embodiment in more detail. The present invention is not limited in any way by the following examples. In this embodiment, the verification result is used for door lock authentication. In the embodiment, a display image as shown in the examples of FIGS. 6, 7, and 8 is displayed on the
本実施例では、図6に示されるように、順次取得される3次元情報により生成される3次元空間の映像が表示部9に表示される。この場合、3次元センサ7が、対象者及びその周辺空間の映像を撮像し、かつ、3次元センサ7からの距離情報を検出し、この映像及び距離情報を含む3次元情報が情報取得部11により取得される。表示処理部25は、その3次元情報から生成されるその映像を表示部9に表示させる。
In the present embodiment, as shown in FIG. 6, an image in a three-dimensional space generated by sequentially acquired three-dimensional information is displayed on the
本実施例では、図7に示されるように、当該表示画像内の検出空間内において、対象者が両手の手のひらを合わせて顔より前方に固定した姿勢(以降、開始ジェスチャと表記する)を取り、この開始ジェスチャが動作検出部13により検出されると、所定動作パターンの検出が開始される。開始ジェスチャの検出では、動作検出部13は、当該表示画像内において画像認識し易い顔を所定基準部位として認識し、その顔よりZ軸で3次元センサ7に近い位置にあるものを対象者の両手として認識する。動作検出部13は、両手を合わせた形から各手のひらの中心部を所定部位として認識する。
In the present embodiment, as shown in FIG. 7, in the detection space in the display image, the subject takes a posture (hereinafter referred to as a start gesture) in which the palms of both hands are put together and fixed in front of the face. When the start gesture is detected by the
このとき、本実施例では、表示処理部25が、当該表示画像内の対象者の前方に透過キーボード31を誘導画像として表示させる。このとき、当該3次元情報が示す3次元空間におけるZ軸に直交する2次元平面に、当該透過キーボード31が配置される。これにより、動作検出部13は、透過キーボード31の各ボタンの位置情報として当該2次元平面内の位置情報をそれぞれ認識する。
At this time, in this embodiment, the
本実施例における所定動作パターンは、対象者の手のひらがZ軸の3次元センサ7に近づく方向に所定幅移動する動作である。対象者は、表示部9に写る表示画像(映像)を見ながら、表示画像内の対象者画像が表示部9に表示される透過キーボード31(誘導画像)のボタンを押下するように、動作する。この動作は、本実施例の所定動作パターンに合致するため、動作検出部13により所定動作パターンとして検出される。
The predetermined operation pattern in the present embodiment is an operation in which the palm of the subject moves by a predetermined width in a direction approaching the Z-axis three-
表示処理部25は、動作検出部13によりその所定動作パターンが検出されると、図8に示されるように、その所定動作パターンにより仮想的に操作されたボタンを変色させる。図8の例は、透過キーボード31の「1」を示すボタンが押下されている状態を示す。
When the
動作検出部13は、所定動作パターン、即ち、仮想的なボタンの押下動作が検出される毎に、その動作位置情報を保持する。本実施例では、仮想的に操作されたボタンの位置情報がその動作位置情報として保持される。動作検出部13は、透過キーボード31の「OK」ボタンを仮想的に押下する動作が検出されるまで、所定動作パターンの検出を継続する。複数のボタンが仮想的に押下された後、「OK」ボタンが仮想的に押下された場合には、所定動作パターンの動作位置情報は複数の位置を示す。
The
抽出部15は、所定動作パターンの動作位置情報に対応する生体特徴データを生体情報格納部23から抽出し、照合部19が、この生体特徴データと、図6、図7及び図8のような映像から抽出された現生体特徴データとを1対1照合する。表示処理部25は、この照合結果を、例えば、表示画像内に「OK」及び「NG」、「○」及び「×」等のように表示させる。
The
本実施例における照合部19は、その照合結果をドアロックの制御部に送る。これにより、その制御部により、その照合結果が成功を示す場合には、ドアロックが解除され、その照合結果が失敗を示す場合には、ドアロックは施錠されたままとなる。 The collation unit 19 in this embodiment sends the collation result to the door lock control unit. Thereby, when the collation result indicates success, the door lock is released by the control unit, and when the collation result indicates failure, the door lock remains locked.
本実施例では、動作検出部13が、透過キーボード31の各ボタンの位置情報として当該2次元平面内の位置情報をそれぞれ認識すると説明したが、動作検出部13は、各ボタンに関連付けられた文字情報(透過キーボード31の各ボタンに表示される数字)を認識し、この文字情報を生体識別データとして利用するようにしてもよい。具体的には、動作検出部13は、所定動作パターンの動作位置に対応するボタンに関連付けられた数字を特定し、この数字に対応する生体特徴データを生体情報格納部23から抽出する。
In the present embodiment, it has been described that the
上記の各実施形態、各変形例及び各実施例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態、各変形例及び各実施例が以下の記載に限定されるものではない。 A part or all of the above-described embodiments, modifications, and examples may be specified as in the following supplementary notes. However, each embodiment, each modification, and each example are not limited to the following descriptions.
(付記1)
対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、
前記情報取得部により取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、
複数の生体特徴データを格納する生体情報格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、
前記情報取得部により取得された前記3次元情報から前記対象生体の現生体特徴データを生成する特徴データ生成部と、
前記抽出部により抽出された生体特徴データと、前記特徴データ生成部により生成された前記対象生体の前記現生体特徴データとを照合する照合部と、
を備える生体認証装置。(Appendix 1)
An information acquisition unit for sequentially acquiring three-dimensional information including biological information of the target biological body;
An operation detection unit for detecting a predetermined operation pattern of a predetermined part of the target living body from the three-dimensional information acquired by the information acquisition unit;
An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the motion detection unit from a biometric information storage unit that stores a plurality of biometric feature data;
A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit;
A collation unit for collating the biometric feature data extracted by the extraction unit with the current biometric feature data of the target living body generated by the feature data generation unit;
A biometric authentication device.
(付記2)
前記動作検出部は、
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
付記1に記載の生体認証装置。(Appendix 2)
The motion detector is
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space, and detecting the predetermined movement pattern of the predetermined part of the target living body in the detection space;
The biometric authentication device according to
(付記3)
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる表示処理部を更に備える付記2に記載の生体認証装置。(Appendix 3)
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. The biometric authentication according to
(付記4)
前記表示処理部は、前記動作検出部により前記所定動作パターンが検出された場合に、前記誘導画像を変化させる付記3に記載の生体認証装置。(Appendix 4)
The biometric authentication device according to
(付記5)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記抽出部は、
前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部を含み、
前記識別データ格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記1から4のいずれか1つに記載の生体認証装置。(Appendix 5)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The extraction unit includes:
Including an identification data storage unit for storing a correspondence relationship between the movement position information of the predetermined movement pattern and each biometric identification data,
The biometric identification data corresponding to the motion position information of the predetermined motion pattern detected by the motion detection unit is acquired from the identification data storage unit, and the biometric feature data associated with the acquired biometric identification data is stored in the biometric feature data. Extract from the biological information storage unit,
The biometric authentication device according to any one of
(付記6)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示処理部は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記5に記載の生体認証装置。(Appendix 6)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display processing unit changes at least one of the plurality of buttons in response to detection of the predetermined operation pattern.
The biometric authentication device according to
(付記7)
付記1から6のいずれか1つに記載の前記生体認証装置と、
前記情報取得部に前記3次元情報を送る3次元センサと、
前記生体情報格納部と、
を備える生体認証システム。(Appendix 7)
The biometric authentication device according to any one of
A three-dimensional sensor that sends the three-dimensional information to the information acquisition unit;
The biological information storage unit;
A biometric authentication system.
(付記8)
対象生体の生体情報を含む3次元情報を順次取得し、
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを含む生体認証方法。(Appendix 8)
Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A biometric authentication method.
(付記9)
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に含む付記8に記載の生体認証方法。(Appendix 9)
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The biometric authentication method according to appendix 8, further comprising:
(付記10)
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる、
ことを更に含む付記9に記載の生体認証方法。(Appendix 10)
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The biometric authentication method according to
(付記11)
前記所定動作パターンが検出された場合に、前記誘導画像を変化させることを更に含む付記10に記載の生体認証方法。(Appendix 11)
The biometric authentication method according to
(付記12)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記生体特徴データの抽出は、前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部から、前記検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記8から11のいずれか1つに記載の生体認証方法。(Appendix 12)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The biometric feature data is extracted from an identification data storage unit that stores the correspondence between the motion position information of the predetermined motion pattern and each of the biometric identification data, and the biometric data corresponding to the detected motion position information of the predetermined motion pattern. Acquiring identification data, and extracting the biometric feature data associated with the acquired biometric identification data from the biometric information storage unit;
The biometric authentication method according to any one of appendices 8 to 11.
(付記13)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示画像の表示は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記12に記載の生体認証方法。(Appendix 13)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display image is displayed by changing at least one of the plurality of buttons according to detection of the predetermined operation pattern.
The biometric authentication method according to attachment 12.
(付記14)
少なくとも1つのコンピュータに、
対象生体の生体情報を含む3次元情報を順次取得し、
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを実行させるプログラム。(Appendix 14)
On at least one computer,
Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A program that lets you do that.
(付記15)
前記少なくとも1つのコンピュータに、
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に実行させる付記14に記載のプログラム。(Appendix 15)
Said at least one computer,
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The program according to appendix 14, further executing the above.
(付記16)
前記少なくとも1つのコンピュータに、
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる、
ことを更に実行させる付記15に記載のプログラム。(Appendix 16)
Said at least one computer,
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The program according to
(付記17)
前記少なくとも1つのコンピュータに、
前記所定動作パターンが検出された場合に、前記誘導画像を変化させることを更に実行させる付記16に記載のプログラム。(Appendix 17)
Said at least one computer,
The program according to appendix 16, further causing the guide image to be changed when the predetermined operation pattern is detected.
(付記18)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記生体特徴データの抽出は、前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部から、前記検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記14から17のいずれか1つに記載のプログラム。(Appendix 18)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The biometric feature data is extracted from an identification data storage unit that stores the correspondence between the motion position information of the predetermined motion pattern and each of the biometric identification data, and the biometric data corresponding to the detected motion position information of the predetermined motion pattern. Acquiring identification data, and extracting the biometric feature data associated with the acquired biometric identification data from the biometric information storage unit;
The program according to any one of appendices 14 to 17.
(付記19)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示画像の表示は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記18に記載のプログラム。(Appendix 19)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display image is displayed by changing at least one of the plurality of buttons according to detection of the predetermined operation pattern.
The program according to appendix 18.
(付記20)付記14から19のいずれか1つに記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。 (Supplementary note 20) A computer-readable recording medium in which the program according to any one of supplementary notes 14 to 19 is recorded.
この出願は、2012年1月30日に出願された日本出願特願2012−016933号を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2012-016933 for which it applied on January 30, 2012, and takes in those the indications of all here.
Claims (11)
前記情報取得部により取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、
複数の生体特徴データを格納する生体情報格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、
前記情報取得部により取得された前記3次元情報から前記対象生体の現生体特徴データを生成する特徴データ生成部と、
前記抽出部により抽出された生体特徴データと、前記特徴データ生成部により生成された前記対象生体の前記現生体特徴データとを照合する照合部と、
を備える生体認証装置。An information acquisition unit for sequentially acquiring three-dimensional information including biological information of the target biological body;
An operation detection unit for detecting a predetermined operation pattern of a predetermined part of the target living body from the three-dimensional information acquired by the information acquisition unit;
An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the motion detection unit from a biometric information storage unit that stores a plurality of biometric feature data;
A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit;
A collation unit for collating the biometric feature data extracted by the extraction unit with the current biometric feature data of the target living body generated by the feature data generation unit;
A biometric authentication device.
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
請求項1に記載の生体認証装置。The motion detector is
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space, and detecting the predetermined movement pattern of the predetermined part of the target living body in the detection space;
The biometric authentication device according to claim 1.
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記抽出部は、
前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部を含み、
前記識別データ格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
請求項1から4のいずれか1項に記載の生体認証装置。The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The extraction unit includes:
Including an identification data storage unit for storing a correspondence relationship between the movement position information of the predetermined movement pattern and each biometric identification data,
The biometric identification data corresponding to the motion position information of the predetermined motion pattern detected by the motion detection unit is acquired from the identification data storage unit, and the biometric feature data associated with the acquired biometric identification data is stored in the biometric feature data. Extract from the biological information storage unit,
The biometric authentication device according to any one of claims 1 to 4.
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示処理部は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
請求項5に記載の生体認証装置。The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display processing unit changes at least one of the plurality of buttons in response to detection of the predetermined operation pattern.
The biometric authentication device according to claim 5.
前記情報取得部に前記3次元情報を送る3次元センサと、
前記生体情報格納部と、
を備える生体認証システム。The biometric authentication device according to any one of claims 1 to 6,
A three-dimensional sensor that sends the three-dimensional information to the information acquisition unit;
The biological information storage unit;
A biometric authentication system.
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを含む生体認証方法。Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A biometric authentication method.
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に含む請求項8に記載の生体認証方法。A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The biometric authentication method according to claim 8 further comprising:
ことを更に含む請求項9に記載の生体認証方法。A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The biometric authentication method according to claim 9, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013556238A JPWO2013114806A1 (en) | 2012-01-30 | 2013-01-18 | Biometric authentication device and biometric authentication method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012016933 | 2012-01-30 | ||
JP2012016933 | 2012-01-30 | ||
JP2013556238A JPWO2013114806A1 (en) | 2012-01-30 | 2013-01-18 | Biometric authentication device and biometric authentication method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2013114806A1 true JPWO2013114806A1 (en) | 2015-05-11 |
Family
ID=48904858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013556238A Pending JPWO2013114806A1 (en) | 2012-01-30 | 2013-01-18 | Biometric authentication device and biometric authentication method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2013114806A1 (en) |
WO (1) | WO2013114806A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020503578A (en) * | 2016-10-13 | 2020-01-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | User identification and authentication using virtual reality |
JP2020535567A (en) * | 2017-09-15 | 2020-12-03 | エリプティック ラボラトリーズ エーエスElliptic Laboratories As | User authentication control using ultrasonic waves |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6418685B2 (en) * | 2014-12-16 | 2018-11-07 | 国立大学法人 鹿児島大学 | Authentication processing apparatus and authentication processing method |
CN106236060B (en) | 2015-06-04 | 2021-04-09 | 松下知识产权经营株式会社 | Biological information detection device |
JP6897831B2 (en) * | 2015-09-03 | 2021-07-07 | 日本電気株式会社 | Authentication device, security system, control method and program by authentication device |
WO2020022034A1 (en) * | 2018-07-25 | 2020-01-30 | 日本電気株式会社 | Information processing device, information processing method, and information processing program |
WO2020022014A1 (en) * | 2018-07-25 | 2020-01-30 | 日本電気株式会社 | Information processing device, information processing method, and information processing program |
US11003957B2 (en) | 2019-08-21 | 2021-05-11 | Advanced New Technologies Co., Ltd. | Method and apparatus for certificate identification |
US10974537B2 (en) | 2019-08-27 | 2021-04-13 | Advanced New Technologies Co., Ltd. | Method and apparatus for certificate identification |
JP7151830B2 (en) * | 2020-03-23 | 2022-10-12 | 日本電気株式会社 | Information processing device, security system, information processing method and program |
JP7226496B2 (en) * | 2020-09-30 | 2023-02-21 | 大日本印刷株式会社 | Personal authentication system, server, server program, transaction device and device program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078316A (en) * | 2002-08-09 | 2004-03-11 | Honda Motor Co Ltd | Attitude recognition device and autonomous robot |
JP2005292994A (en) * | 2004-03-31 | 2005-10-20 | Toshiba Corp | Personal recognition system and passage control system |
JP2009151424A (en) * | 2007-12-19 | 2009-07-09 | Sony Ericsson Mobilecommunications Japan Inc | Information processor, information processing method, information processing program, and portable terminal equipment |
JP2010541398A (en) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | Enhanced interface for voice and video communication |
-
2013
- 2013-01-18 WO PCT/JP2013/000217 patent/WO2013114806A1/en active Application Filing
- 2013-01-18 JP JP2013556238A patent/JPWO2013114806A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004078316A (en) * | 2002-08-09 | 2004-03-11 | Honda Motor Co Ltd | Attitude recognition device and autonomous robot |
JP2005292994A (en) * | 2004-03-31 | 2005-10-20 | Toshiba Corp | Personal recognition system and passage control system |
JP2010541398A (en) * | 2007-09-24 | 2010-12-24 | ジェスチャー テック,インコーポレイテッド | Enhanced interface for voice and video communication |
JP2009151424A (en) * | 2007-12-19 | 2009-07-09 | Sony Ericsson Mobilecommunications Japan Inc | Information processor, information processing method, information processing program, and portable terminal equipment |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020503578A (en) * | 2016-10-13 | 2020-01-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | User identification and authentication using virtual reality |
JP2020535567A (en) * | 2017-09-15 | 2020-12-03 | エリプティック ラボラトリーズ エーエスElliptic Laboratories As | User authentication control using ultrasonic waves |
Also Published As
Publication number | Publication date |
---|---|
WO2013114806A1 (en) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013114806A1 (en) | Biometric authentication device and biometric authentication method | |
US11755137B2 (en) | Gesture recognition devices and methods | |
US10394334B2 (en) | Gesture-based control system | |
Tian et al. | KinWrite: Handwriting-Based Authentication Using Kinect. | |
JP5205187B2 (en) | Input system and input method | |
KR20130099317A (en) | System for implementing interactive augmented reality and method for the same | |
Maisto et al. | An accurate algorithm for the identification of fingertips using an RGB-D camera | |
Aslan et al. | Mid-air authentication gestures: An exploration of authentication based on palm and finger motions | |
KR20110080327A (en) | Face recognition apparatus and method thereof | |
JP5964603B2 (en) | Data input device and display device | |
WO2019037257A1 (en) | Password input control device and method, and computer readable storage medium | |
JP6230666B2 (en) | Data input device, data input method, and data input program | |
KR101286750B1 (en) | Password estimation system using gesture. | |
Halarnkar et al. | Gesture recognition technology: a review | |
JP2007156768A (en) | Personal authentication device, personal authentication information registration device, personal authentication method, personal authentication information registration method, and computer program | |
JP2020107037A (en) | Information processing apparatus, information processing method, and program | |
JP2020107038A (en) | Information processing apparatus, information processing method, and program | |
Ducray et al. | Authentication based on a changeable biometric using gesture recognition with the kinect™ | |
Kanev et al. | A human computer interactions framework for biometric user identification | |
Abdrabou et al. | How Unique do we Move? Understanding the Human Body and Context Factors for User Identification | |
US11054941B2 (en) | Information processing system, information processing method, and program for correcting operation direction and operation amount | |
WO2020138119A1 (en) | Information processing device, information processing method, and recording medium | |
AlMazrouei | Using Eye Gaze For The Interaction With Natural Environments | |
Asgarov | Check for updates 3D-CNNs-Based Touchless Human-Machine Interface | |
Behera et al. | Localization of signatures in continuous Air writing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150811 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151006 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160112 |