JPWO2013114806A1 - Biometric authentication device and biometric authentication method - Google Patents

Biometric authentication device and biometric authentication method Download PDF

Info

Publication number
JPWO2013114806A1
JPWO2013114806A1 JP2013556238A JP2013556238A JPWO2013114806A1 JP WO2013114806 A1 JPWO2013114806 A1 JP WO2013114806A1 JP 2013556238 A JP2013556238 A JP 2013556238A JP 2013556238 A JP2013556238 A JP 2013556238A JP WO2013114806 A1 JPWO2013114806 A1 JP WO2013114806A1
Authority
JP
Japan
Prior art keywords
predetermined
biometric
information
living body
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013556238A
Other languages
Japanese (ja)
Inventor
一秀 梅田
一秀 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2013556238A priority Critical patent/JPWO2013114806A1/en
Publication of JPWO2013114806A1 publication Critical patent/JPWO2013114806A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Abstract

生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する取得部と、取得部により取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出する検出部と、複数の生体特徴データを格納する格納部から、検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、取得部により取得された3次元情報から対象生体の現生体特徴データを生成する生成部と、抽出部により抽出された生体特徴データと、生成部により生成された対象生体の現生体特徴データとを照合する照合部とを有する。The biometric authentication apparatus includes an acquisition unit that sequentially acquires three-dimensional information including biological information of a target biological body, a detection unit that detects a predetermined operation pattern of a predetermined part of the target biological body from the three-dimensional information acquired by the acquisition unit, An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the detection unit from the storage unit that stores a plurality of biometric feature data, and the three-dimensional acquired by the acquisition unit A generating unit that generates current biological feature data of the target living body from the information, a biometric feature data extracted by the extracting unit, and a matching unit that checks the current biological feature data of the target living body generated by the generating unit.

Description

本発明は、生体認証技術に関する。   The present invention relates to a biometric authentication technique.

モーションキャプチャ技術は、映画やゲームにおけるCG(Computer Graphics)キャラクタの生成やスポーツ分析等のように様々な分野で利用されている。近年では、Kinect(登録商標)と呼ばれるゲームデバイスが登場し、従来のようにマーカ装着が不要となったことから、モーションキャプチャ技術は身近なものとなりつつある。   The motion capture technology is used in various fields such as generation of CG (Computer Graphics) characters in movies and games and sports analysis. In recent years, a game device called Kinect (registered trademark) has appeared, and since there is no need to attach a marker as in the past, motion capture technology is becoming familiar.

モーションキャプチャ技術は、個人認証等のセキュリティ分野においても利用されている。これに伴い、認証対象者のジェスチャを用いた認証手法も提案されている。   Motion capture technology is also used in security fields such as personal authentication. Along with this, an authentication method using the gesture of the person to be authenticated has also been proposed.

下記特許文献1では、生体の所定部位の特定動作(目のまばたき)の検出を、顔画像の照合処理の開始のトリガとすることで、写真を用いた成りすましを防止し、ID番号の入力等の装置操作を不要とすることが提案されている。また、下記特許文献2では、認証対象者が所有する車両のキーによる認証と、認証対象者のジェスチャによる認証との両方の認証の結果により、車両などの機器の利用を許可する手法が提案されている。   In Patent Document 1 below, detection of a specific action (blink of eyes) of a predetermined part of a living body is used as a trigger for starting a collation process of a face image, so that impersonation using a photograph is prevented, an ID number is input, and the like It has been proposed that the operation of the apparatus is unnecessary. Patent Document 2 below proposes a method for permitting the use of a device such as a vehicle based on the results of both authentication using a vehicle key owned by the person to be authenticated and authentication using a gesture of the person to be authenticated. ing.

特開2002−251614号公報JP 2002-251614 A 特開2010−176487号公報JP 2010-176487 A

しかしながら、上述の特許文献1及び2で提案される各手法では、ジェスチャを用いた認証と他方式の認証とを効果的に連携させることができていない。   However, in each method proposed in Patent Documents 1 and 2 described above, authentication using a gesture and authentication using another method cannot be effectively linked.

具体的には、上記特許文献1で提案される手法は、単に、特定ジェスチャの検出を顔画像照合を開始する上でのトリガとして利用しているに過ぎないため、個人認証自体がジェスチャを用いて行われるわけではない。また、上記特許文献2で提案される手法は、ジェスチャ間の照合と他情報(キー情報)間の照合とを別々に実行しているに過ぎないため、最終的な認証結果が得られるためには両照合処理が完了しなければならない。よって、この手法では、照合処理時間の効率化が図られていない。   Specifically, since the technique proposed in Patent Document 1 merely uses detection of a specific gesture as a trigger for starting face image matching, personal authentication itself uses a gesture. Is not done. In addition, since the technique proposed in Patent Document 2 merely performs verification between gestures and verification between other information (key information) separately, a final authentication result can be obtained. Both verification processes must be completed. Therefore, in this method, the efficiency of collation processing time is not achieved.

本発明は、このような事情に鑑みてなされたものであり、生体の動作を用いた生体認証を効率よく実行する技術を提供する。   The present invention has been made in view of such circumstances, and provides a technique for efficiently performing biometric authentication using a biometric action.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様は、生体認証装置に関する。第1態様に係る生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、情報取得部により取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出する動作検出部と、複数の生体特徴データを格納する生体情報格納部から、動作検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、情報取得部により取得された3次元情報から対象生体の現生体特徴データを生成する特徴データ生成部と、抽出部により抽出された生体特徴データと、特徴データ生成部により生成された対象生体の現生体特徴データと、を照合する照合部と、を備える。   The first aspect relates to a biometric authentication device. The biometric authentication device according to the first aspect includes an information acquisition unit that sequentially acquires three-dimensional information including biometric information of a target biological body, and a predetermined operation of a predetermined part of the target biological body from the three-dimensional information acquired by the information acquisition unit. Extraction that extracts biometric feature data specified using motion position information of a predetermined motion pattern detected by the motion detection unit from a motion detection unit that detects a pattern and a biometric information storage unit that stores a plurality of biometric feature data , A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit, biometric feature data extracted by the extraction unit, and a target generated by the feature data generation unit A collation unit that collates the current biological feature data of the biological body.

第2の態様は、生体認証方法に関する。第2態様に係る生体認証方法は、対象生体の生体情報を含む3次元情報を順次取得し、取得された3次元情報から、対象生体の所定部位の所定の動作パターンを検出し、複数の生体特徴データを格納する生体情報格納部から、検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、取得された3次元情報から対象生体の現生体特徴データを生成し、抽出された生体特徴データと、生成された対象生体の現生体特徴データとを照合する、ことを含む。   The second aspect relates to a biometric authentication method. The biometric authentication method according to the second aspect sequentially acquires three-dimensional information including biological information of a target living body, detects a predetermined operation pattern of a predetermined part of the target living body from the acquired three-dimensional information, and a plurality of living bodies From the biometric information storage unit that stores the feature data, the biometric feature data specified by using the motion position information of the detected predetermined motion pattern is extracted, and the current biometric feature data of the target living body is generated from the acquired three-dimensional information And comparing the extracted biometric feature data with the generated current biometric feature data of the target biometric.

なお、本発明の他の態様としては、第1態様に係る生体認証装置と、上記情報取得部に3次元情報を送る3次元センサと、上記生体情報格納部とを有する生体認証システムであってもよいし、第1態様の構成をコンピュータに実現させるコンピュータプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   According to another aspect of the present invention, there is provided a biometric authentication system including the biometric authentication device according to the first aspect, a three-dimensional sensor that sends three-dimensional information to the information acquisition unit, and the biometric information storage unit. Alternatively, it may be a computer program that causes a computer to realize the configuration of the first aspect, or a computer-readable recording medium that records such a program. This recording medium includes a non-transitory tangible medium.

本発明の各態様によれば、生体の動作を用いた生体認証を効率よく実行する技術を提供することができる。   According to each aspect of the present invention, it is possible to provide a technique for efficiently performing biometric authentication using a biological action.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。   The above-described object and other objects, features, and advantages will become more apparent from the preferred embodiments described below and the accompanying drawings.

図1は、第1実施形態における顔画像認証装置のハードウェア構成例を概念的に示す図である。FIG. 1 is a diagram conceptually illustrating a hardware configuration example of the face image authentication apparatus in the first embodiment. 図2は、第1実施形態における顔画像認証装置の処理構成例を概念的に示す図である。FIG. 2 is a diagram conceptually illustrating a processing configuration example of the face image authentication apparatus in the first embodiment. 図3は、識別データ格納部の例を示す図である。FIG. 3 is a diagram illustrating an example of the identification data storage unit. 図4は、生体情報格納部の例を示す図である。FIG. 4 is a diagram illustrating an example of the biological information storage unit. 図5は、第1実施形態における顔画像認証装置の動作例を示すフローチャートである。FIG. 5 is a flowchart illustrating an operation example of the face image authentication apparatus according to the first embodiment. 図6は、実施例における表示画像の遷移例を示す図である。FIG. 6 is a diagram illustrating a transition example of the display image in the embodiment. 図7は、実施例における表示画像の遷移例を示す図である。FIG. 7 is a diagram illustrating a transition example of the display image in the embodiment. 図8は、実施例における表示画像の遷移例を示す図である。FIG. 8 is a diagram illustrating a transition example of the display image in the embodiment.

以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.

本実施形態に係る生体認証装置は、対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、この情報取得部により取得された3次元情報から、上記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、複数の生体特徴データを格納する生体情報格納部から、動作検出部により検出された所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、情報取得部により取得された3次元情報から上記対象生体の現生体特徴データを生成する特徴データ生成部と、抽出部により抽出された生体特徴データと、特徴データ生成部により生成された対象生体の現生体特徴データと、を照合する照合部と、を有する。本実施形態は、このような各処理部に実行される各動作を含む生体認証方法でもあり、このような各処理部をコンピュータに実現させるプログラムやこのプログラムを格納する記録媒体でもある。   The biometric authentication device according to the present embodiment includes an information acquisition unit that sequentially acquires three-dimensional information including biometric information of a target living body, and a predetermined part of the target biological body that is obtained from the three-dimensional information acquired by the information acquisition unit. The biometric feature data specified using the motion position information of the predetermined motion pattern detected by the motion detection unit is extracted from the motion detection unit that detects the motion pattern and the biometric information storage unit that stores a plurality of biometric feature data. Generated by the extraction unit, the feature data generation unit that generates the current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit, the biological feature data extracted by the extraction unit, and the feature data generation unit And a collation unit that collates the current biological feature data of the target biological body. The present embodiment is also a biometric authentication method including each operation executed by each processing unit, and is a program that causes a computer to realize each processing unit and a recording medium that stores the program.

ここで、情報取得部は、3次元センサとして3次元情報を自ら生成してもよいし、外部の3次元センサから当該3次元情報を取得してもよい。また、取得された3次元情報に含まれる生体情報は、人の全身の情報であってもよいし、上半身や下半身のみの情報であってもよいし、頭、手、足などのように或る所定部分の情報であってもよい。また、当該3次元情報により、対象生体の生体画像が生成可能である。   Here, the information acquisition unit may generate three-dimensional information by itself as a three-dimensional sensor, or may acquire the three-dimensional information from an external three-dimensional sensor. Further, the biological information included in the acquired three-dimensional information may be information on the whole body of the person, information on only the upper body and lower body, or a head, hand, foot, or the like. It may be information on a predetermined part. In addition, a living body image of the target living body can be generated from the three-dimensional information.

生体情報格納部は、本実施形態に係る生体認証装置に含まれてもよいし、他の装置(サーバ装置等)が有していてもよい。また、生体特徴データ及び現生体特徴データは、当該3次元情報から取得可能な情報であればよく、例えば、顔、目(虹彩)、手(指紋、静脈)等である。   The biometric information storage unit may be included in the biometric authentication device according to the present embodiment, or may be included in another device (such as a server device). The biometric feature data and the current biometric feature data may be any information that can be acquired from the three-dimensional information, such as a face, eyes (iris), and hands (fingerprints and veins).

上述のように、本実施形態では、対象生体の所定部位の所定動作パターンが検出され、生体情報格納部の中からこの所定動作パターンの動作位置情報により特定される生体特徴データと、対象生体から抽出される現生体特徴データとを用いた1対1照合が実行される。即ち、本実施形態では、所定動作パターン、即ち、所定ジェスチャの動作位置情報をキーとして用いて、1対1照合の生体特徴データが特定される。これは、検出される所定動作パターンの動作位置が対象生体毎に固有に決められることで実現可能である。   As described above, in the present embodiment, a predetermined motion pattern of a predetermined part of the target living body is detected, and the biological feature data specified by the motion position information of the predetermined motion pattern from the biological information storage unit, and the target biological body One-to-one matching is performed using the extracted current biological feature data. That is, in the present embodiment, biometric feature data for one-to-one matching is specified using a predetermined motion pattern, that is, motion position information of a predetermined gesture, as a key. This can be realized by uniquely determining the motion position of the predetermined motion pattern to be detected for each target living body.

これにより、従来の1対1照合では、照合対象となる1つの生体特徴データを特定するために、ユーザIDやパスワード等の入力操作を要していたところ、本実施形態によれば、そのような入力操作が不要となる。更に、本実施形態によれば、1対1照合が行われるため、1対多照合と比べて、高速かつ高精度に認証処理を行うことができる。このように、本実施形態によれば、生体の所定動作が効果的に利用され、生体情報の1対1照合が実行されるため、生体の動作を用いた生体認証を効率よくかつ高精度に実行することができる。   As a result, in the conventional one-to-one matching, an input operation such as a user ID or a password is required to specify one piece of biometric feature data to be verified. Input operation is unnecessary. Furthermore, according to the present embodiment, since one-to-one matching is performed, authentication processing can be performed at higher speed and higher accuracy than one-to-many matching. As described above, according to the present embodiment, the predetermined action of the living body is effectively used and the one-to-one matching of the living body information is executed. Therefore, the biometric authentication using the action of the living body can be performed efficiently and with high accuracy. Can be executed.

以下、上述の実施形態について更に詳細を説明する。以下に示す各詳細実施形態は、上述の実施形態における生体認証装置の構成を顔画像認証に適用した場合の例である。なお、上述の実施形態は、認証に用いられる生体情報を顔画像に限定せず、様々な生体認証に適用可能である。   Hereinafter, the details of the above-described embodiment will be described. Each detailed embodiment shown below is an example when the configuration of the biometric authentication device in the above-described embodiment is applied to face image authentication. Note that the above-described embodiment is applicable to various biometric authentications without limiting the biometric information used for authentication to a face image.

[第1実施形態]
〔装置構成〕
図1は、第1実施形態における顔画像認証装置(以降、単に認証装置とも表記する)10のハードウェア構成例を概念的に示す図である。第1実施形態における認証装置10は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。
[First Embodiment]
〔Device configuration〕
FIG. 1 is a diagram conceptually illustrating a hardware configuration example of a face image authentication device (hereinafter simply referred to as an authentication device) 10 according to the first embodiment. The authentication device 10 according to the first embodiment is a so-called computer, and includes, for example, a CPU (Central Processing Unit) 2, a memory 3, an input / output interface (I / F) 4, and the like that are connected to each other via a bus 5. The memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.

入出力I/F4は、図1に示されるように、3次元センサ7、表示部9等と接続される。表示部9は、ディスプレイ等の表示装置である。なお、本実施形態は、入出力I/F4に接続される機器を制限せず、キーボード、マウス等のようなユーザ操作の入力を受け付ける入力部や、プリンタや、ネットワーク(図示せず)を介して他のコンピュータと通信を行う通信装置等と接続されてもよい。認証装置10のハードウェア構成は制限されない。   As shown in FIG. 1, the input / output I / F 4 is connected to the three-dimensional sensor 7, the display unit 9, and the like. The display unit 9 is a display device such as a display. Note that this embodiment does not limit devices connected to the input / output I / F 4, but via an input unit that accepts user operation input such as a keyboard and a mouse, a printer, and a network (not shown). It may be connected to a communication device or the like that communicates with other computers. The hardware configuration of the authentication device 10 is not limited.

3次元センサ7は、対象者の生体情報を含む3次元情報を検出する。検出される3次元情報は、可視光により得られる対象者の2次元像(画像)の情報と、3次元センサ7からの距離の情報とを含む。以降、3次元センサ7からの距離を示す軸がZ軸と表記される。3次元センサ7は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを対象者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから対象者までの距離が算出される。   The three-dimensional sensor 7 detects three-dimensional information including the subject's biological information. The detected three-dimensional information includes information on the two-dimensional image (image) of the subject obtained by visible light and information on the distance from the three-dimensional sensor 7. Hereinafter, the axis indicating the distance from the three-dimensional sensor 7 is denoted as the Z axis. The three-dimensional sensor 7 is realized by a visible light camera and a distance image sensor like Kinect (registered trademark), for example. A distance image sensor, also called a depth sensor, irradiates a subject with a near-infrared light pattern from a laser and captures the pattern with a camera that detects the near-infrared light. The distance to the person is calculated.

なお、3次元センサ7の実現手法は制限されず、当該3次元センサ7は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図1では、1つの3次元センサ7のみが図示されるが、3次元センサ7として、対象者の2次元画像を撮像する可視光カメラ及び対象者までの距離を検出するセンサといった複数の機器が設けられてもよい。   The method for realizing the three-dimensional sensor 7 is not limited, and the three-dimensional sensor 7 may be realized by a three-dimensional scanner method using a plurality of visible light cameras. In FIG. 1, only one three-dimensional sensor 7 is illustrated. However, as the three-dimensional sensor 7, a plurality of sensors such as a visible light camera that captures a two-dimensional image of the subject and a sensor that detects a distance to the subject. Equipment may be provided.

図2は、第1実施形態における認証装置10の処理構成例を概念的に示す図である。第1実施形態における認証装置10は、情報取得部11、動作検出部13、抽出部15、特徴データ生成部17、照合部19、識別データ格納部21、生体情報格納部23、表示処理部25等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。   FIG. 2 is a diagram conceptually illustrating a processing configuration example of the authentication device 10 in the first embodiment. The authentication device 10 according to the first embodiment includes an information acquisition unit 11, an operation detection unit 13, an extraction unit 15, a feature data generation unit 17, a collation unit 19, an identification data storage unit 21, a biometric information storage unit 23, and a display processing unit 25. Etc. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 4 and stored in the memory 3. Good.

情報取得部11は、3次元センサ7から、対象者(対象生体)の生体情報を含む3次元情報を順次取得する。この3次元情報は、対象者の生体情報と、3次元センサ7からの距離の情報とを含めば、その実現形式は制限されない。当該3次元情報の取得速度は、任意であるが、その取得速度は、許容される操作者の動作速度に関連する。つまり、その取得速度が速ければ、許容される操作者の動作速度も速くなる。   The information acquisition unit 11 sequentially acquires three-dimensional information including biological information of the target person (target biological body) from the three-dimensional sensor 7. As long as the three-dimensional information includes the biological information of the subject and the information on the distance from the three-dimensional sensor 7, the form of realization is not limited. The acquisition speed of the three-dimensional information is arbitrary, but the acquisition speed is related to an allowable operation speed of the operator. That is, if the acquisition speed is high, the allowable operation speed of the operator is also high.

動作検出部13は、情報取得部11により取得された3次元情報から、対象者の所定部位の所定の動作パターンを検出する。具体的には、動作検出部13は、当該3次元情報から対象者の所定部位を認識し、順次取得される3次元情報が示す3次元中の所定次元の所定方向における、対象者の所定部位の所定幅の移動を所定動作パターンとして検出する。   The motion detection unit 13 detects a predetermined motion pattern of a predetermined part of the subject from the three-dimensional information acquired by the information acquisition unit 11. Specifically, the motion detection unit 13 recognizes the predetermined part of the target person from the three-dimensional information, and the predetermined part of the target person in the predetermined direction of the predetermined dimension in the three dimensions indicated by the sequentially acquired three-dimensional information. Is detected as a predetermined motion pattern.

所定部位の認識には、一般的な画像認識(パターン認識)の技術が利用されればよいため、ここでは説明を簡略化する。例えば、画像の中から、人体、顔、目、口等を認識する手法は周知である。動作検出部13は、このような周知な手法を用いて、対象者の3次元情報から対象者の所定部位を認識する。   Since recognition of a predetermined part should just use the technique of general image recognition (pattern recognition), description is simplified here. For example, a technique for recognizing a human body, face, eyes, mouth and the like from an image is well known. The motion detection unit 13 recognizes a predetermined part of the subject from the three-dimensional information of the subject using such a well-known method.

動作検出部13は、当該3次元情報に含まれる対象者の生体画像に基づいて対象者の所定基準部位を認識し、この所定基準部位との位置関係に基づいて当該所定部位を認識するようにしてもよい。例えば、動作検出部13は、所定基準部位として顔を認識した後、この顔より、Z軸で3次元センサ7に近い位置にあるものを対象者の両手と認識し、各手のひらの中心部を所定部位として認識する。   The motion detection unit 13 recognizes the predetermined reference portion of the subject based on the biological image of the subject included in the three-dimensional information, and recognizes the predetermined portion based on the positional relationship with the predetermined reference portion. May be. For example, the motion detection unit 13 recognizes a face as a predetermined reference portion, and then recognizes a face closer to the three-dimensional sensor 7 on the Z axis than the face as both hands of the subject person, and sets the center of each palm. Recognized as a predetermined part.

なお、対象者の所定部位が認識可能であれば、所定基準部位及び所定部位は制限されない。所定部位が各足のつま先に設定され、かつ、所定基準部位が両足に設定されている場合には、生体画像から両足が認識され、距離情報から、両足の部分において最も3次元センサ7に近い位置にあるものが対象者の各つま先であると認識される。   Note that the predetermined reference portion and the predetermined portion are not limited as long as the predetermined portion of the subject can be recognized. When the predetermined part is set on the toes of each foot and the predetermined reference part is set on both feet, both feet are recognized from the biological image, and from the distance information, the portion of both feet is closest to the three-dimensional sensor 7 What is in position is recognized as each toe of the subject.

所定動作パターンとしての上記移動の検出には、一般的なモーションキャプチャ技術が利用されればよい。このモーションキャプチャ技術自体は、周知であるため、ここではそれ自体の説明を省略する。例えば、動作検出部13は、対象者の手のひらが当該3次元情報のZ軸の3次元センサ7に近づく方向に所定幅(例えば、実世界の20センチメートル(cm)に相当する当該3次元情報内における幅)移動したことを検出する。   For the detection of the movement as the predetermined operation pattern, a general motion capture technique may be used. Since this motion capture technique itself is well known, description of itself is omitted here. For example, the motion detection unit 13 has a predetermined width (for example, 20 centimeters (cm) in the real world) in a direction in which the palm of the subject approaches the Z-axis 3D sensor 7 of the 3D information. Detects that it has moved).

この例の所定動作パターンは、対象者が手のひらを或る位置から前方(3次元センサ7方向)に突き出す動作となる。この例では、Z軸と直交する平面座標上、どの位置で手のひらが突き出されたとしても、動作検出部13は、その動作を所定動作パターンとして検出することになる。例えば、手のひらが、頭の上、顔の前及び胸の前の位置からそれぞれ突き出された場合には、各動作がそれぞれ検出される。   The predetermined operation pattern of this example is an operation in which the subject projects the palm forward from a certain position (in the direction of the three-dimensional sensor 7). In this example, the motion detector 13 detects the motion as a predetermined motion pattern regardless of the position at which the palm protrudes on the plane coordinates orthogonal to the Z axis. For example, when the palm is protruded from the position on the head, in front of the face, and in front of the chest, each motion is detected.

動作検出部13は、このような所定動作パターンの検出空間を設定してもよい。即ち、動作検出部13は、情報取得部11により取得された3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、この検出空間外における対象者の所定部位の動作を除外し、検出空間内における対象者の所定部位の所定動作パターンを検出する。検出空間の設定により、動作検出部13は、その空間を示す座標情報を取得する。なお、対象者の所定部位が届く範囲であれば、検出空間の位置及び大きさは制限されない。動作検出部13は、このように設定された検出空間内での対象者の動作のみを、所定動作パターンの検出対象とする。   The motion detection unit 13 may set a detection space for such a predetermined motion pattern. In other words, the motion detection unit 13 sets a detection space of a predetermined size at a predetermined position in the three-dimensional space indicated by the three-dimensional information acquired by the information acquisition unit 11, and the predetermined part of the subject outside the detection space is set. The motion is excluded, and a predetermined motion pattern of a predetermined portion of the subject in the detection space is detected. By setting the detection space, the motion detection unit 13 acquires coordinate information indicating the space. Note that the position and size of the detection space are not limited as long as the predetermined part of the subject can be reached. The motion detection unit 13 sets only the motion of the subject in the detection space set in this way as the detection target of the predetermined motion pattern.

動作検出部13は、当該3次元情報から対象者の所定部位を検出し、この検出された所定部位又は対象者の他の所定部位と所定位置関係を示す位置に、当該検出空間を設定してもよい。例えば、所定部位が手のひらの中心部である場合、動作検出部13は、他の所定部位として認識された顔と略同じ高さの位置で、顔から3次元センサ7方向に両手が届く範囲の位置に、両手が届く範囲の大きさの空間領域を設定する。   The motion detection unit 13 detects a predetermined part of the subject from the three-dimensional information and sets the detection space at a position indicating a predetermined positional relationship with the detected predetermined part or another predetermined part of the subject. Also good. For example, when the predetermined part is the center part of the palm, the motion detection unit 13 is in a range where both hands reach from the face in the direction of the three-dimensional sensor 7 at a position substantially the same height as the face recognized as another predetermined part. A spatial area having a size that can be reached by both hands is set at the position.

所定動作パターンは、1つの所定動作であっても、2以上の所定動作の組み合わせであってもよい。2以上の所定動作の組み合わせは、複数の異なる移動形態の組み合わせであってもよいし、複数の同じ移動形態であってもよいし、それらの組み合わせであってもよい。例えば、所定動作パターンが、手のひらを前方に突き出す動作が所定回数行われることであってもよいし、手のひらを前方に突き出す動作が2回と手のひらを手前に引く動作が3回とから構成されてもよい。   The predetermined operation pattern may be one predetermined operation or a combination of two or more predetermined operations. The combination of two or more predetermined movements may be a combination of a plurality of different movement forms, a plurality of the same movement forms, or a combination thereof. For example, the predetermined motion pattern may be that the operation of pushing the palm forward is performed a predetermined number of times, or the operation of pushing the palm forward is composed of two times and the operation of pulling the palm forward is composed of three times. Also good.

動作検出部13は、当該検出空間内における所定動作パターンを検出すると、検出された所定動作パターンの動作位置情報を保持する。動作位置情報とは、所定動作パターンに含まれる所定動作、即ち、上記移動が行われた位置を示す情報である。所定動作パターンが複数の所定動作を含む場合には、当該動作位置情報は、各移動が行われた各位置情報を含む。例えば、所定動作パターンが手のひらをZ軸方向に3回突き出す動作である場合には、当該動作位置情報は、Z軸と直交する平面座標上の、当該動作が行われた3つの位置を示す。   When detecting the predetermined motion pattern in the detection space, the motion detection unit 13 holds the motion position information of the detected predetermined motion pattern. The movement position information is information indicating a predetermined movement included in the predetermined movement pattern, that is, a position where the movement is performed. When the predetermined motion pattern includes a plurality of predetermined motions, the motion position information includes the position information on which each movement has been performed. For example, when the predetermined motion pattern is a motion of protruding the palm three times in the Z-axis direction, the motion position information indicates three positions where the motion is performed on the plane coordinates orthogonal to the Z-axis.

図3は、識別データ格納部21の例を示す図である。図3に示されるように、識別データ格納部21は、所定動作パターンの動作位置情報と、各生体識別データとの対応関係を格納する。図3の例では、生体識別データが個人ID(Identification)と表記されており、各個人IDについて、第1位置情報から第5位置情報がそれぞれ格納される。図3の例によれば、所定動作パターンの動作位置情報は、1つの位置を示してもよいし、5以下の複数の位置を示してもよい。   FIG. 3 is a diagram illustrating an example of the identification data storage unit 21. As shown in FIG. 3, the identification data storage unit 21 stores the correspondence between the motion position information of the predetermined motion pattern and each biometric identification data. In the example of FIG. 3, the biometric identification data is described as a personal ID (Identification), and the first position information to the fifth position information are stored for each personal ID. According to the example of FIG. 3, the operation position information of the predetermined operation pattern may indicate one position, or may indicate a plurality of positions of 5 or less.

図4は、生体情報格納部23の例を示す図である。図4に示されるように、生体情報格納部23は、複数の生体特徴データと、各生体特徴データと関連付けられた生体識別データとを格納する。図4の例では、生体識別データが個人IDと表記されている。生体情報格納部23に格納される各生体特徴データは、各個人の正当性を示すために、予め各個人から正当に取得された各生体情報である。当該生体特徴データは、例えば、各個人の顔画像から取得される顔の特徴を示すデータである。なお、各個人から生体情報として生体特徴データを抽出する手法や、生体特徴データ自体の構成は、周知の生体認証技術で利用される周知のものが利用されればよいため、ここでは詳細説明を省略する。   FIG. 4 is a diagram illustrating an example of the biometric information storage unit 23. As shown in FIG. 4, the biometric information storage unit 23 stores a plurality of biometric feature data and biometric identification data associated with each biometric feature data. In the example of FIG. 4, the biometric identification data is written as a personal ID. Each biometric feature data stored in the biometric information storage unit 23 is each biometric information legitimately acquired from each individual in advance in order to indicate the legitimacy of each individual. The biometric feature data is, for example, data indicating facial features acquired from each individual's facial image. The method for extracting biometric feature data as biometric information from each individual and the configuration of the biometric feature data itself may be a well-known one used in a well-known biometric authentication technique. Omitted.

抽出部15は、識別データ格納部21から、動作検出部13により検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた生体特徴データを生体情報格納部23から抽出する。図3及び図4の例では、抽出部15は、所定動作パターンの動作位置情報(複数の位置情報)に対応する個人IDを識別データ格納部21から抽出し、その個人IDに関連付けられた生体特徴データを生体情報格納部23から抽出する。抽出部15は、識別データ格納部21の各位置情報が、当該動作位置情報が示す各位置から所定許容領域内に含まれているレコードを識別データ格納部21で特定し、その特定されたレコードから当該個人IDを抽出してもよい。   The extraction unit 15 acquires biometric identification data corresponding to the motion position information of the predetermined motion pattern detected by the motion detection unit 13 from the identification data storage unit 21, and the biometric feature associated with the acquired biometric identification data. Data is extracted from the biological information storage unit 23. In the example of FIGS. 3 and 4, the extraction unit 15 extracts the personal ID corresponding to the motion position information (a plurality of position information) of the predetermined motion pattern from the identification data storage unit 21, and the living body associated with the personal ID Feature data is extracted from the biometric information storage unit 23. The extraction unit 15 uses the identification data storage unit 21 to specify the records in which the position information of the identification data storage unit 21 is included in the predetermined allowable area from the positions indicated by the operation position information. From the above, the personal ID may be extracted.

特徴データ生成部17は、情報取得部11により取得された3次元情報から対象生体の生体特徴データを生成する。特徴データ生成部17により生成される生体特徴データは、生体情報格納部23に格納される生体特徴データと区別するために、現生体特徴データと表記される。例えば、特徴データ生成部17は、当該3次元情報に含まれる2次元の生体画像から対象生体の現生体特徴データを生成する。なお、特徴データ生成部17による生体特徴データの生成手法自体は、周知の生体認証技術で利用される周知の手法が利用されればよいため、ここでは詳細説明を省略する。   The feature data generation unit 17 generates biometric feature data of the target living body from the three-dimensional information acquired by the information acquisition unit 11. The biometric feature data generated by the feature data generation unit 17 is represented as current biometric feature data in order to distinguish it from the biometric feature data stored in the biometric information storage unit 23. For example, the feature data generation unit 17 generates current biological feature data of the target living body from a two-dimensional biological image included in the three-dimensional information. Note that the biometric feature data generation method itself by the feature data generation unit 17 may be a well-known method used in a well-known biometric authentication technique, and thus detailed description thereof is omitted here.

照合部19は、生体情報格納部23から抽出された生体特徴データと、特徴データ生成部17により生成された当該対象生体の現生体特徴データとを照合する。生体特徴データ間の照合については生体認証において周知の手法が利用されればよいため、ここでは説明を省略する。照合部19は、この照合結果を示す出力データを生成し、入出力I/F4を介して表示部9や他の出力装置にその照合結果を出力する。   The collation unit 19 collates the biometric feature data extracted from the biometric information storage unit 23 with the current biometric feature data of the target living body generated by the feature data generation unit 17. As for collation between biometric feature data, a well-known method may be used in biometric authentication, and thus description thereof is omitted here. The collation unit 19 generates output data indicating the collation result, and outputs the collation result to the display unit 9 and other output devices via the input / output I / F 4.

表示処理部25は、入出力I/F4を介して画面データを送ることにより、表示部9に所定の表示画像を表示させる。具体的には、表示処理部25は、情報取得部11により取得された3次元情報から生成される対象生体の生体画像又はその生体画像を模写する生体模写画像と、当該対象生体に所定動作パターンを動作させるように誘導する誘導画像と、を含む表示画像を表示部9に表示させる。その表示画像では、誘導画像の少なくとも一部が表示画像内における動作検出部13により設定される当該検出空間に相当する空間内に配置される。生体模写画像とは、例えば、対象者を模写したアニメーション画像である。   The display processing unit 25 causes the display unit 9 to display a predetermined display image by sending screen data via the input / output I / F 4. Specifically, the display processing unit 25 includes a living body image of the target living body generated from the three-dimensional information acquired by the information acquiring unit 11 or a living body replicated image that replicates the living body image, and a predetermined operation pattern on the target living body. A display image including a guide image that guides the user to operate is displayed on the display unit 9. In the display image, at least a part of the guide image is arranged in a space corresponding to the detection space set by the motion detection unit 13 in the display image. A living body replicated image is, for example, an animation image that replicates a subject.

表示処理部25は、所定タイミングで、上記誘導画像を上記表示画像内に表示させるようにしてもよい。この所定タイミングは、例えば、動作検出部13が、情報取得部11により取得された3次元情報が示す3次元空間内に対象者の所定部位を検出したタイミングであってもよいし、動作検出部13による所定動作パターンの検出処理の開始のトリガに設定される、対象者の所定ポーズを検出したタイミングであってもよい。また、表示処理部25は、動作検出部13により所定動作パターンが検出された場合に、当該所定動作パターンに対応する形に誘導画像を変化させるようにしてもよい。   The display processing unit 25 may display the guide image in the display image at a predetermined timing. The predetermined timing may be, for example, a timing when the motion detection unit 13 detects a predetermined part of the subject in the three-dimensional space indicated by the three-dimensional information acquired by the information acquisition unit 11, or the motion detection unit 13 may be a timing at which a predetermined pose of the subject is detected, which is set as a trigger for starting the detection process of the predetermined motion pattern by 13. Further, when the predetermined motion pattern is detected by the motion detection unit 13, the display processing unit 25 may change the induced image into a shape corresponding to the predetermined motion pattern.

誘導画像としては、所定動作パターンを説明する文章が表示されてもよいし、ボタン、ダイヤル、ネジ等のような表示画像内の仮想対象者に操作可能なユーザインタフェースを持つ画像が表示されてもよい。例えば、所定動作パターンが、表示画像内の仮想対象者がボタンを押下する動作に対応する場合、表示処理部25は、複数のボタンが配列された誘導画像を当該表示画像内に表示させてもよい。この場合、表示処理部25は、対象者の動作が反映される対象者の生体画像又は当該生体模写画像の動きに対応する所定動作パターンの検出に応じて、複数のボタンの少なくとも1つを変色させてもよいし、押下された状態に変化させてもよい。   As the guidance image, a sentence explaining a predetermined operation pattern may be displayed, or an image having a user interface that can be operated by a virtual subject in a display image such as a button, a dial, or a screw is displayed. Good. For example, when the predetermined operation pattern corresponds to an operation in which a virtual subject in the display image presses a button, the display processing unit 25 may display a guide image in which a plurality of buttons are arranged in the display image. Good. In this case, the display processing unit 25 changes the color of at least one of the plurality of buttons in response to detection of a predetermined action pattern corresponding to the movement of the target person's biological image or the living body replicated image in which the action of the target person is reflected. Or may be changed to a pressed state.

〔動作例〕
以下、第1実施形態における顔画像認証方法について説明する。図5は、第1実施形態における認証装置10の動作例を示すフローチャートである。
[Operation example]
Hereinafter, the face image authentication method according to the first embodiment will be described. FIG. 5 is a flowchart illustrating an operation example of the authentication device 10 according to the first embodiment.

認証装置10は、対象者の生体情報を含む3次元情報を順次取得する(S51)。この3次元情報は、上述のように3次元センサ7により検出された情報から取得されてもよいし、他の装置から取得されてもよい。   The authentication device 10 sequentially acquires three-dimensional information including the subject's biological information (S51). This three-dimensional information may be acquired from the information detected by the three-dimensional sensor 7 as described above, or may be acquired from another device.

認証装置10は、順次取得される対象者の3次元情報に基づいて、対象者の所定部位の所定動作パターンを検出する(S52)。このとき、認証装置10は、3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、この検出空間を所定動作パターンの検出領域に設定してもよい。また、認証装置10は、対象者の生体画像又はこの生体画像を模写する生体模写画像と、対象者に所定動作パターンを動作するように誘導する誘導画像とを含む表示画像を表示部9に表示させてもよい。この場合、認証装置10は、対象者の所定動作パターンの検出に応じて、その表示画像内の誘導画像を変形させてもよい。   The authentication device 10 detects a predetermined motion pattern of a predetermined part of the subject based on the three-dimensional information of the subject acquired sequentially (S52). At this time, the authentication apparatus 10 may set a detection space of a predetermined size at a predetermined position in the three-dimensional space indicated by the three-dimensional information, and set this detection space as a detection region of a predetermined motion pattern. Further, the authentication device 10 displays a display image including a biological image of the subject person or a biologically replicated image that duplicates the biological image and a guidance image that guides the subject person to operate a predetermined operation pattern on the display unit 9. You may let them. In this case, the authentication device 10 may deform the guide image in the display image in response to detection of the predetermined motion pattern of the subject.

認証装置10は、所定動作パターンの検出後、検出された所定動作パターンの動作位置情報に対応する生体識別データを識別データ格納部21から抽出する(S53)。所定動作パターンが複数の或る動作の組み合わせの場合には、各動作が行われた位置情報の組み合わせに対応する生体識別データが抽出される。   After detecting the predetermined motion pattern, the authentication device 10 extracts biometric identification data corresponding to the detected motion position information of the predetermined motion pattern from the identification data storage unit 21 (S53). When the predetermined action pattern is a combination of a plurality of actions, biometric identification data corresponding to the combination of position information where each action is performed is extracted.

認証装置10は、複数人の生体特徴データを格納する生体情報格納部23から、(S53)で抽出された生体識別データに対応する生体特徴データを抽出する(S54)。   The authentication device 10 extracts biometric feature data corresponding to the biometric identification data extracted in (S53) from the biometric information storage unit 23 that stores biometric feature data of a plurality of persons (S54).

認証装置10は、順次取得される対象者の3次元情報に基づいて、対象者の現生体特徴データを生成する(S55)。   The authentication device 10 generates current biological feature data of the subject based on the three-dimensional information of the subject acquired sequentially (S55).

認証装置10は、(S54)で生体情報格納部23から抽出された生体特徴データと、(S55)で生成された現生体特徴データとを照合し(S56)、その照合結果を出力する(S57)。なお、図5において、(S55)は、(S53)の前に実行されてもよいし、(S53)と(S54)との間で実行されてもよい。   The authentication device 10 collates the biometric feature data extracted from the biometric information storage unit 23 in (S54) and the current biometric feature data generated in (S55) (S56), and outputs the collation result (S57). ). In FIG. 5, (S55) may be executed before (S53), or may be executed between (S53) and (S54).

〔第1実施形態の作用及び効果〕
このように、第1実施形態では、3次元センサ7等により順次得られる3次元情報から、対象者の所定動作パターン(所定ジェスチャ)が検出され、その所定動作パターンが行われた位置の情報(動作位置情報)に対応する生体識別データが特定され、この生体識別データに対応する生体特徴データが抽出される。この生体特徴データと、対象者の現在の生体情報が反映された現生体特徴データとの1対1照合が行われる。
[Operation and Effect of First Embodiment]
As described above, in the first embodiment, the predetermined motion pattern (predetermined gesture) of the subject is detected from the three-dimensional information sequentially obtained by the three-dimensional sensor 7 or the like, and information on the position where the predetermined motion pattern is performed ( The biometric identification data corresponding to the movement position information is specified, and the biometric feature data corresponding to the biometric identification data is extracted. One-to-one matching is performed between the biometric feature data and the current biometric feature data reflecting the current biometric information of the subject.

従って、第1実施形態によれば、対象者の入力操作等を要することなく、対象者の所定ジェスチャに応じて生体情報の1対1照合を行うことができる。即ち、第1実施形態によれば、生体の動作を用いた生体認証を効率よくかつ高精度に実行することができる。   Therefore, according to the first embodiment, one-to-one verification of biometric information can be performed according to a predetermined gesture of the subject without requiring the subject's input operation or the like. That is, according to the first embodiment, biometric authentication using a biometric operation can be executed efficiently and with high accuracy.

また、第1実施形態によれば、対象者に所定動作パターンの動作をさせるための誘導画像が表示され、所定動作パターンに応じてその誘導画像が変形するため、対象者は、その誘導画像に従って動作すれば、所定動作パターン(押す動作、引く動作など)を自然に実行することができる。   In addition, according to the first embodiment, a guide image for causing the subject to perform a motion of the predetermined motion pattern is displayed, and the guide image is deformed according to the predetermined motion pattern. If it operates, a predetermined operation pattern (pressing operation, pulling operation, etc.) can be naturally executed.

また、第1実施形態によれば、所定動作パターンの検出空間が設定されるため、3次元情報が示す3次元空間内のその空間外に写る対象者の部位や他人や物により、所定動作パターンの検出が阻害されることを防ぐことができる。即ち、対象者は、自然な動作で、顔画像認証装置10に顔認証をさせることができる。   In addition, according to the first embodiment, since a detection space for a predetermined motion pattern is set, the predetermined motion pattern is determined depending on the part of the target person, the other person, or the object in the three-dimensional space indicated by the three-dimensional information. Can be prevented from being inhibited. That is, the target person can cause the face image authentication apparatus 10 to perform face authentication by a natural operation.

[変形例]
上述の第1実施形態では、生体識別データ(図3及び図4の個人ID)が利用されたが、生体識別データは利用されなくてもよい。この場合、認証装置10は、識別データ格納部21を持たず、生体情報格納部23は、識別データ格納部21に格納されていた複数の動作位置情報と生体特徴データとを格納すればよい。これにより、図5で示される(S53)及び(S54)が、検出された所定動作パターンの動作位置情報に対応する生体特徴データを抽出する処理に置き換えられる。
[Modification]
In the first embodiment described above, the biometric identification data (the personal ID in FIGS. 3 and 4) is used, but the biometric identification data may not be used. In this case, the authentication device 10 does not have the identification data storage unit 21, and the biometric information storage unit 23 may store a plurality of pieces of motion position information and biometric feature data stored in the identification data storage unit 21. Thereby, (S53) and (S54) shown in FIG. 5 are replaced with processing for extracting biometric feature data corresponding to the detected motion position information of the predetermined motion pattern.

また、上述の第1実施形態において、誘導画像及び所定動作パターンの組み合わせが、任意に切り替えられるようにしてもよい。対象者が手のひらを前方に押し出す動作が所定動作パターンであっても、対象者が手のひらを手前に引く動作が所定動作パターンであっても、各動作が同じ位置で実行されれば、両者の動作位置情報は等しくなる。そこで、対象者に対応する動作位置情報が変わらないような誘導画像及び所定動作パターンの組み合わせであれば、任意に切り替えられても、第1実施形態と同様に照合は可能である。この場合、第1実施形態における認証装置10は、パターン切替部を更に有し、このパターン切替部が、任意のタイミングで、誘導画像の切り替え及び所定動作パターンの切り替えを動作検出部13及び表示処理部25に指示する。このようにすれば、第3者によって、対象者の動作から所定動作パターンが把握されるのを困難にできる。   In the first embodiment described above, the combination of the guide image and the predetermined operation pattern may be arbitrarily switched. Even if the movement of the subject pushing the palm forward is a predetermined movement pattern, even if the movement of the subject pulling the palm forward is the predetermined movement pattern, both movements are performed if each movement is executed at the same position. The position information is equal. Therefore, as long as the combination of the guide image and the predetermined motion pattern that does not change the motion position information corresponding to the subject person is used, collation is possible as in the first embodiment even if the combination is arbitrarily switched. In this case, the authentication device 10 according to the first embodiment further includes a pattern switching unit, and the pattern switching unit performs switching of the induced image and switching of the predetermined operation pattern at an arbitrary timing by the operation detection unit 13 and the display processing. The unit 25 is instructed. If it does in this way, it can make it difficult for a 3rd person to grasp | ascertain a predetermined motion pattern from a subject's motion.

また、上述の第1実施形態では、認証装置10が識別データ格納部21及び生体情報格納部23を持つが、識別データ格納部21及び生体情報格納部23は、他の装置に装備され、認証装置10が当該他の装置内の識別データ格納部21及び生体情報格納部23にアクセスするようにしてもよい。   In the first embodiment described above, the authentication device 10 includes the identification data storage unit 21 and the biometric information storage unit 23. However, the identification data storage unit 21 and the biometric information storage unit 23 are provided in other devices and are authenticated. The device 10 may access the identification data storage unit 21 and the biometric information storage unit 23 in the other device.

上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。   Each above-mentioned embodiment and each modification can be combined in the range in which the contents do not conflict.

以下に実施例を挙げ、上述の実施形態を更に詳細に説明する。本発明は以下の実施例から何ら限定を受けない。本実施例では、照合結果がドアロックの認証に利用される。実施例では、表示部9に、図6、図7及び図8の例に示されるような表示画像が表示される。図6、図7及び図8は、実施例における表示画像の遷移例を示す図である。   Examples will be given below to describe the above-described embodiment in more detail. The present invention is not limited in any way by the following examples. In this embodiment, the verification result is used for door lock authentication. In the embodiment, a display image as shown in the examples of FIGS. 6, 7, and 8 is displayed on the display unit 9. 6, 7, and 8 are diagrams illustrating examples of display image transition in the embodiment.

本実施例では、図6に示されるように、順次取得される3次元情報により生成される3次元空間の映像が表示部9に表示される。この場合、3次元センサ7が、対象者及びその周辺空間の映像を撮像し、かつ、3次元センサ7からの距離情報を検出し、この映像及び距離情報を含む3次元情報が情報取得部11により取得される。表示処理部25は、その3次元情報から生成されるその映像を表示部9に表示させる。   In the present embodiment, as shown in FIG. 6, an image in a three-dimensional space generated by sequentially acquired three-dimensional information is displayed on the display unit 9. In this case, the three-dimensional sensor 7 captures an image of the target person and its surrounding space, detects distance information from the three-dimensional sensor 7, and the three-dimensional information including the image and the distance information is the information acquisition unit 11. Obtained by The display processing unit 25 causes the display unit 9 to display the video generated from the three-dimensional information.

本実施例では、図7に示されるように、当該表示画像内の検出空間内において、対象者が両手の手のひらを合わせて顔より前方に固定した姿勢(以降、開始ジェスチャと表記する)を取り、この開始ジェスチャが動作検出部13により検出されると、所定動作パターンの検出が開始される。開始ジェスチャの検出では、動作検出部13は、当該表示画像内において画像認識し易い顔を所定基準部位として認識し、その顔よりZ軸で3次元センサ7に近い位置にあるものを対象者の両手として認識する。動作検出部13は、両手を合わせた形から各手のひらの中心部を所定部位として認識する。   In the present embodiment, as shown in FIG. 7, in the detection space in the display image, the subject takes a posture (hereinafter referred to as a start gesture) in which the palms of both hands are put together and fixed in front of the face. When the start gesture is detected by the motion detection unit 13, detection of a predetermined motion pattern is started. In the detection of the start gesture, the motion detection unit 13 recognizes a face that is easy to recognize an image as a predetermined reference portion in the display image, and detects a face closer to the three-dimensional sensor 7 on the Z axis than the face. Recognize as both hands. The motion detector 13 recognizes the center of each palm as a predetermined part from the shape of both hands together.

このとき、本実施例では、表示処理部25が、当該表示画像内の対象者の前方に透過キーボード31を誘導画像として表示させる。このとき、当該3次元情報が示す3次元空間におけるZ軸に直交する2次元平面に、当該透過キーボード31が配置される。これにより、動作検出部13は、透過キーボード31の各ボタンの位置情報として当該2次元平面内の位置情報をそれぞれ認識する。   At this time, in this embodiment, the display processing unit 25 displays the transparent keyboard 31 as a guide image in front of the subject in the display image. At this time, the transparent keyboard 31 is arranged on a two-dimensional plane orthogonal to the Z axis in the three-dimensional space indicated by the three-dimensional information. Thereby, the motion detection unit 13 recognizes the position information in the two-dimensional plane as the position information of each button of the transparent keyboard 31.

本実施例における所定動作パターンは、対象者の手のひらがZ軸の3次元センサ7に近づく方向に所定幅移動する動作である。対象者は、表示部9に写る表示画像(映像)を見ながら、表示画像内の対象者画像が表示部9に表示される透過キーボード31(誘導画像)のボタンを押下するように、動作する。この動作は、本実施例の所定動作パターンに合致するため、動作検出部13により所定動作パターンとして検出される。   The predetermined operation pattern in the present embodiment is an operation in which the palm of the subject moves by a predetermined width in a direction approaching the Z-axis three-dimensional sensor 7. The subject operates so as to press the button of the transparent keyboard 31 (guidance image) on which the subject image in the display image is displayed on the display unit 9 while viewing the display image (video) reflected on the display unit 9. . Since this operation matches the predetermined operation pattern of the present embodiment, the operation detection unit 13 detects this operation as a predetermined operation pattern.

表示処理部25は、動作検出部13によりその所定動作パターンが検出されると、図8に示されるように、その所定動作パターンにより仮想的に操作されたボタンを変色させる。図8の例は、透過キーボード31の「1」を示すボタンが押下されている状態を示す。   When the operation detection unit 13 detects the predetermined operation pattern, the display processing unit 25 changes the color of the button virtually operated according to the predetermined operation pattern as shown in FIG. The example of FIG. 8 shows a state where the button indicating “1” on the transparent keyboard 31 is pressed.

動作検出部13は、所定動作パターン、即ち、仮想的なボタンの押下動作が検出される毎に、その動作位置情報を保持する。本実施例では、仮想的に操作されたボタンの位置情報がその動作位置情報として保持される。動作検出部13は、透過キーボード31の「OK」ボタンを仮想的に押下する動作が検出されるまで、所定動作パターンの検出を継続する。複数のボタンが仮想的に押下された後、「OK」ボタンが仮想的に押下された場合には、所定動作パターンの動作位置情報は複数の位置を示す。   The motion detection unit 13 holds the motion position information every time a predetermined motion pattern, that is, a virtual button pressing motion is detected. In this embodiment, the position information of the virtually operated button is held as the operation position information. The operation detection unit 13 continues to detect the predetermined operation pattern until an operation of virtually pressing the “OK” button of the transparent keyboard 31 is detected. When the “OK” button is virtually pressed after the plurality of buttons are virtually pressed, the operation position information of the predetermined operation pattern indicates a plurality of positions.

抽出部15は、所定動作パターンの動作位置情報に対応する生体特徴データを生体情報格納部23から抽出し、照合部19が、この生体特徴データと、図6、図7及び図8のような映像から抽出された現生体特徴データとを1対1照合する。表示処理部25は、この照合結果を、例えば、表示画像内に「OK」及び「NG」、「○」及び「×」等のように表示させる。   The extraction unit 15 extracts the biometric feature data corresponding to the motion position information of the predetermined motion pattern from the biometric information storage unit 23, and the collation unit 19 uses the biometric feature data as shown in FIG. 6, FIG. 7, and FIG. One-to-one matching is performed with the current biological feature data extracted from the video. The display processing unit 25 displays this collation result in the display image as “OK”, “NG”, “◯”, “x”, and the like.

本実施例における照合部19は、その照合結果をドアロックの制御部に送る。これにより、その制御部により、その照合結果が成功を示す場合には、ドアロックが解除され、その照合結果が失敗を示す場合には、ドアロックは施錠されたままとなる。   The collation unit 19 in this embodiment sends the collation result to the door lock control unit. Thereby, when the collation result indicates success, the door lock is released by the control unit, and when the collation result indicates failure, the door lock remains locked.

本実施例では、動作検出部13が、透過キーボード31の各ボタンの位置情報として当該2次元平面内の位置情報をそれぞれ認識すると説明したが、動作検出部13は、各ボタンに関連付けられた文字情報(透過キーボード31の各ボタンに表示される数字)を認識し、この文字情報を生体識別データとして利用するようにしてもよい。具体的には、動作検出部13は、所定動作パターンの動作位置に対応するボタンに関連付けられた数字を特定し、この数字に対応する生体特徴データを生体情報格納部23から抽出する。   In the present embodiment, it has been described that the motion detection unit 13 recognizes the position information in the two-dimensional plane as the position information of each button of the transparent keyboard 31, but the motion detection unit 13 does not recognize the character associated with each button. Information (numbers displayed on each button of the transparent keyboard 31) may be recognized, and this character information may be used as biometric identification data. Specifically, the motion detection unit 13 identifies a number associated with the button corresponding to the motion position of the predetermined motion pattern, and extracts biometric feature data corresponding to this number from the biometric information storage unit 23.

上記の各実施形態、各変形例及び各実施例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実施形態、各変形例及び各実施例が以下の記載に限定されるものではない。   A part or all of the above-described embodiments, modifications, and examples may be specified as in the following supplementary notes. However, each embodiment, each modification, and each example are not limited to the following descriptions.

(付記1)
対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、
前記情報取得部により取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、
複数の生体特徴データを格納する生体情報格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、
前記情報取得部により取得された前記3次元情報から前記対象生体の現生体特徴データを生成する特徴データ生成部と、
前記抽出部により抽出された生体特徴データと、前記特徴データ生成部により生成された前記対象生体の前記現生体特徴データとを照合する照合部と、
を備える生体認証装置。
(Appendix 1)
An information acquisition unit for sequentially acquiring three-dimensional information including biological information of the target biological body;
An operation detection unit for detecting a predetermined operation pattern of a predetermined part of the target living body from the three-dimensional information acquired by the information acquisition unit;
An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the motion detection unit from a biometric information storage unit that stores a plurality of biometric feature data;
A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit;
A collation unit for collating the biometric feature data extracted by the extraction unit with the current biometric feature data of the target living body generated by the feature data generation unit;
A biometric authentication device.

(付記2)
前記動作検出部は、
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
付記1に記載の生体認証装置。
(Appendix 2)
The motion detector is
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space, and detecting the predetermined movement pattern of the predetermined part of the target living body in the detection space;
The biometric authentication device according to appendix 1.

(付記3)
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる表示処理部を更に備える付記2に記載の生体認証装置。
(Appendix 3)
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. The biometric authentication according to appendix 2, further comprising a display processing unit that causes the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image. apparatus.

(付記4)
前記表示処理部は、前記動作検出部により前記所定動作パターンが検出された場合に、前記誘導画像を変化させる付記3に記載の生体認証装置。
(Appendix 4)
The biometric authentication device according to appendix 3, wherein the display processing unit changes the guidance image when the predetermined motion pattern is detected by the motion detection unit.

(付記5)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記抽出部は、
前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部を含み、
前記識別データ格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記1から4のいずれか1つに記載の生体認証装置。
(Appendix 5)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The extraction unit includes:
Including an identification data storage unit for storing a correspondence relationship between the movement position information of the predetermined movement pattern and each biometric identification data,
The biometric identification data corresponding to the motion position information of the predetermined motion pattern detected by the motion detection unit is acquired from the identification data storage unit, and the biometric feature data associated with the acquired biometric identification data is stored in the biometric feature data. Extract from the biological information storage unit,
The biometric authentication device according to any one of appendices 1 to 4.

(付記6)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示処理部は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記5に記載の生体認証装置。
(Appendix 6)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display processing unit changes at least one of the plurality of buttons in response to detection of the predetermined operation pattern.
The biometric authentication device according to appendix 5.

(付記7)
付記1から6のいずれか1つに記載の前記生体認証装置と、
前記情報取得部に前記3次元情報を送る3次元センサと、
前記生体情報格納部と、
を備える生体認証システム。
(Appendix 7)
The biometric authentication device according to any one of appendices 1 to 6,
A three-dimensional sensor that sends the three-dimensional information to the information acquisition unit;
The biological information storage unit;
A biometric authentication system.

(付記8)
対象生体の生体情報を含む3次元情報を順次取得し、
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを含む生体認証方法。
(Appendix 8)
Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A biometric authentication method.

(付記9)
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に含む付記8に記載の生体認証方法。
(Appendix 9)
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The biometric authentication method according to appendix 8, further comprising:

(付記10)
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる、
ことを更に含む付記9に記載の生体認証方法。
(Appendix 10)
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The biometric authentication method according to appendix 9, further including:

(付記11)
前記所定動作パターンが検出された場合に、前記誘導画像を変化させることを更に含む付記10に記載の生体認証方法。
(Appendix 11)
The biometric authentication method according to appendix 10, further comprising changing the guide image when the predetermined operation pattern is detected.

(付記12)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記生体特徴データの抽出は、前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部から、前記検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記8から11のいずれか1つに記載の生体認証方法。
(Appendix 12)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The biometric feature data is extracted from an identification data storage unit that stores the correspondence between the motion position information of the predetermined motion pattern and each of the biometric identification data, and the biometric data corresponding to the detected motion position information of the predetermined motion pattern. Acquiring identification data, and extracting the biometric feature data associated with the acquired biometric identification data from the biometric information storage unit;
The biometric authentication method according to any one of appendices 8 to 11.

(付記13)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示画像の表示は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記12に記載の生体認証方法。
(Appendix 13)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display image is displayed by changing at least one of the plurality of buttons according to detection of the predetermined operation pattern.
The biometric authentication method according to attachment 12.

(付記14)
少なくとも1つのコンピュータに、
対象生体の生体情報を含む3次元情報を順次取得し、
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを実行させるプログラム。
(Appendix 14)
On at least one computer,
Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A program that lets you do that.

(付記15)
前記少なくとも1つのコンピュータに、
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に実行させる付記14に記載のプログラム。
(Appendix 15)
Said at least one computer,
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The program according to appendix 14, further executing the above.

(付記16)
前記少なくとも1つのコンピュータに、
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる、
ことを更に実行させる付記15に記載のプログラム。
(Appendix 16)
Said at least one computer,
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The program according to supplementary note 15, further causing the above to be executed.

(付記17)
前記少なくとも1つのコンピュータに、
前記所定動作パターンが検出された場合に、前記誘導画像を変化させることを更に実行させる付記16に記載のプログラム。
(Appendix 17)
Said at least one computer,
The program according to appendix 16, further causing the guide image to be changed when the predetermined operation pattern is detected.

(付記18)
前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記生体特徴データの抽出は、前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部から、前記検出された所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
付記14から17のいずれか1つに記載のプログラム。
(Appendix 18)
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The biometric feature data is extracted from an identification data storage unit that stores the correspondence between the motion position information of the predetermined motion pattern and each of the biometric identification data, and the biometric data corresponding to the detected motion position information of the predetermined motion pattern. Acquiring identification data, and extracting the biometric feature data associated with the acquired biometric identification data from the biometric information storage unit;
The program according to any one of appendices 14 to 17.

(付記19)
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示画像の表示は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
付記18に記載のプログラム。
(Appendix 19)
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display image is displayed by changing at least one of the plurality of buttons according to detection of the predetermined operation pattern.
The program according to appendix 18.

(付記20)付記14から19のいずれか1つに記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。   (Supplementary note 20) A computer-readable recording medium in which the program according to any one of supplementary notes 14 to 19 is recorded.

この出願は、2012年1月30日に出願された日本出願特願2012−016933号を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2012-016933 for which it applied on January 30, 2012, and takes in those the indications of all here.

Claims (11)

対象生体の生体情報を含む3次元情報を順次取得する情報取得部と、
前記情報取得部により取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出する動作検出部と、
複数の生体特徴データを格納する生体情報格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出する抽出部と、
前記情報取得部により取得された前記3次元情報から前記対象生体の現生体特徴データを生成する特徴データ生成部と、
前記抽出部により抽出された生体特徴データと、前記特徴データ生成部により生成された前記対象生体の前記現生体特徴データとを照合する照合部と、
を備える生体認証装置。
An information acquisition unit for sequentially acquiring three-dimensional information including biological information of the target biological body;
An operation detection unit for detecting a predetermined operation pattern of a predetermined part of the target living body from the three-dimensional information acquired by the information acquisition unit;
An extraction unit that extracts biometric feature data specified by using the motion position information of the predetermined motion pattern detected by the motion detection unit from a biometric information storage unit that stores a plurality of biometric feature data;
A feature data generation unit that generates current biological feature data of the target living body from the three-dimensional information acquired by the information acquisition unit;
A collation unit for collating the biometric feature data extracted by the extraction unit with the current biometric feature data of the target living body generated by the feature data generation unit;
A biometric authentication device.
前記動作検出部は、
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
請求項1に記載の生体認証装置。
The motion detector is
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space, and detecting the predetermined movement pattern of the predetermined part of the target living body in the detection space;
The biometric authentication device according to claim 1.
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる表示処理部を更に備える請求項2に記載の生体認証装置。   A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. The living body according to claim 2, further comprising: a display processing unit that causes the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image. Authentication device. 前記表示処理部は、前記動作検出部により前記所定動作パターンが検出された場合に、前記誘導画像を変化させる請求項3に記載の生体認証装置。   The biometric authentication device according to claim 3, wherein the display processing unit changes the induced image when the predetermined motion pattern is detected by the motion detection unit. 前記所定動作パターンは、前記3次元情報が示す3次元空間中の所定次元の所定方向における、前記対象生体の前記所定部位の所定幅の移動であり、
前記生体特徴データを特定するための前記所定動作パターンの動作位置情報は、前記所定次元以外の2次元平面内における前記移動が行われた位置を示し、
前記生体情報格納部は、前記複数の生体特徴データの各々と関連付けられた生体識別データを格納し、
前記抽出部は、
前記所定動作パターンの動作位置情報と前記各生体識別データとの対応関係を格納する識別データ格納部を含み、
前記識別データ格納部から、前記動作検出部により検出された前記所定動作パターンの動作位置情報に対応する生体識別データを取得し、この取得された生体識別データと関連付けられた前記生体特徴データを前記生体情報格納部から抽出する、
請求項1から4のいずれか1項に記載の生体認証装置。
The predetermined motion pattern is a movement of the predetermined part of the target living body with a predetermined width in a predetermined direction of a predetermined dimension in a three-dimensional space indicated by the three-dimensional information.
The operation position information of the predetermined operation pattern for specifying the biometric feature data indicates a position where the movement is performed in a two-dimensional plane other than the predetermined dimension,
The biometric information storage unit stores biometric identification data associated with each of the plurality of biometric feature data,
The extraction unit includes:
Including an identification data storage unit for storing a correspondence relationship between the movement position information of the predetermined movement pattern and each biometric identification data,
The biometric identification data corresponding to the motion position information of the predetermined motion pattern detected by the motion detection unit is acquired from the identification data storage unit, and the biometric feature data associated with the acquired biometric identification data is stored in the biometric feature data. Extract from the biological information storage unit,
The biometric authentication device according to any one of claims 1 to 4.
前記対象生体の前記所定部位は、前記対象生体の左手及び右手の中の部分であり、
前記誘導画像は、複数のボタンが配列された画像であり、
前記生体識別データを取得するための前記2次元平面内の位置情報は、前記表示画像内における前記複数のボタンの少なくとも1つの位置に対応し、
前記表示処理部は、前記所定動作パターンの検出に応じて、前記複数のボタンの少なくとも1つを変化させる、
請求項5に記載の生体認証装置。
The predetermined part of the target living body is a portion in the left hand and right hand of the target living body,
The guide image is an image in which a plurality of buttons are arranged,
Position information in the two-dimensional plane for acquiring the biometric identification data corresponds to at least one position of the plurality of buttons in the display image;
The display processing unit changes at least one of the plurality of buttons in response to detection of the predetermined operation pattern.
The biometric authentication device according to claim 5.
請求項1から6のいずれか1項に記載の前記生体認証装置と、
前記情報取得部に前記3次元情報を送る3次元センサと、
前記生体情報格納部と、
を備える生体認証システム。
The biometric authentication device according to any one of claims 1 to 6,
A three-dimensional sensor that sends the three-dimensional information to the information acquisition unit;
The biological information storage unit;
A biometric authentication system.
対象生体の生体情報を含む3次元情報を順次取得し、
取得された前記3次元情報から、前記対象生体の所定部位の所定の動作パターンを検出し、
複数の生体特徴データを格納する生体情報格納部から、検出された前記所定動作パターンの動作位置情報を用いて特定される生体特徴データを抽出し、
取得された前記3次元情報から前記対象生体の現生体特徴データを生成し、
抽出された前記生体特徴データと、生成された前記対象生体の前記現生体特徴データとを照合する、
ことを含む生体認証方法。
Sequentially acquiring three-dimensional information including biological information of the target biological body,
From the acquired three-dimensional information, a predetermined motion pattern of a predetermined part of the target living body is detected,
Extracting biometric feature data specified using the motion position information of the detected predetermined motion pattern from a biometric information storage unit that stores a plurality of biometric feature data,
Generating current biological feature data of the target biological body from the acquired three-dimensional information;
Collating the extracted biometric feature data with the generated current biometric feature data of the target biometric,
A biometric authentication method.
前記3次元情報が示す3次元空間の所定位置に所定の大きさの検出空間を設定し、
前記検出空間外における前記対象生体の前記所定部位の動作を除外し、
前記検出空間内における前記対象生体の前記所定部位の前記所定動作パターンを検出する、
ことを更に含む請求項8に記載の生体認証方法。
A detection space having a predetermined size is set at a predetermined position in the three-dimensional space indicated by the three-dimensional information;
Excluding the movement of the predetermined part of the target living body outside the detection space,
Detecting the predetermined motion pattern of the predetermined part of the target living body in the detection space;
The biometric authentication method according to claim 8 further comprising:
前記3次元情報から生成される前記対象生体の生体画像又は該生体画像を模写する生体模写画像と、前記対象生体に前記所定動作パターンを動作するように誘導する誘導画像と、を含む表示画像であって、該誘導画像の少なくとも一部が該表示画像内における前記検出空間に相当する空間内に配置される該表示画像を表示部に表示させる、
ことを更に含む請求項9に記載の生体認証方法。
A display image including a living body image of the target living body generated from the three-dimensional information or a living body replicated image that replicates the living body image, and a guidance image that guides the target living body to operate the predetermined operation pattern. And causing the display unit to display the display image in which at least a part of the guide image is arranged in a space corresponding to the detection space in the display image.
The biometric authentication method according to claim 9, further comprising:
前記所定動作パターンが検出された場合に、前記誘導画像を変化させることを更に含む請求項10に記載の生体認証方法。   The biometric authentication method according to claim 10, further comprising changing the guide image when the predetermined operation pattern is detected.
JP2013556238A 2012-01-30 2013-01-18 Biometric authentication device and biometric authentication method Pending JPWO2013114806A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013556238A JPWO2013114806A1 (en) 2012-01-30 2013-01-18 Biometric authentication device and biometric authentication method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012016933 2012-01-30
JP2012016933 2012-01-30
JP2013556238A JPWO2013114806A1 (en) 2012-01-30 2013-01-18 Biometric authentication device and biometric authentication method

Publications (1)

Publication Number Publication Date
JPWO2013114806A1 true JPWO2013114806A1 (en) 2015-05-11

Family

ID=48904858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013556238A Pending JPWO2013114806A1 (en) 2012-01-30 2013-01-18 Biometric authentication device and biometric authentication method

Country Status (2)

Country Link
JP (1) JPWO2013114806A1 (en)
WO (1) WO2013114806A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020503578A (en) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identification and authentication using virtual reality
JP2020535567A (en) * 2017-09-15 2020-12-03 エリプティック ラボラトリーズ エーエスElliptic Laboratories As User authentication control using ultrasonic waves

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6418685B2 (en) * 2014-12-16 2018-11-07 国立大学法人 鹿児島大学 Authentication processing apparatus and authentication processing method
CN106236060B (en) 2015-06-04 2021-04-09 松下知识产权经营株式会社 Biological information detection device
JP6897831B2 (en) * 2015-09-03 2021-07-07 日本電気株式会社 Authentication device, security system, control method and program by authentication device
WO2020022034A1 (en) * 2018-07-25 2020-01-30 日本電気株式会社 Information processing device, information processing method, and information processing program
WO2020022014A1 (en) * 2018-07-25 2020-01-30 日本電気株式会社 Information processing device, information processing method, and information processing program
US11003957B2 (en) 2019-08-21 2021-05-11 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification
US10974537B2 (en) 2019-08-27 2021-04-13 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification
JP7151830B2 (en) * 2020-03-23 2022-10-12 日本電気株式会社 Information processing device, security system, information processing method and program
JP7226496B2 (en) * 2020-09-30 2023-02-21 大日本印刷株式会社 Personal authentication system, server, server program, transaction device and device program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078316A (en) * 2002-08-09 2004-03-11 Honda Motor Co Ltd Attitude recognition device and autonomous robot
JP2005292994A (en) * 2004-03-31 2005-10-20 Toshiba Corp Personal recognition system and passage control system
JP2009151424A (en) * 2007-12-19 2009-07-09 Sony Ericsson Mobilecommunications Japan Inc Information processor, information processing method, information processing program, and portable terminal equipment
JP2010541398A (en) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド Enhanced interface for voice and video communication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078316A (en) * 2002-08-09 2004-03-11 Honda Motor Co Ltd Attitude recognition device and autonomous robot
JP2005292994A (en) * 2004-03-31 2005-10-20 Toshiba Corp Personal recognition system and passage control system
JP2010541398A (en) * 2007-09-24 2010-12-24 ジェスチャー テック,インコーポレイテッド Enhanced interface for voice and video communication
JP2009151424A (en) * 2007-12-19 2009-07-09 Sony Ericsson Mobilecommunications Japan Inc Information processor, information processing method, information processing program, and portable terminal equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020503578A (en) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identification and authentication using virtual reality
JP2020535567A (en) * 2017-09-15 2020-12-03 エリプティック ラボラトリーズ エーエスElliptic Laboratories As User authentication control using ultrasonic waves

Also Published As

Publication number Publication date
WO2013114806A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
WO2013114806A1 (en) Biometric authentication device and biometric authentication method
US11755137B2 (en) Gesture recognition devices and methods
US10394334B2 (en) Gesture-based control system
Tian et al. KinWrite: Handwriting-Based Authentication Using Kinect.
JP5205187B2 (en) Input system and input method
KR20130099317A (en) System for implementing interactive augmented reality and method for the same
Maisto et al. An accurate algorithm for the identification of fingertips using an RGB-D camera
Aslan et al. Mid-air authentication gestures: An exploration of authentication based on palm and finger motions
KR20110080327A (en) Face recognition apparatus and method thereof
JP5964603B2 (en) Data input device and display device
WO2019037257A1 (en) Password input control device and method, and computer readable storage medium
JP6230666B2 (en) Data input device, data input method, and data input program
KR101286750B1 (en) Password estimation system using gesture.
Halarnkar et al. Gesture recognition technology: a review
JP2007156768A (en) Personal authentication device, personal authentication information registration device, personal authentication method, personal authentication information registration method, and computer program
JP2020107037A (en) Information processing apparatus, information processing method, and program
JP2020107038A (en) Information processing apparatus, information processing method, and program
Ducray et al. Authentication based on a changeable biometric using gesture recognition with the kinect™
Kanev et al. A human computer interactions framework for biometric user identification
Abdrabou et al. How Unique do we Move? Understanding the Human Body and Context Factors for User Identification
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
WO2020138119A1 (en) Information processing device, information processing method, and recording medium
AlMazrouei Using Eye Gaze For The Interaction With Natural Environments
Asgarov Check for updates 3D-CNNs-Based Touchless Human-Machine Interface
Behera et al. Localization of signatures in continuous Air writing

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160112