JP7161129B1 - Information processing device and information processing program - Google Patents

Information processing device and information processing program Download PDF

Info

Publication number
JP7161129B1
JP7161129B1 JP2021089603A JP2021089603A JP7161129B1 JP 7161129 B1 JP7161129 B1 JP 7161129B1 JP 2021089603 A JP2021089603 A JP 2021089603A JP 2021089603 A JP2021089603 A JP 2021089603A JP 7161129 B1 JP7161129 B1 JP 7161129B1
Authority
JP
Japan
Prior art keywords
sensor
information
posture
living body
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021089603A
Other languages
Japanese (ja)
Other versions
JP2022182196A (en
Inventor
淳 染川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2021089603A priority Critical patent/JP7161129B1/en
Application granted granted Critical
Publication of JP7161129B1 publication Critical patent/JP7161129B1/en
Publication of JP2022182196A publication Critical patent/JP2022182196A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】非接触型のセンサを用いて生体認証を行う場合、生体の検出面に対して生体の位置をより適切に誘導し、生体認証を実行させることができる情報処理装置を提供する。【解決手段】情報処理装置は、検出面に非接触状態で位置する生体の生体情報を取得する第一のセンサと、第一のセンサとは異なる位置に配置され、生体の位置情報を取得する第二のセンサと、第一のセンサが取得した生体情報と、第二のセンサが取得した位置情報とに基づき、第一のセンサに対する生体の姿勢情報を取得する姿勢取得部と、姿勢情報に基づき、生体の認証姿勢が第一のセンサに対して所定の検出姿勢になるように案内する案内部と、を備える。【選択図】図2An information processing apparatus capable of performing biometric authentication by more appropriately guiding the position of a living body with respect to a detection surface of the living body when performing biometric authentication using a non-contact sensor. An information processing device includes a first sensor that acquires biometric information of a living body positioned in a non-contact state with a detection surface, and a position that is different from the first sensor and acquires the positional information of the living body. a posture acquisition unit that acquires posture information of the living body with respect to the first sensor based on the second sensor, the biological information acquired by the first sensor, and the position information acquired by the second sensor; a guide unit that guides the biometric authentication posture to a predetermined detection posture with respect to the first sensor based on the above. [Selection drawing] Fig. 2

Description

本発明の実施形態は、情報処理装置および情報処理プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to an information processing apparatus and an information processing program.

パーソナルコンピュータ(以下、「PC」という場合もある)、タブレット端末やスマートフォン、携帯電話等を含む情報処理装置は、その情報処理装置を使用する人物が正規利用者(事前に登録された登録者)であるか否かを判定するための認証機能を備える場合が多い。認証の方法としては、例えば、パスコードの入力を要求し、入力内容が一致した場合に認証を肯定する技術が一般的である。また、よりセキュリティ性の高い認証方法として、生体認証が普及している。例えば、人物固有の情報と見なされる身体上の特徴を利用した認証技術がある。例えば、手のひら静脈、指静脈、指紋、虹彩等が利用されている。また、顔全体を用いた認証も実用化されている。そして、このような生体認証装置のうち、生体検出面に対して生体を接触させない非接触型の生体認証装置において、検出面に対して生体を正しく位置させる(翳す)ように誘導する技術が提案されている。 Information processing equipment including personal computers (hereinafter sometimes referred to as “PC”), tablet terminals, smart phones, mobile phones, etc., are authorized users (pre-registered registrants) who use the information processing equipment. In many cases, an authentication function is provided for determining whether or not the As a method of authentication, for example, a technique of requesting input of a passcode and affirming authentication when the input contents match is generally used. In addition, biometric authentication has become popular as an authentication method with higher security. For example, there is an authentication technology that uses physical features that are regarded as information unique to a person. For example, palm vein, finger vein, fingerprint, iris, etc. are used. Authentication using the entire face has also been put to practical use. Among such biometric authentication devices, in a non-contact type biometric authentication device in which a living body is not brought into contact with a biometric detection surface, there is a technique for guiding a biometric body to be correctly positioned (held up) with respect to the detection surface. Proposed.

特開2017-091186号公報JP 2017-091186 A

しかしながら、従来技術の構成の場合、生体認証装置で取得した情報のみで、生体検出面に対する生体の位置や角度を推測している。この場合、生体検出面に対する生体の位置が、生体の情報を十分に読み取れない位置の場合、例えば、生体が認識領域から外れていた場合には、生体の位置や角度などを正確に把握することが難しく、生体を誘導する際に、誤った誘導を行ってしまったり、認証処理の完了までに長時間を要してしまったりする場合があるという問題があった。 However, in the configuration of the prior art, the position and angle of the living body with respect to the living body detection surface are estimated only from the information acquired by the biometric authentication device. In this case, when the position of the living body with respect to the living body detection surface is a position where the information of the living body cannot be read sufficiently, for example, when the living body is out of the recognition area, the position and angle of the living body can be accurately grasped. is difficult, and there is a problem that an erroneous guidance may be performed when guiding a living body, or a long time may be required until completion of authentication processing.

したがって、本発明が解決する課題の一例は、非接触型のセンサを用いて生体認証を行う場合、生体の検出面に対して生体の位置をより適切に誘導し、生体認証を実行させることができる情報処理装置を提供することにある。 Therefore, one example of the problem to be solved by the present invention is that when performing biometric authentication using a non-contact sensor, it is possible to more appropriately guide the position of the living body with respect to the detection surface of the living body to perform biometric authentication. To provide an information processing device capable of

本発明の第1態様に係る情報処理装置は、検出面に非接触状態で位置する生体の生体情報を取得する第一のセンサと、前記第一のセンサに翳された前記生体を前記第一のセンサとともに俯瞰可能な前記第一のセンサとは異なる位置に配置され、前記第一のセンサとともに前記第一のセンサに対する前記生体の位置情報を取得する第二のセンサと、前記第一のセンサが取得した前記生体情報と、前記第二のセンサが取得した位置情報とに基づき、前記第一のセンサに対する前記生体の姿勢情報を取得する姿勢取得部と、前記姿勢情報に基づき、前記生体の認証姿勢が前記第一のセンサに対して所定の検出姿勢になるように案内する案内部と、を備える。 An information processing apparatus according to a first aspect of the present invention includes: a first sensor that acquires biological information of a living body positioned in a non-contact state on a detection surface; a second sensor that is arranged at a position different from the first sensor that can be overlooked together with the sensor of and acquires position information of the living body with respect to the first sensor together with the first sensor; a posture acquisition unit for acquiring posture information of the living body with respect to the first sensor based on the biological information acquired by and the position information acquired by the second sensor; and a guide unit that guides the first sensor so that the authentication posture is a predetermined detection posture.

また、前記案内部は、例えば、前記認証姿勢が前記所定の検出姿勢を満たさない場合に、前記検出姿勢を補正する補正案内を行ってもよい。 Further, for example, when the authentication posture does not satisfy the predetermined detected posture, the guidance section may perform correction guidance for correcting the detected posture.

また、前記姿勢取得部は、例えば、前記位置情報に基づき、前記生体の三次元位置を示す姿勢情報を取得するようにしてもよい。 Further, the posture obtaining unit may obtain, for example, posture information indicating a three-dimensional position of the living body based on the position information.

また、前記案内部は、例えば、前記三次元位置に基づき、前記検出面の正面位置に対する前記生体の位置ずれ量、前記検出面から前記生体までの距離と、前記検出面に対する前記生体の角度と、のうち少なくとも一つについて案内を行ってもよい。 Further, for example, the guide unit, based on the three-dimensional position, determines the positional deviation amount of the living body with respect to the front position of the detection plane, the distance from the detection plane to the living body, and the angle of the living body with respect to the detection plane. , at least one of which may be provided.

本発明の第2態様に係る情報処理プログラムは、検出面に非接触状態で位置する生体の生体情報を第一のセンサで取得する第一の検出処理と、前記第一のセンサに翳された前記生体を前記第一のセンサとともに俯瞰可能な前記第一のセンサとは異なる位置に配置された第二のセンサで、前記第一のセンサとともに前記第一のセンサに対する前記生体の位置情報を取得する第二の検出処理と、前記第一のセンサが取得した前記生体情報と、前記第二のセンサが取得した位置情報とに基づき、前記第一のセンサに対する前記生体の姿勢情報を取得する姿勢取得処理と、前記姿勢情報に基づき、前記生体の認証姿勢が前記第一のセンサに対して所定の検出姿勢になるように案内する案内処理と、を、情報処理装置に実行させる。 An information processing program according to a second aspect of the present invention comprises a first detection process of acquiring biometric information of a living body positioned in a non-contact state on a detection surface with a first sensor ; A second sensor arranged at a position different from the first sensor that can overlook the living body together with the first sensor acquires positional information of the living body with respect to the first sensor together with the first sensor. posture for acquiring posture information of the living body with respect to the first sensor, based on a second detection process, the biological information acquired by the first sensor, and position information acquired by the second sensor An information processing apparatus is caused to execute an acquisition process and a guidance process for guiding the authentication posture of the biometric body to a predetermined detection posture with respect to the first sensor based on the posture information.

本発明の上記態様によれば、第一のセンサによる生体情報の取得に加え、第一のセンサに対して、異なる位置に配置された第二のセンサにより、検出面に対する生体の位置情報を取得するため、検出面に対する生体の位置をより正確に把握することができる。その結果、生体の認証姿勢が第一のセンサに対して所定の検出姿勢になるように、より正確に案内することができる。 According to the above aspect of the present invention, in addition to acquiring biological information by the first sensor, the second sensor arranged at a position different from that of the first sensor acquires position information of the living body with respect to the detection surface. Therefore, the position of the living body with respect to the detection surface can be more accurately grasped. As a result, more accurate guidance can be provided so that the biometric authentication posture becomes a predetermined detection posture with respect to the first sensor.

図1は、実施形態にかかる情報処理装置の外観を示す例示的かつ模式的な斜視図である。FIG. 1 is an exemplary schematic perspective view showing the appearance of an information processing apparatus according to an embodiment. 図2は、実施形態にかかる情報処理装置の機能構成を示す例示的かつ模式的ブロック図である。FIG. 2 is an exemplary schematic block diagram showing the functional configuration of the information processing apparatus according to the embodiment; 図3は、実施形態にかかる情報処理装置による生体認証処理の流れを示す例示的なフローチャートである。FIG. 3 is an exemplary flowchart illustrating the flow of biometric authentication processing by the information processing apparatus according to the embodiment;

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions, results, and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

図1は、実施形態にかかる情報処理装置10の外観を示す例示的かつ模式的な斜視図である。 FIG. 1 is an exemplary and schematic perspective view showing the appearance of an information processing apparatus 10 according to an embodiment.

図1に示されるように、情報処理装置10は、例えば、ノートブック型のパーソナルコンピュータとして構成される。情報処理装置10は、表示部10a、キーボード部10b、パームレスト部10c、タッチパッド部10d等に大別される。 As shown in FIG. 1, the information processing apparatus 10 is configured as, for example, a notebook personal computer. The information processing apparatus 10 is roughly divided into a display section 10a, a keyboard section 10b, a palm rest section 10c, a touch pad section 10d, and the like.

表示部10aは、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。情報処理装置10の使用時には、表示部10aを開動作することにより、キーボード部10bやタッチパッド部10dと、表示部10aとを離反させ、互いに露出させて使用可能状態にする。また、情報処理装置10の非使用時や携帯時等には、表示部10aを閉動作することにより、キーボード部10bやタッチパッド部10dを表示部10aで覆い、互いを保護するとともに、情報処理装置10をコンパクト化し、携帯し易い状態にする。 The display unit 10a is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like. When the information processing apparatus 10 is used, the display section 10a is opened to separate the keyboard section 10b and the touch pad section 10d from the display section 10a, thereby exposing them to a usable state. Further, when the information processing apparatus 10 is not in use or carried, the keyboard section 10b and the touch pad section 10d are covered with the display section 10a by closing the display section 10a, thereby protecting each other and information processing. To make the device 10 compact and easy to carry.

キーボード部10bは、第一の操作入力部として機能する。キーボード部10bの手前側のパームレスト部10cの略中央部には、第二の操作入力部として機能する、タッチパッド部10dが配置されている。タッチパッド部10d上で、情報処理装置10の操作者が、指でタップ操作したり、スクロール操作したり、ピンチ操作したりすることで、表示部10a上において、決定操作、選択操作、スクロール操作、拡大、縮小操作等の入力操作が実現可能となる。 The keyboard section 10b functions as a first operation input section. A touch pad section 10d functioning as a second operation input section is arranged substantially in the center of the palm rest section 10c on the front side of the keyboard section 10b. When the operator of the information processing device 10 taps, scrolls, or pinches the touch pad 10d with a finger, a determination operation, a selection operation, or a scroll operation is performed on the display unit 10a. Input operations such as enlargement and reduction operations can be realized.

また、図1に示す情報処理装置10の場合、パームレスト部10cの一部、例えば、タッチパッド部10dに対して図中矢印X1方向の隣接位置には、第一のセンサとしての生体認証装置12が配置されている。生体認証装置12は、扁平形状の検出面12aを備え、当該検出面12aに非接触状態で位置する生体14の指14aの生体情報を取得可能である。生体認証装置12は、例えば、指静脈を用いて認証を行う装置のセンサ部を構成する。情報処理装置10は、生体認証装置12が取得した指静脈パターンと、予め情報処理装置10に登録された正規登録者の参照指静脈パターンとを比較することにより認証の可否の判定を実行する。 Further, in the case of the information processing apparatus 10 shown in FIG. 1, a part of the palm rest portion 10c, for example, a biometric authentication device 12 as a first sensor is located adjacent to the touch pad portion 10d in the direction of the arrow X1 in the drawing. are placed. The biometric authentication device 12 has a flat detection surface 12a, and can acquire biometric information of a finger 14a of a living body 14 positioned on the detection surface 12a in a non-contact state. The biometric authentication device 12 constitutes, for example, a sensor unit of a device that performs authentication using finger veins. The information processing device 10 compares the finger vein pattern acquired by the biometrics authentication device 12 with a reference finger vein pattern of an authorized registrant previously registered in the information processing device 10 to determine whether authentication is possible.

また、本実施形態の情報処理装置10は、生体認証装置12(第一のセンサ)とは異なる位置に配置され、生体14の位置情報を取得する第二のセンサを備えている。図1の情報処理装置10の場合、表示部10aの上部額縁部の略中央位置に配置された入力装置16が第二のセンサとして機能する例を示す。第二のセンサとして機能する入力装置16は、例えば、フロントカメラで、少なくとも生体認証装置12の配置領域を撮像範囲Eに含むように設定されている。フロントカメラを兼用する入力装置16は、例えば、ビデオ通話を行う際に、情報処理装置10(表示部10a)に対面する情報処理装置10の操作者の顔画像等を撮像して送信したり、保存したりすることができる。なお、後述するが、入力装置16は、当該入力装置16(フロントカメラ)の撮像範囲Eに、生体認証装置12の配置領域を含み、検出面12aに非接触状態で翳される指14aを撮像することにより、指14aが指静脈認証に適した位置に翳されるように誘導(案内)することができる。 The information processing apparatus 10 of the present embodiment also includes a second sensor that is arranged at a position different from that of the biometric authentication device 12 (first sensor) and acquires position information of the living body 14 . In the case of the information processing apparatus 10 of FIG. 1, an example is shown in which the input device 16 arranged substantially at the center position of the upper frame portion of the display portion 10a functions as the second sensor. The input device 16 that functions as the second sensor is, for example, a front camera, and is set so that the imaging range E includes at least the arrangement area of the biometric authentication device 12 . The input device 16, which also serves as a front camera, captures and transmits a facial image of the operator of the information processing device 10 facing the information processing device 10 (display unit 10a), for example, when making a video call. can be saved. As will be described later, the input device 16 includes an area where the biometric authentication device 12 is placed in an imaging range E of the input device 16 (front camera), and images a finger 14a held up in a non-contact state on the detection surface 12a. By doing so, the finger 14a can be guided (guided) to be held at a position suitable for finger vein authentication.

図2は、情報処理装置10の機能構成を示す例示的かつ模式的ブロック図である。 FIG. 2 is an exemplary and schematic block diagram showing the functional configuration of the information processing device 10. As shown in FIG.

図2に示されるように、情報処理装置10は、生体認証装置12、入力装置16、記憶部18、認証処理部20、出力装置22等を備える。なお、図2は、本実施形態の生体認証処理を実現するための構成のみを示している。したがって、情報処理装置10の基本的な機能(周知の演算機能や通信機能、画像再生機能等)を実現する構成は、図示を省略して、その説明は省略する。 As shown in FIG. 2, the information processing apparatus 10 includes a biometric authentication device 12, an input device 16, a storage section 18, an authentication processing section 20, an output device 22, and the like. Note that FIG. 2 shows only the configuration for realizing the biometric authentication processing of this embodiment. Therefore, the configuration that realizes the basic functions of the information processing apparatus 10 (a well-known arithmetic function, communication function, image reproduction function, etc.) is omitted from the drawing and the description thereof will be omitted.

生体認証装置12(第一のセンサ)は、上述したように、指静脈認証を行うセンサである。指静脈認証は、生体14の一部である指14aの内部にある静脈のパターンを使って個人を特定する技術で、静脈内を流れる血液中の還元ヘモグロビンが吸収する近赤外線をあてて指14aを撮像し、静脈パターンを抽出するものである。そして、検出された静脈パターンと、認証処理部20(情報処理装置10)に予め登録された正規登録者の静脈パターンとマッチングすることで、認証の可否判定を行う。 The biometric authentication device 12 (first sensor) is a sensor that performs finger vein authentication, as described above. Finger vein authentication is a technique for identifying an individual using the pattern of veins inside a finger 14a, which is a part of a living body 14. Near-infrared rays absorbed by reduced hemoglobin in the blood flowing through the veins are applied to the finger 14a. is imaged and the vein pattern is extracted. Then, by matching the detected vein pattern with the vein pattern of the authorized registrant registered in advance in the authentication processing unit 20 (information processing device 10), it is determined whether or not the authentication is possible.

入力装置16は、上述したように、例えばフロントカメラである。入力装置16は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。入力装置16は、生体認証処理が要求された場合に、少なくとも生体認証装置12の検出面12aおよび検出面12aに翳される指14aを撮像し、所定のフレームレートで撮像した動画データ(撮像画像データ)を、認証処理部20に逐次提供する。 The input device 16 is, for example, a front camera, as described above. The input device 16 is, for example, a digital camera incorporating an imaging device such as a CCD (Charge Coupled Device) or CIS (CMOS image sensor). When biometric authentication processing is requested, the input device 16 captures at least the detection surface 12a of the biometric authentication device 12 and the finger 14a held over the detection surface 12a, and captures moving image data (captured image) at a predetermined frame rate. data) is sequentially provided to the authentication processing unit 20 .

記憶部18は、不揮発性の書換可能なメモリで、認証処理部20を、例えばCPU(中央演算処理装置、処理ユニット)上で実現する場合の情報処理プログラム18aの他、情報処理装置10で実行可能な各種処理機能を実現する各種アプリケーションプログラム18b等を記憶する。なお、記憶部18は、各種プログラムの実行に必要なパラメータ等を記憶してもよい。 The storage unit 18 is a non-volatile rewritable memory, and is executed by the information processing device 10 in addition to the information processing program 18a when the authentication processing unit 20 is implemented on, for example, a CPU (central processing unit, processing unit). Various application programs 18b and the like for realizing various possible processing functions are stored. Note that the storage unit 18 may store parameters and the like necessary for executing various programs.

認証処理部20は、生体認証装置12(第一のセンサ)で取得した指14aの生体情報および入力装置16(第二のセンサ)で取得した指14aの位置情報に基づき、生体14が検出面12aに翳される位置(姿勢)の調整を実行可能で、適切な位置に指14aが翳された場合に認証処理を実行する。 Based on the biometric information of the finger 14a acquired by the biometrics authentication device 12 (first sensor) and the positional information of the finger 14a acquired by the input device 16 (second sensor), the authentication processing unit 20 determines whether the living body 14 is detected by the detection surface. The position (orientation) held over the finger 12a can be adjusted, and authentication processing is executed when the finger 14a is held over an appropriate position.

認証処理部20は、位置(姿勢)調整処理および生体認証処理を実行するための詳細モジュールとして、情報取得部20a、姿勢取得部20b、案内部20c、認証判定部20d等を含む。 The authentication processing unit 20 includes an information acquiring unit 20a, a posture acquiring unit 20b, a guiding unit 20c, an authentication determining unit 20d, etc. as detailed modules for executing position (orientation) adjustment processing and biometric authentication processing.

情報取得部20aは、アプリケーションプログラム18bが実行される際に、情報処理装置10の現在の利用者が許可された正規登録者であり、かつ(または)実行されたアプリケーションプログラム18bの正規利用者であるか否かを判定するための、認証要求を受け取った場合に、生体認証装置12を起動させる。そして、生体認証装置12の検出面12aの上空において、非接触状態で位置する生体14の指14aの生体情報を取得し、姿勢取得部20bに提供する。また、情報取得部20aは、生体認証装置12と同時に入力装置16を認証用として起動して、生体認証装置12の配置領域(検出面12aを含む領域)および認証対象である指14aを撮像する。そして、情報取得部20aは、検出面12aに対する指14aの位置情報(動画データ、撮像画像データ)を逐次取得して、姿勢取得部20bに提供する。 When the application program 18b is executed, the information acquisition unit 20a is assumed that the current user of the information processing apparatus 10 is an authorized registrant and/or an authorized user of the executed application program 18b. The biometric device 12 is activated when an authentication request for determining whether or not there is is received. Then, the biometric information of the finger 14a of the living body 14 positioned in the non-contact state above the detection surface 12a of the biometrics authentication device 12 is acquired and provided to the posture acquisition unit 20b. In addition, the information acquisition unit 20a simultaneously activates the input device 16 for authentication at the same time as the biometric authentication device 12, and captures an image of the biometric authentication device 12 arrangement area (area including the detection surface 12a) and the finger 14a to be authenticated. . Then, the information acquisition unit 20a sequentially acquires the position information (moving image data, captured image data) of the finger 14a with respect to the detection surface 12a, and provides it to the orientation acquisition unit 20b.

姿勢取得部20bは、生体認証装置12(第一のセンサ)が取得した生体情報と、入力装置16(第二のセンサ)が取得した指14aの位置情報とに基づき、生体認証装置12の検出面12aに対する指14aの姿勢情報を取得する。図1の入力装置16の場合、検出面12aの上空に翳された指14aを斜め下方に見下ろす状態で、検出面12aを含んで撮像する。このとき、検出面12aの位置と入力装置16の位置は、互いに固定された位置である。したがって、入力装置16が撮像した撮像画像データに周知の画像処理を施すことにより、検出面12aと平行な面における指14aの位置(図1の矢印X1-X2方向および矢印Y1-Y2方向の位置)を検出することが可能である。同様に、検出面12aの表面からの距離(図1の矢印Z1-Z2方向の距離)を検出することが可能である。また、指14aの表面の特徴点、例えば、爪の見え方に基づき、検出面12aに対する角度を検出することができる。 The posture acquisition unit 20b detects the biometric authentication device 12 based on the biometric information acquired by the biometric authentication device 12 (first sensor) and the position information of the finger 14a acquired by the input device 16 (second sensor). The posture information of the finger 14a with respect to the surface 12a is acquired. In the case of the input device 16 of FIG. 1, an image including the detection surface 12a is taken while looking down obliquely downward on the finger 14a held above the detection surface 12a. At this time, the position of the detection surface 12a and the position of the input device 16 are positions fixed to each other. Therefore, by subjecting the captured image data captured by the input device 16 to well-known image processing, the position of the finger 14a on a plane parallel to the detection surface 12a (positions in the directions of arrows X1-X2 and Y1-Y2 in FIG. 1) ) can be detected. Similarly, it is possible to detect the distance from the surface of the detection surface 12a (distance in the direction of arrow Z1-Z2 in FIG. 1). Further, the angle with respect to the detection surface 12a can be detected based on the feature points on the surface of the finger 14a, for example, how the nail looks.

したがって、姿勢取得部20bは、2種類の姿勢情報(生体認証装置12が取得した生体情報に基づく姿勢情報と入力装置16が取得した位置情報に基づく姿勢情報)を用いて、検出面12aの表面に対する指14aの現在の位置、高さ、角度をより正確に示す、姿勢情報を取得することができる。そして、現在の指14aのより正確な姿勢情報に基づき、検出面12aに対して指14aの位置が最適であるか否かの判定が可能になる。例えば、生体認証装置12によって指14aの指静脈パターンを正確に検出するためには、指14aを例えば、検出面12aの略中央部に位置させ、かつ、指静脈に焦点があう高さに指14aを位置させる必要がある。したがって、姿勢取得部20bは、指14aの現在の姿勢情報に基づき、指14aを検出面12aの例えば中心位置で所定の高さの最適位置に移動させるための補正量を算出する。 Therefore, the orientation acquisition unit 20b uses two types of orientation information (orientation information based on the biometric information acquired by the biometric authentication device 12 and orientation information based on the position information acquired by the input device 16) to determine the surface of the detection surface 12a. Posture information can be obtained that more accurately indicates the current position, height and angle of the finger 14a relative to the . Then, based on more accurate posture information of the current finger 14a, it becomes possible to determine whether the position of the finger 14a is optimal with respect to the detection surface 12a. For example, in order for the biometrics authentication device 12 to accurately detect the finger vein pattern of the finger 14a, the finger 14a is positioned, for example, substantially in the center of the detection surface 12a, and the finger vein is focused on. 14a must be positioned. Therefore, based on the current posture information of the finger 14a, the posture acquisition unit 20b calculates a correction amount for moving the finger 14a to an optimum position at a predetermined height, for example, at the center position of the detection surface 12a.

案内部20cは、姿勢取得部20bで算出された検出面12aに対する指14aの姿勢情報(補正量)に基づき、生体14の認証姿勢が生体認証装置12に対して所定の検出姿勢になるように案内する。例えば、認証対象者(生体14)に対して、指14aの位置を図1中矢印A方向(矢印X2方向)に移動させるような案内をしたり、指14aを検出面12aに接近させる(図1中矢印Z2方向に移動させる)ような案内をしたりする。また、指14aを図1の矢印R1方向またはR2方向に回転させて、検出面12aに対する指14aの角度調整(指14aの腹が検出面12aに対面する姿勢に調整)する。 The guide unit 20c adjusts the authentication posture of the living body 14 to a predetermined detection posture with respect to the biometric authentication device 12 based on the posture information (correction amount) of the finger 14a with respect to the detection surface 12a calculated by the posture acquisition unit 20b. invite. For example, the person to be authenticated (living body 14) is guided to move the position of the finger 14a in the direction of arrow A (direction of arrow X2) in FIG. 1 to move in the direction of arrow Z2). Also, the finger 14a is rotated in the direction of arrow R1 or R2 in FIG. 1 to adjust the angle of the finger 14a with respect to the detection surface 12a (the ball of the finger 14a faces the detection surface 12a).

案内部20cは、出力装置22に指14aの位置(姿勢)修正のための案内情報を出力する。出力装置22は、例えば表示部10a(図1参照)や図示しない音声出力装置(例えばスピーカ)である。出力装置22が表示部10aの場合、案内部20cは、表示部10a上に指14aの移動方向や回転方向を例えば矢印等で示すようにしてもよい。表示部10aに表示する矢印は、例えば、検出面12aに対する指14aの位置が、最適な位置(姿勢)に対するずれ量が大きいほど、例えば、赤色表示を強調し、最適な位置(姿勢)に近づくにしたがい、例えば緑表示に移行するようにしてもよい。そして、案内部20cは、検出面12aに対する指14aの位置が、最適な位置(姿勢)になったら矢印表示を消すようにしてもよい。このとき、案内部20cは、検出面12aに対する指14a位置(姿勢)が最適である旨を示すメッセージや調整完了の指標の表示を行ってもよい。また、案内部20cは、指14aの画像または指14aを示す指標(アニメーション)を、修正(移動)を案内する矢印とともに表示してもよい。また、案内部20cは、上述のような案内を音声出力装置で行ってもよいし、表示部10aによる表示案内と音声出力装置に音声案内とを組み合わせて行ってもよい。また、案内部20cは、検出面12aに対する指14aの修正(移動)を具体的な数値で案内してもよい。例えば、「指を右方向に、10mm程度動かしてください。」や「指を検出面からさらに10mm程度離してください。」との案内を行ってもよい。 The guiding unit 20c outputs to the output device 22 guidance information for correcting the position (orientation) of the finger 14a. The output device 22 is, for example, the display unit 10a (see FIG. 1) or an audio output device (eg, speaker) not shown. When the output device 22 is the display unit 10a, the guide unit 20c may indicate the direction of movement and the direction of rotation of the finger 14a on the display unit 10a by, for example, an arrow. For example, as the position of the finger 14a with respect to the detection surface 12a deviates from the optimum position (orientation), the arrow displayed on the display unit 10a emphasizes the red color and approaches the optimum position (orientation). Accordingly, for example, the display may be changed to green. Then, the guide section 20c may turn off the arrow display when the position of the finger 14a with respect to the detection surface 12a reaches the optimum position (orientation). At this time, the guide unit 20c may display a message indicating that the position (orientation) of the finger 14a with respect to the detection surface 12a is optimal, or an indicator indicating completion of adjustment. Further, the guiding unit 20c may display an image of the finger 14a or an index (animation) indicating the finger 14a together with an arrow guiding correction (movement). Further, the guidance unit 20c may perform guidance as described above using a voice output device, or may perform a combination of display guidance by the display unit 10a and voice guidance with the voice output device. Further, the guide section 20c may guide the correction (movement) of the finger 14a with respect to the detection surface 12a using specific numerical values. For example, guidance such as "Please move your finger to the right about 10 mm" or "Please keep your finger further away from the detection surface by about 10 mm" may be provided.

認証判定部20dは、検出面12aに対する指14aの位置(姿勢)が、認証に適した状態になった場合、周知の技術に基づき認証を行い、認証の可否判断を行う。認証判定部20dは、認証結果を認証を要求してきたアプリケーションに返却する。また、認証判定部20dは、出力装置22(表示部10a)に認証結果を提供し、認証対象者に認証結果を通知するようにしてもよい。 When the position (orientation) of the finger 14a with respect to the detection surface 12a becomes suitable for authentication, the authentication determination unit 20d performs authentication based on a well-known technique, and determines whether or not the authentication is possible. The authentication determination unit 20d returns the authentication result to the application requesting the authentication. Further, the authentication determination unit 20d may provide the authentication result to the output device 22 (display unit 10a) and notify the authentication subject of the authentication result.

このように、本実施形態の情報処理装置10によれば、生体認証装置12が取得した生体情報に基づく姿勢情報に加え、生体認証装置12(第一のセンサ)に対して、異なる位置に配置された入力装置16(第二のセンサ)により、検出面12aに対する生体14(指14a)の位置情報を取得するため、検出面12aに対する生体14の位置をより正確に把握することができる。生体14の認証姿勢が生体認証装置12(第一のセンサ)に対して所定の検出姿勢になるように、より正確に案内することができる。つまり、認証処理部20(認証判定部20d)による認証精度を向上することができる。また、検出面12aに対して指14aの位置(姿勢)が迅速に調整されるため、認証処理部20(認証判定部20d)の認証完了までの時間の短縮に寄与することができる。その結果、検出面12aに指14aを接触させて接触感を確認しながら認証を行う接触型の生体認証装置に比べて、検出面12aの上空に指14aを翳す必要があり、検出面12aに対する指14aの位置や姿勢が最適であるかイメージしにくい、非接触型の生体認証装置12でも、より正確な生体認証を、より迅速に実現することができる。 As described above, according to the information processing apparatus 10 of the present embodiment, in addition to the posture information based on the biometric information acquired by the biometric authentication device 12, the posture information is arranged at a different position with respect to the biometric authentication device 12 (first sensor). Since the position information of the living body 14 (finger 14a) with respect to the detection surface 12a is acquired by the input device 16 (second sensor), the position of the living body 14 with respect to the detection surface 12a can be more accurately grasped. It is possible to more accurately guide the biometric device 14 so that the authentication orientation of the living body 14 is a predetermined detection orientation with respect to the biometric authentication device 12 (first sensor). That is, it is possible to improve the accuracy of authentication by the authentication processing unit 20 (authentication determination unit 20d). In addition, since the position (orientation) of the finger 14a is quickly adjusted with respect to the detection surface 12a, it is possible to contribute to shortening the time until the authentication processing section 20 (authentication determining section 20d) completes the authentication. As a result, compared to a contact-type biometrics authentication device that performs authentication while confirming a sense of contact by bringing the finger 14a into contact with the detection surface 12a, it is necessary to hold the finger 14a above the detection surface 12a. Even with the non-contact biometrics authentication device 12 in which it is difficult to imagine whether the position and posture of the finger 14a with respect to the finger 14a is optimal, more accurate biometrics authentication can be realized more quickly.

このように構成される情報処理装置10の生体認証処理の流れの一例を図3に示す例示的なフローチャートを用いて説明する。 An example of the flow of biometrics authentication processing of the information processing apparatus 10 configured in this way will be described with reference to the exemplary flowchart shown in FIG.

認証処理部20の情報取得部20aは、記憶部18に記憶されたアプリケーションプログラム18bが実行された際に、情報処理装置10の現在の利用者が許可された正規登録者であり、かつ(または)実行されたアプリケーションプログラム18bの正規利用者であるか否かを判定するための、生体認証要求が行われているか否か確認する(S100)。生体認証の要求がない場合(S100のNo)、このフローを一旦終了する。一方、生体認証の要求が行われている場合(S100のYes)、情報取得部20aは、生体認証装置12を起動させ、生体情報を取得する(S102)。すなわち、検出面12aに翳されている指14aの現在の状態で生体情報の取得を行う。また、同時に、情報取得部20aは、入力装置16を認証用として起動して、生体認証装置12の配置領域(検出面12aを含む領域)および認証対象である指14aを撮像し、検出面12aに対する指14aに位置情報(動画データ、撮像画像データ)を取得する(S104)。 When the application program 18b stored in the storage unit 18 is executed, the information acquisition unit 20a of the authentication processing unit 20 determines that the current user of the information processing device 10 is a permitted authorized registrant, and (or ) Confirm whether or not a biometric authentication request has been made to determine whether or not the user is an authorized user of the executed application program 18b (S100). If there is no request for biometric authentication (No in S100), this flow is once terminated. On the other hand, if biometric authentication is requested (Yes in S100), the information acquiring unit 20a activates the biometric authentication device 12 and acquires biometric information (S102). That is, biometric information is acquired in the current state of the finger 14a held over the detection surface 12a. At the same time, the information acquisition unit 20a activates the input device 16 for authentication, images the area where the biometric authentication device 12 is placed (the area including the detection surface 12a) and the finger 14a to be authenticated, and detects the detection surface 12a. Position information (moving image data, captured image data) is acquired for the finger 14a for the (S104).

認証処理部20(認証判定部20d)は、生体認証要求を行ったアプリケーションプログラム18bから生体認証の中断要求があるか否かの監視を行う(S106)。中断要求が無い場合(S106のNo)、認証判定部20dは、生体認証装置12が取得した,現在の指14aの位置(姿勢)での生体情報を読み込む(S108)。そして、読み込んだ生体情報に基づき指14aの指静脈パターンを検出し、取得した生体情報が、所定の認証制度を確保するのに十分な品質を備えるか否かを確認するための品質演算を行う(S110)。例えば、指静脈パターンの輪郭が予め情報処理装置10に登録された正規登録者の参照指静脈パターンと比較し得る程度に鮮明になっているか(焦点がずれていないか)や、指静脈パターンに欠けが無いか(指14aが検出面12aの中心位置に対面しているか)等のチェック項目に基づく、スコア計算を行い、品質を示す品質値を演算する。 The authentication processing unit 20 (authentication determination unit 20d) monitors whether or not there is a request to suspend biometric authentication from the application program 18b that requested biometric authentication (S106). If there is no interruption request (No in S106), the authentication determination unit 20d reads biometric information at the current position (orientation) of the finger 14a acquired by the biometric authentication device 12 (S108). Then, the finger vein pattern of the finger 14a is detected based on the read biometric information, and quality calculation is performed to confirm whether or not the acquired biometric information has sufficient quality to ensure a predetermined authentication system. (S110). For example, whether the outline of the finger vein pattern is sharp enough to be compared with the reference finger vein pattern of a registered registrant registered in advance in the information processing apparatus 10 (whether the finger vein pattern is out of focus); Score calculation is performed based on check items such as whether or not there is chipping (whether the finger 14a faces the center position of the detection surface 12a), and a quality value indicating quality is calculated.

S110で算出した生体情報品質が、生体認証に適した品質であると見なせる場合(S112のYes)、認証判定部20dは、生体認証装置12が取得した,現在の指14aの位置(姿勢)での生体情報を用いて周知の技術を用いて生体認証処理を実行する(S114)。そして、認証判定部20dは、生体認証要求を行った要求元(アプリケーションプログラム18b)に認証結果を返却し(S116)、このフローを一旦終了する。つまり、指14aの位置(姿勢)補正を行わせることなく、現在の指14aの位置(姿勢)のまま、生体認証(指静脈パターンを用いた認証)を実行する。 If the biometric information quality calculated in S110 can be regarded as suitable for biometric authentication (Yes in S112), the authentication determination unit 20d determines the current position (orientation) of the finger 14a acquired by the biometric authentication device 12. Biometric authentication processing is executed using a well-known technique using the biometric information (S114). Then, the authentication determination unit 20d returns the authentication result to the request source (application program 18b) that made the biometric authentication request (S116), and ends this flow once. That is, biometric authentication (authentication using a finger vein pattern) is performed with the current position (orientation) of the finger 14a without correcting the position (orientation) of the finger 14a.

S112において、S110で算出した生体情報品質が、生体認証に適した品質であると見なせない場合(S112のNo)、まず、姿勢取得部20bは、生体認証装置12が取得した現在の指14aの生体情報に基づき、生体認証装置12に対する指14aの位置、距離、角度等の姿勢情報を算出する(S118)。つまり、指14aが生体認証に適した位置に翳されていないと判定し、現在の指14aの位置(姿勢)の把握を生体情報に基づいて行う。続いて、姿勢取得部20bは、入力装置16が取得した現在の指14aの位置情報に基づき、生体認証装置12に対する指14aの位置、距離、角度等の三次元位置を示す姿勢情報を算出する(S120)。上述したように、生体認証装置12の設置位置と入力装置16の設置位置とは異なる。したがって、検出面12aに対する指14aの位置、距離、角度等を示す姿勢情報が、異なる視点から取得することができる。 In S112, if the biometric information quality calculated in S110 cannot be regarded as a quality suitable for biometric authentication (No in S112), first, the posture acquisition unit 20b acquires the current finger 14a acquired by the biometric authentication device 12. Posture information such as the position, distance and angle of the finger 14a with respect to the biometric device 12 is calculated based on the biometric information (S118). That is, it is determined that the finger 14a is not held at a position suitable for biometric authentication, and the current position (orientation) of the finger 14a is grasped based on biometric information. Next, based on the current position information of the finger 14a acquired by the input device 16, the posture acquisition unit 20b calculates posture information indicating the three-dimensional position such as the position, distance, and angle of the finger 14a with respect to the biometric device 12. (S120). As described above, the installation position of the biometric authentication device 12 and the installation position of the input device 16 are different. Therefore, posture information indicating the position, distance, angle, etc. of the finger 14a with respect to the detection surface 12a can be acquired from different viewpoints.

続いて、案内部20cは、姿勢取得部20bが推定した生体認証装置12から指14aを見た場合の位置、距離、角度等の姿勢情報の結果、および入力装置16から見た場合の、位置、距離、角度等の姿勢情報の結果、つまり両方の結果を用いて、生体認証装置12と指14aとの位置、距離、角度が認証に適した品質が得られる状態になるための姿勢補正値を演算する(S122)。つまり、予め検出面12aに設定された検出最適位置との差分を二種類の生成情報に基づいて算出する。例えば、図1の矢印X1-X2方向および矢印Y1-Y2方向に関しては、検出面12aの枠中央位置を最適位置として、指14aの腹がその位置に来るような姿勢補正値(平面補正値)を算出する。また、図1矢印Z1-Z2方向に関しては、指14aの焦点が合う高さに指14aが来るように姿勢補正値(高さ補正値)を算出する。さらに、図1中矢印R1-R2方向に関しては、指14aの腹が検出面12aに対面するような姿勢補正値(回転補正値)を算出する。 Subsequently, the guiding unit 20c acquires the result of the posture information such as the position, distance, and angle when the finger 14a is viewed from the biometric authentication device 12 estimated by the posture acquiring unit 20b, and the position when viewed from the input device 16. , distance, angle, etc., that is, using both results, the position, distance, and angle between the biometric authentication device 12 and the finger 14a are in a state suitable for authentication. is calculated (S122). That is, the difference from the optimal detection position set in advance on the detection surface 12a is calculated based on two types of generation information. For example, regarding the directions of arrows X1-X2 and arrows Y1-Y2 in FIG. 1, the center position of the frame of the detection surface 12a is assumed to be the optimum position, and posture correction values (plane correction values) are provided so that the pad of the finger 14a is positioned at that position. Calculate 1, the posture correction value (height correction value) is calculated so that the finger 14a comes to the height where the finger 14a is focused. Further, in the direction of the arrows R1-R2 in FIG. 1, a posture correction value (rotation correction value) is calculated so that the ball of the finger 14a faces the detection surface 12a.

そして、案内部20cは、算出した姿勢補正値に基づき、指14aを認証最適位置に誘導するための案内情報(補正情報)を作成し(S124)、この案内情報に基づき誘導処理(補正案内)を、出力装置22(表示部10aや音声出力装置等)を介して実行する(S126)。案内情報は、上述したように、表示部10aに表示する案内矢印の情報や、音声出力装置から出力する音声メッセージ等である。また、具体的な補正量(移動量)を示す案内情報でもよい。 Then, the guiding unit 20c creates guidance information (correction information) for guiding the finger 14a to the optimum authentication position based on the calculated posture correction value (S124), and performs guidance processing (correction guidance) based on this guidance information. is executed via the output device 22 (display unit 10a, audio output device, etc.) (S126). As described above, the guidance information includes guidance arrow information displayed on the display unit 10a, voice messages output from the voice output device, and the like. Guidance information indicating a specific amount of correction (amount of movement) may also be used.

出力装置22による誘導処理が実行された場合、S106の処理に移行し、再度認証中断の有無の確認(S106)を経て、誘導された位置(より認証に適した位置に移動したと見なせる位置)における指14aの生体情報の取得処理を行い、再度生体認証処理を実行する処理を継続する。 When the guidance process by the output device 22 is executed, the process proceeds to S106, and the presence or absence of authentication interruption is confirmed again (S106), and the guided position (the position that can be considered to have moved to a position more suitable for authentication) , the biometric information acquisition process of the finger 14a is performed, and the process of performing the biometric authentication process again is continued.

S106において、生体認証要求を行ったアプリケーションプログラム18bから生体認証の中断要求があった場合(S106のYes)、認証判定部20dは、認証処理を中断した旨を示す認証中断結果を生体認証要求元に返却して(S128)、このフローを一旦終了する。 In S106, if the application program 18b that requested biometric authentication has issued a request to suspend biometric authentication (Yes in S106), the authentication determination unit 20d sends an authentication suspension result indicating that the authentication process has been suspended to the biometric authentication requester. (S128) and terminate this flow.

このように情報処理装置10によれば、非接触型の生体認証装置12を用いて生体認証を行う場合、生体14の検出面12aに対して生体14(指14a)の位置をより適切に誘導し、生体認証を実行させることができる。 As described above, according to the information processing apparatus 10, when biometric authentication is performed using the non-contact biometric authentication device 12, the position of the living body 14 (finger 14a) is more appropriately guided with respect to the detection surface 12a of the living body 14. and biometric authentication can be performed.

例えば、情報処理装置10は、生体認証装置12(第一にセンサ)と、入力装置16(第二のセンサ)と、姿勢取得部20bと、案内部20cとを備える。生体認証装置12は、検出面12aに非接触状態で位置する生体14の生体情報を取得する。入力装置16は、生体認証装置12とは異なる位置に配置され、生体14の位置情報を取得する。姿勢取得部20bは、生体認証装置12が取得した生体情報と、入力装置16が取得した位置情報とに基づき、生体認証装置12に対する生体14(指14a)の姿勢情報を取得する。案内部20cは、姿勢情報に基づき、生体14の認証姿勢が生体認証装置12に対して所定の検出姿勢になるように案内する。この構成によれば、例えば、生体認証装置12による生体情報の取得に加え、生体認証装置12(第一のセンサ)に対して、異なる位置に配置された入力装置16(第二のセンサ)により、検出面12aに対する生体14の位置情報を取得するため、検出面12aに対する生体14の位置をより正確に把握することができる。その結果、生体14の認証姿勢が生体認証装置12に対して所定の検出姿勢になるようより正確に案内することが可能で、生体認証制度の向上に寄与できる。また、認証に最適な位置に迅速に生体14(指14a)を誘導できるので、生体認証処理時間の短縮化に寄与できる。 For example, the information processing apparatus 10 includes a biometrics authentication device 12 (first sensor), an input device 16 (second sensor), an orientation acquisition section 20b, and a guide section 20c. The biometric authentication device 12 acquires biometric information of a living body 14 positioned in a non-contact state on the detection surface 12a. The input device 16 is arranged at a position different from the biometric authentication device 12 and acquires the position information of the living body 14 . The posture acquisition unit 20 b acquires posture information of the living body 14 (finger 14 a ) with respect to the biometric authentication device 12 based on the biometric information acquired by the biometric authentication device 12 and the position information acquired by the input device 16 . The guiding unit 20c guides the biometric device 12 so that the authentication posture of the living body 14 is a predetermined detection posture based on the posture information. According to this configuration, for example, in addition to acquisition of biometric information by the biometric authentication device 12, the input device 16 (second sensor) arranged at a different position with respect to the biometric authentication device 12 (first sensor) Since the position information of the living body 14 with respect to the detection surface 12a is obtained, the position of the living body 14 with respect to the detection surface 12a can be more accurately grasped. As a result, it is possible to more accurately guide the biometric authentication apparatus 12 so that the authentication posture of the living body 14 becomes a predetermined detection posture, which contributes to the improvement of the biometric authentication system. In addition, since the living body 14 (finger 14a) can be quickly guided to the optimum position for authentication, it can contribute to shortening the biometric authentication processing time.

また、案内部20cは、認証姿勢が所定の検出姿勢を満たさない場合に、検出姿勢を補正する補正案内を行う。この構成によれば、例えば、認証姿勢が所定の検出姿勢を満たす場合には、案内処理が省略されるので、処理負荷の軽減や処理時間の短縮化に寄与できる。 In addition, when the authentication posture does not satisfy a predetermined detected posture, the guidance unit 20c performs correction guidance for correcting the detected posture. According to this configuration, for example, when the authentication orientation satisfies a predetermined detection orientation, the guidance processing is omitted, which contributes to reduction of the processing load and shortening of the processing time.

また、姿勢取得部20bは、位置情報に基づき、生体14の三次元位置を示す姿勢情報を取得する。この構成によれば,例えば、認証に最適な三次元位置に生体14(指14a)を誘導し易くなり、より高精度の誘導が可能になる。 Also, the posture acquisition unit 20b acquires posture information indicating the three-dimensional position of the living body 14 based on the position information. According to this configuration, for example, the living body 14 (finger 14a) can be easily guided to a three-dimensional position that is optimal for authentication, and guidance can be performed with higher accuracy.

また、案内部20cは、三次元位置に基づき、検出面12aの正面位置に対する生体14(指14a)の位置ずれ量、検出面12aから生体14(指14a)までの距離と、検出面12aに対する生体14(指14a)の角度と、のうち少なくとも一つについて案内を行う。この構成によれば、検出面12aに対する生体14(指14a)の誘導をより正確かつ効率的に行うことができる。 Further, based on the three-dimensional position, the guide unit 20c determines the displacement amount of the living body 14 (finger 14a) with respect to the front position of the detection surface 12a, the distance from the detection surface 12a to the living body 14 (finger 14a), and the distance from the detection surface 12a. At least one of the angle of the living body 14 (finger 14a) and the guidance is performed. With this configuration, the living body 14 (finger 14a) can be guided more accurately and efficiently with respect to the detection surface 12a.

また、情報処理プログラム18aは、第一の検出処理と、第二の検出処理と、姿勢取得処理と、案内処理とを、情報処理装置10に実行させる。第一の検出処理は、検出面12aに非接触状態で位置する生体14の生体情報を生体認証装置12(第一のセンサ)で取得する。第二の検出処理は、生体認証装置12とは異なる位置に配置された入力装置16(第二のセンサ)で、生体14の位置情報を取得する。姿勢取得処理は、生体認証装置12が取得した生体情報と、入力装置16が取得した位置情報とに基づき、生体認証装置12に対する生体14の姿勢情報を取得する。案内処理は、姿勢情報に基づき、生体14の認証姿勢が生体認証装置12に対して所定の検出姿勢になるように案内する。この構成によれば、例えば、生体認証装置12による生体情報の取得に加え、生体認証装置12(第一のセンサ)に対して、異なる位置に配置された入力装置16(第二のセンサ)により、検出面12aに対する生体14の位置情報を取得するため、検出面12aに対する生体14の位置をより正確に把握することができる。その結果、生体14の認証姿勢が生体認証装置12に対して所定の検出姿勢になるようより正確に案内することが可能で、生体認証制度の向上に寄与できる。また、認証に最適な位置に迅速に生体14(指14a)を誘導できるので、生体認証処理時間の短縮化に寄与できる。 The information processing program 18a also causes the information processing apparatus 10 to execute a first detection process, a second detection process, a posture acquisition process, and a guidance process. In the first detection process, biometric information of a living body 14 positioned in a non-contact state on the detection surface 12a is acquired by the biometrics authentication device 12 (first sensor). In the second detection process, the input device 16 (second sensor) arranged at a position different from the biometric authentication device 12 acquires the position information of the living body 14 . The posture acquisition process acquires posture information of the living body 14 with respect to the biometric authentication device 12 based on the biometric information acquired by the biometric authentication device 12 and the position information acquired by the input device 16 . The guidance processing guides the biometric device 12 so that the authentication posture of the living body 14 is a predetermined detection posture based on the posture information. According to this configuration, for example, in addition to acquisition of biometric information by the biometric authentication device 12, the input device 16 (second sensor) arranged at a different position with respect to the biometric authentication device 12 (first sensor) Since the position information of the living body 14 with respect to the detection surface 12a is obtained, the position of the living body 14 with respect to the detection surface 12a can be more accurately grasped. As a result, it is possible to more accurately guide the biometric authentication apparatus 12 so that the authentication posture of the living body 14 becomes a predetermined detection posture, which contributes to the improvement of the biometric authentication system. In addition, since the living body 14 (finger 14a) can be quickly guided to the optimum position for authentication, it can contribute to shortening the biometric authentication processing time.

本実施形態の情報処理装置10(CPU)で実行される生体の誘導のための情報処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The information processing program for guiding the living body to be executed by the information processing device 10 (CPU) of the present embodiment is a file in an installable format or an executable format on a CD-ROM, a flexible disk (FD), or a CD-ROM. It may be configured to be provided by being recorded on a computer-readable recording medium such as R, DVD (Digital Versatile Disk).

さらに、情報処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される情報処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the information processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the information processing program executed in this embodiment may be configured to be provided or distributed via a network such as the Internet.

なお、上述した実施形態では、情報処理装置10がノートブック型のパーソナルコンピュータである場合を示した。別の実施形態では、据え置き型のデスクトップコンピュータ、タブレット端末、スマートフォン、携帯電話等でも生体認証装置12と入力装置16とが異なる位置に配置できる情報処理装置であれば、本実施形態の構成が適用可能であり、上述した実施形態と同様の効果を得ることができる。 In the above-described embodiment, the information processing apparatus 10 is a notebook personal computer. In another embodiment, the configuration of this embodiment can be applied to a stationary desktop computer, a tablet terminal, a smart phone, a mobile phone, or the like, as long as the information processing device allows the biometric authentication device 12 and the input device 16 to be placed at different positions. It is possible, and the same effect as the embodiment described above can be obtained.

なお、上述した実施形態では、入力装置16(第二のセンサ)として、フロントカメラを示した。別の実施形態では、生体認証装置12(第一のセンサ)と異なる位置に配置可能で、生体認証装置12の検出面12aおよび検出面12aに翳される生体14(指14a等)の位置情報が取得可能なセンサであれば、他のセンサでも利用可能である。例えば、赤外線カメラや、レーダ、測距センサ等も第二のセンサとして利用可能で、本実施形態と同様の効果を得ることができる。 In addition, in the embodiment described above, the front camera is shown as the input device 16 (second sensor). In another embodiment, the position information of the detection surface 12a of the biometrics authentication device 12 and the position information of the living body 14 (finger 14a, etc.) held over the detection surface 12a, which can be arranged at a position different from the biometrics authentication device 12 (first sensor). Other sensors can be used as long as the sensor can acquire . For example, an infrared camera, a radar, a distance measuring sensor, or the like can be used as the second sensor, and the same effects as those of the present embodiment can be obtained.

また、上述した実施形態では、認証時に生体14の誘導を行う例を示したが、例えば、正規登録者の参照指静脈パターンを登録する際にも、本実施形態の構成を適用可能で、生体14を最適な登録位置(登録姿勢)に誘導すること可能である。その結果、登録の情報の精度向上、登録の迅速化等に寄与することができる。 Further, in the above-described embodiment, an example of guiding the living body 14 at the time of authentication was shown. 14 can be guided to the optimal registered position (registered posture). As a result, it is possible to contribute to improving the accuracy of registration information, speeding up registration, and the like.

また、本実施形態において、案内部20cが、生体14の誘導を具体的に行う例を示した。他の実施形態では、簡易的な誘導を行うようにしてもよい。例えば、「指の位置を検出面の直上に移動してください。」とか、「指をもう少し検出面に近づけてください。」等の案内でもよく、同様な効果を得ることができる。 Further, in the present embodiment, an example in which the guide part 20c specifically guides the living body 14 is shown. In other embodiments, simple guidance may be provided. For example, guidance such as "Move the position of the finger directly above the detection surface" or "Please bring the finger closer to the detection surface" may be used, and similar effects can be obtained.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments and variations of the invention have been described, these embodiments and variations are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

10…情報処理装置、10a…表示部、12…生体認証装置(第一のセンサ)、12a…検出面、14…生体、14a…指、16…入力装置(第二のセンサ)、18…記憶部、18a…情報処理プログラム、18b…アプリケーションプログラム、20…認証処理部、20a…情報取得部、20b…姿勢取得部、20c…案内部、20d…認証判定部、22…出力装置、E…撮像範囲 DESCRIPTION OF SYMBOLS 10... Information processing apparatus 10a... Display part 12... Biometric authentication apparatus (first sensor) 12a... Detection surface 14... Living body 14a... Finger 16... Input device (second sensor) 18... Memory Part 18a... Information processing program 18b... Application program 20... Authentication processing unit 20a... Information acquisition unit 20b... Posture acquisition unit 20c... Guidance unit 20d... Authentication determination unit 22... Output device E... Imaging range

Claims (5)

検出面に非接触状態で位置する生体の生体情報を取得する第一のセンサと、
前記第一のセンサに翳された前記生体を前記第一のセンサとともに俯瞰可能な 前記第一のセンサとは異なる位置に配置され、前記第一のセンサとともに前記第一のセンサに対する前記生体の位置情報を取得する第二のセンサと、
前記第一のセンサが取得した前記生体情報と、前記第二のセンサが取得した位置情報とに基づき、前記第一のセンサに対する前記生体の姿勢情報を取得する姿勢取得部と、
前記姿勢情報に基づき、前記生体の認証姿勢が前記第一のセンサに対して所定の検出姿勢になるように案内する案内部と、
を備える、情報処理装置。
a first sensor that acquires biological information of a living body positioned in a non-contact state on the detection surface;
The living body held by the first sensor can be overlooked together with the first sensor arranged at a position different from the first sensor,to the first sensor together with the first sensora second sensor that acquires position information of the living body;
a posture acquisition unit configured to acquire posture information of the living body with respect to the first sensor based on the biological information acquired by the first sensor and the position information acquired by the second sensor;
a guide unit that guides the biometric authentication posture to a predetermined detection posture with respect to the first sensor based on the posture information;
An information processing device.
前記案内部は、前記認証姿勢が前記所定の検出姿勢を満たさない場合に、前記検出姿勢を補正する補正案内を行う、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said guidance section performs correction guidance for correcting said detected posture when said authentication posture does not satisfy said predetermined detected posture. 前記姿勢取得部は、前記位置情報に基づき、前記生体の三次元位置を示す姿勢情報を取得する、請求項1または請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein said posture acquisition unit acquires posture information indicating a three-dimensional position of said living body based on said position information. 前記案内部は、前記三次元位置に基づき、前記検出面の正面位置に対する前記生体の位置ずれ量、前記検出面から前記生体までの距離と、前記検出面に対する前記生体の角度と、のうち少なくとも一つについて案内を行う、請求項3に記載の情報処理装置。 Based on the three-dimensional position, the guide section determines at least an amount of displacement of the living body with respect to the front position of the detection surface, a distance from the detection surface to the living body, and an angle of the living body with respect to the detection plane. 4. The information processing apparatus according to claim 3, wherein guidance is provided for one. 検出面に非接触状態で位置する生体の生体情報を第一のセンサで取得する第一の検出処理と、
前記第一のセンサに翳された前記生体を前記第一のセンサとともに俯瞰可能な 前記第一のセンサとは異なる位置に配置された第二のセンサで、前記第一のセンサとともに前記第一のセンサに対する前記生体の位置情報を取得する第二の検出処理と、
前記第一のセンサが取得した前記生体情報と、前記第二のセンサが取得した位置情報とに基づき、前記第一のセンサに対する前記生体の姿勢情報を取得する姿勢取得処理と、
前記姿勢情報に基づき、前記生体の認証姿勢が前記第一のセンサに対して所定の検出姿勢になるように案内する案内処理と、
を、情報処理装置に実行させる、情報処理プログラム。
a first detection process of acquiring biometric information of a living body positioned in a non-contact state on a detection surface with a first sensor;
The living body held by the first sensor can be overlooked together with the first sensor A second sensor located at a position different from the first sensor,to the first sensor together with the first sensora second detection process for acquiring position information of the living body;
Posture acquisition processing for acquiring posture information of the living body with respect to the first sensor based on the biometric information acquired by the first sensor and the position information acquired by the second sensor;
Guidance processing for guiding the authentication posture of the biometric body to a predetermined detection posture with respect to the first sensor based on the posture information;
An information processing program that causes an information processing device to execute.
JP2021089603A 2021-05-27 2021-05-27 Information processing device and information processing program Active JP7161129B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021089603A JP7161129B1 (en) 2021-05-27 2021-05-27 Information processing device and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021089603A JP7161129B1 (en) 2021-05-27 2021-05-27 Information processing device and information processing program

Publications (2)

Publication Number Publication Date
JP7161129B1 true JP7161129B1 (en) 2022-10-26
JP2022182196A JP2022182196A (en) 2022-12-08

Family

ID=83782323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021089603A Active JP7161129B1 (en) 2021-05-27 2021-05-27 Information processing device and information processing program

Country Status (1)

Country Link
JP (1) JP7161129B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040151A (en) 2004-07-29 2006-02-09 Toshiba Corp Face authentication device, face authentication method, and passage control device
WO2012081126A1 (en) 2010-12-17 2012-06-21 富士通株式会社 Biometric authentication device, biometric authentication method, and computer program for biometric authentication
WO2013046373A1 (en) 2011-09-28 2013-04-04 富士通株式会社 Information processing device, control method and program
WO2014033842A1 (en) 2012-08-28 2014-03-06 株式会社日立製作所 Authentication device and authentication method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040151A (en) 2004-07-29 2006-02-09 Toshiba Corp Face authentication device, face authentication method, and passage control device
WO2012081126A1 (en) 2010-12-17 2012-06-21 富士通株式会社 Biometric authentication device, biometric authentication method, and computer program for biometric authentication
WO2013046373A1 (en) 2011-09-28 2013-04-04 富士通株式会社 Information processing device, control method and program
WO2014033842A1 (en) 2012-08-28 2014-03-06 株式会社日立製作所 Authentication device and authentication method

Also Published As

Publication number Publication date
JP2022182196A (en) 2022-12-08

Similar Documents

Publication Publication Date Title
US9049983B1 (en) Ear recognition as device input
JP5237394B2 (en) Authentication device, imaging device, authentication method, and authentication program
US11176231B2 (en) Identifying and authenticating users based on passive factors determined from sensor data
US9607138B1 (en) User authentication and verification through video analysis
US8660532B2 (en) User authentication method for access to a mobile user terminal and corresponding mobile user terminal
JP5609970B2 (en) Control access to wireless terminal functions
US20170339137A1 (en) Method, device and computer program for authenticating a user
US9257133B1 (en) Secure input to a computing device
JP2017538225A (en) Fingerprint authentication using touch sensor data
KR20150129383A (en) Fingerprint Recognition method and electronic device performing thereof
CN106384098A (en) Image-based head posture detection method, device and terminal
US20150074786A1 (en) Method of automatically authenticating a user and electronic device therefor
JP2011191838A (en) Finger vein authentication device
CN104850827A (en) Fingerprint identification method and apparatus
KR20170068305A (en) Electronic device and method for providing an user information
US9785863B2 (en) Fingerprint authentication
JP2015026201A (en) Imaging apparatus and imaging method
CN107077200B (en) Reflection-based control activation
KR20150003501A (en) Electronic device and method for authentication using fingerprint information
JP6267025B2 (en) Communication terminal and communication terminal authentication method
JP2019133287A (en) Biometric authentication device, biometric authentication program and biometric authentication method
JP7161129B1 (en) Information processing device and information processing program
JP6825397B2 (en) Biometric device, biometric method and biometric program
US20160012248A1 (en) Access permission system and access permission determination method
US10956604B2 (en) Electronic device and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7161129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150