JP6674683B2 - Authentication processing apparatus and authentication processing method - Google Patents

Authentication processing apparatus and authentication processing method Download PDF

Info

Publication number
JP6674683B2
JP6674683B2 JP2015247761A JP2015247761A JP6674683B2 JP 6674683 B2 JP6674683 B2 JP 6674683B2 JP 2015247761 A JP2015247761 A JP 2015247761A JP 2015247761 A JP2015247761 A JP 2015247761A JP 6674683 B2 JP6674683 B2 JP 6674683B2
Authority
JP
Japan
Prior art keywords
virtual
coordinates
authentication
dimensional
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015247761A
Other languages
Japanese (ja)
Other versions
JP2016119095A (en
Inventor
佐藤 公則
公則 佐藤
渡邊 睦
睦 渡邊
雅之 鹿嶋
雅之 鹿嶋
亮佑 田中
亮佑 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Original Assignee
Kagoshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC filed Critical Kagoshima University NUC
Publication of JP2016119095A publication Critical patent/JP2016119095A/en
Application granted granted Critical
Publication of JP6674683B2 publication Critical patent/JP6674683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、認証対象者の個人認証を行う認証処理装置及び認証処理方法に関するものである。   The present invention relates to an authentication processing device and an authentication processing method for performing personal authentication of a person to be authenticated.

従来より、銀行ATMなどにおいて、個人認証は、暗証番号として登録されている4桁のPIN(Personal Identification Number)コードの入力を認証対象者に対して求め、その認証対象者から入力されたPINコードが正しいか否かを判定することにより行われている。   2. Description of the Related Art Conventionally, in bank ATMs and the like, personal authentication requires a person to be authenticated to input a four-digit PIN (Personal Identification Number) code registered as a personal identification number, and the PIN code entered by the person to be authenticated Is determined by determining whether or not is correct.

また、一般的な銀行ATMは、テンキー画像等を表示するディスプレイ装置にタッチセンサが併設されており、ディスプレイ画面上を認証対象者がタッチしたときに、タッチセンサがそのタッチ位置を検出して何れのキー画像がタッチされたのかを判断することにより、どの数字が入力されたかを識別している。なお、数字等の入力装置として、例えば特許文献1には、非接触による入力を検知可能な装置が開示されている。   In general, a bank ATM has a touch sensor attached to a display device that displays a numeric keypad image and the like. When a person to be authenticated touches a display screen, the touch sensor detects the touch position and detects any touch position. By determining whether the key image has been touched, which number has been input is identified. As an input device for numbers or the like, for example, Patent Document 1 discloses a device capable of detecting a non-contact input.

特許第5509391号公報Japanese Patent No. 5509391

ところで、従来の暗証番号を用いた個人認証は、例えば暗証番号を入力している様子が盗撮されたり背後から盗み見られたりすることで暗証番号が盗まれる虞がある。すなわち、暗証番号を用いた個人認証は、盗撮や盗み見という比較的簡単な方法で暗証番号が盗まれる虞があるため、セキュリティ性が高いとは言い難い。そして、暗証番号が盗まれた上に、例えばスキミング等によりカード情報が盗まれて偽造カードが作成されてしまうと、被害者は多大な損害を被ることになる可能性が高い。   By the way, in the conventional personal authentication using a personal identification number, there is a possibility that the personal identification number may be stolen due to, for example, a situation in which the personal identification number is being stolen or viewed from behind. In other words, personal authentication using a personal identification number cannot be said to have high security because the personal identification number may be stolen by a relatively simple method such as voyeurism and prying eyes. If the password is stolen and the card information is stolen by skimming or the like to create a forged card, the victim is likely to suffer a great deal of damage.

このようなことから、近年は、例えば指紋や手の静脈模様、虹彩などに基づくバイオメトリクス情報を利用した個人認証を用いることで、高いセキュリティ性を確保した個人認証が行われるケースも増えてきている。   For this reason, in recent years, the use of personal authentication using biometric information based on fingerprints, hand vein patterns, irises, and the like has increased the number of cases in which personal authentication with high security is performed. I have.

しかしながら、バイオメトリクス情報による認証は、セキュリティ性が高く安全、安心ではあるが、指紋センサや静脈センサ、虹彩センサのような特殊な認証用センサが必要になり、その導入コストはかなりの高額となる。   However, authentication using biometric information is highly secure, safe, and secure, but requires special authentication sensors such as fingerprint sensors, vein sensors, and iris sensors, and the introduction cost is considerably high. .

また例えば指紋を用いた場合において、例えば表面が非常に滑らかな金属やガラス等を指先で触れたような時に、それらガラス等の表面に皮脂による指紋パターンが残ってしまうこともあり、その指紋パターンが盗まれることも考えられる。また、手の静脈模様についても、例えば赤外線カメラなどにより撮影されることで静脈パターンが盗まれてしまう虞がある。   Also, for example, when a fingerprint is used, for example, when a finger or a finger touches a very smooth metal or glass surface, a fingerprint pattern of sebum may be left on the surface of the glass or the like. Could be stolen. Also, the vein pattern of the hand may be stolen by being photographed by, for example, an infrared camera.

さらに、指紋等の生体情報は、各人に対して唯一の情報であって代替ができない情報であるため、例えばその情報が何らかの方法で盗まれてしまうと、新たに認証情報を登録し直すようなことが非常に難しくなるという問題もある。   Furthermore, biometric information such as a fingerprint is information that is unique to each person and cannot be replaced. For example, if the information is stolen in some way, it is necessary to newly register authentication information. There is also a problem that it becomes very difficult.

その他にも、指紋を認証に使用する場合は指紋採取が行なわれることになるが、指紋採取に対して抵抗感を抱く人も多い。バイオメトリクス情報として指紋や手の静脈などの情報を用いる場合、認証対象者は、認証機器が備えている認証用センサ上に手指や手掌を接触させなければならない。しかしながら、不特定多数の人が触れた認証用センサに触れることに対して嫌悪感を抱く人が少なくなくない。   In addition, when a fingerprint is used for authentication, fingerprint collection is performed, and many people have a feeling of resistance to fingerprint collection. When information such as a fingerprint or a vein of a hand is used as the biometric information, the person to be authenticated must bring his / her finger or palm into contact with the authentication sensor provided in the authentication device. However, not a few people have an aversion to touching the authentication sensor touched by an unspecified number of people.

本発明はこのような問題点に鑑みてなされたものであり、認証用センサ等に触れることなく、非常に高いセキュリティ性を確保した個人認証を可能とする認証処理装置及び認証処理方法を提供することを目的とする。   The present invention has been made in view of such a problem, and provides an authentication processing apparatus and an authentication processing method that enable personal authentication with extremely high security without touching an authentication sensor or the like. The purpose is to:

本発明の認証処理装置は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とを有し、前記認証コードに用いられる複数のコード情報は0から9の数字であり、前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置して表示し、前記解析手段は、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字と前記各数字にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、前記認証判定手段は、順に配列された各数字と前記各数字に対応した手指部位の各識別情報とが予め登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする。 An authentication processing device according to the present invention includes a coordinate detecting unit that detects three-dimensional coordinates of a detection target object in a three-dimensional space at predetermined time periods, and a plurality of selection units respectively corresponding to a plurality of code information used for an authentication code. Image display means for displaying a target image on a screen, a virtual two-dimensional plane set in the three-dimensional space, display coordinates of the plurality of selection target images in the screen, and virtual coordinates in a virtual two-dimensional plane By analyzing the three-dimensional coordinates of the detection target object, a plurality of parts constituting the detection target object are identified by analyzing the three-dimensional coordinates of the detection target object. When a predetermined movement due to the identified part is detected in the three-dimensional space in a state corresponding to the virtual coordinates in a three-dimensional plane, the selected pair is determined by the identified part. Performing an authentication determination based on analysis means for determining that an image has been selected, code information corresponding to the selection target image determined to have been selected by the analysis means, and code information of an authentication code registered in advance. possess an authentication decision means, a plurality of code information used for the authentication code is a number from 0 to 9, the image display means, the image of the numerals 0 to 9 as a plurality of selection images the screen In the case where the object to be detected is the hand of the person to be authenticated, the analysis means individually identifies each finger part, and performs a predetermined operation using one of the finger parts. Each time a motion is detected, a candidate array comprising each digit of the selection target image corresponding to each finger portion of the hand and each identification information of each finger portion corresponding to each digit is obtained, Authentication determination means The number and the identification information of each sequence in the authentication code in which the numbers arranged in order and the identification information of the finger parts corresponding to the numbers are registered in advance, and the predetermined movement are detected. The authentication determination of the person to be authenticated is performed by determining the match between the number in the candidate sequence and the identification information in each of the determined orders .

また、本発明の認証処理装置は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とを有し、前記認証コードに用いられる複数のコード情報は、少なくとも0から9の数字と所定の記号とを含み、前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置すると共に、前記数字の画像を除くエリアを前記所定の記号に対応した選択対象画像として表示し、前記解析手段は、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字又は記号と前記各数字又は記号にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、前記認証判定手段は、順に配列された各数字又は記号と前記各数字又は記号にそれぞれ対応した手指部位の各識別情報とが登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字又は記号及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする。
また、本発明の認証処理装置は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とを有し、前記仮想平面設定手段は、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定しており、前記解析手段は、前記三次元空間内で前記識別された部位が静止した時間を計測し、前記部位が所定の時間だけ静止したことを検出したとき、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の方向で前記部位の先端から所定距離だけ離れた座標値に所定の判定座標を設定し、前記三次元空間内で前記部位が動いたことで前記部位の先端が前記判定座標に達したときに、前記所定の動きを検出することを特徴とする。
また、本発明の認証装置は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とを有し、前記仮想平面設定手段は、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定しており、前記解析手段は、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の、当該仮想二次元平面内での座標を基準座標にすると共に当該基準座標に対して正側と負側を設定し、前記識別された部位の先端が前記基準座標に対して正側から前記基準座標を超えて負側へ移動したときに、前記所定の動きを検出することを特徴とする。
また、本発明の認証装置は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とを有し、前記解析手段は、前記三次元空間内で前記識別された各部位が静止した時間を計測し、前記各部位が所定の時間だけ静止したことを検出した後、前記三次元空間内で前記各部位の先端が動いた際の移動量が最も大きい部位を、前記所定の動きが検出された部位とすることを特徴とする。
Further, the authentication processing device of the present invention includes a coordinate detecting unit that detects three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code units respectively corresponding to a plurality of code information used for the authentication code. Image display means for displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. The virtual plane setting means for associating with the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target , identify a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part Analysis means for judging that the selection target image has been selected, code information corresponding to the selection target image judged to be selected by the analysis means, and code information of a pre-registered authentication code. And a plurality of code information used for the authentication code include at least a number from 0 to 9 and a predetermined symbol, and the image display means includes a plurality of 0 And an image excluding the image of the number is displayed as an image to be selected corresponding to the predetermined symbol, and the analysis unit determines that the object to be detected is the person to be authenticated. In the case of the hand, each finger part is individually identified, and each time a predetermined movement by one finger part of the finger parts is detected, a selection pair corresponding to each finger part of all the hands is detected. Obtain a candidate array consisting of each number or symbol of the image and each piece of identification information of each finger portion corresponding to each of the numbers or symbols, and the authentication determination unit sequentially arranges each of the numbers or symbols and each of the numbers Or, the identification information of each of the sequences in the authentication code in which the identification information of the finger part corresponding to each symbol is registered, and the identification information of each of the sequences and the candidate sequence of each of the sequences in which the predetermined motion is detected. The authentication determination of the person to be authenticated is performed by determining the match between the numeral or symbol and the identification information.
Further, the authentication processing device of the present invention includes a coordinate detecting unit that detects three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code units respectively corresponding to a plurality of code information used for the authentication code. Image display means for displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. The virtual plane setting means for associating with the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target, identify a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part Analysis means for judging that the selection target image has been selected, code information corresponding to the selection target image judged to be selected by the analysis means, and code information of a pre-registered authentication code. The virtual plane setting means includes any two of the X, Y, and Z axes in the three-dimensional space represented by the X, Y, and Z axes. The virtual two-dimensional plane represented by coordinate axes is set, and the analysis unit measures a time at which the identified part is stationary in the three-dimensional space, and the part is stationary for a predetermined time. When detecting, in the three-dimensional space, a predetermined determination coordinate is set to a coordinate value separated by a predetermined distance from the tip of the part in a direction of a coordinate axis orthogonal to the virtual two-dimensional plane, and in the three-dimensional space By moving the part at When the end is reached the judgment coordinate, and detects the predetermined movement.
In addition, the authentication device of the present invention includes a coordinate detection unit that detects three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code units respectively corresponding to a plurality of code information used for the authentication code. Image display means for displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, display coordinates of the plurality of selection target images in the screen and virtual display in a virtual two-dimensional plane. By analyzing virtual plane setting means for associating the coordinates with the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts are determined by the virtual coordinates. In a state corresponding to the virtual coordinates in a two-dimensional plane, when a predetermined movement by the identified part is detected in the three-dimensional space, the selected part is selected by the identified part. Analysis means for determining that the elephant image has been selected, code information corresponding to the selection target image determined to be selected by the analysis means, and code information of an authentication code registered in advance, to perform authentication determination. The virtual plane setting means includes any two coordinate axes of the X axis, the Y axis, and the Z axis in the three-dimensional space represented by the X axis, the Y axis, and the Z axis. The virtual two-dimensional plane represented by the following formula is set, and the analysis means sets the coordinates in the virtual two-dimensional plane of the coordinate axes orthogonal to the virtual two-dimensional plane in the three-dimensional space as the reference coordinates. And set the positive side and the negative side with respect to the reference coordinates, and when the tip of the identified part moves from the positive side to the reference coordinates beyond the reference coordinates to the negative side, the It is characterized in that a predetermined movement is detected.
In addition, the authentication device of the present invention includes a coordinate detection unit that detects three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code units respectively corresponding to a plurality of code information used for the authentication code. Image display means for displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, display coordinates of the plurality of selection target images in the screen and virtual display in a virtual two-dimensional plane. By analyzing virtual plane setting means for associating the coordinates with the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts are determined by the virtual coordinates. In a state corresponding to the virtual coordinates in a two-dimensional plane, when a predetermined movement by the identified part is detected in the three-dimensional space, the selected part is selected by the identified part. Analysis means for determining that the elephant image has been selected, code information corresponding to the selection target image determined to be selected by the analysis means, and code information of an authentication code registered in advance, to perform authentication determination. Having authentication determination means to perform, the analysis means measures the time at which each of the identified parts has stopped in the three-dimensional space, and after detecting that each of the parts has stopped for a predetermined time, In the three-dimensional space, a part having the largest movement amount when the tip of each part moves is defined as a part where the predetermined movement is detected.

また、本発明の認証処理方法は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、前記解析ステップで選ばれたと判定された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとを有し、前記認証コードに用いられる複数のコード情報は0から9の数字であり、前記画像表示ステップでは、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置して表示し、前記解析ステップでは、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字と前記各数字にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、前記認証判定ステップでは、順に配列された各数字と前記各数字に対応した手指部位の各識別情報とが予め登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする。 Further, the authentication processing method of the present invention includes a coordinate detecting step of detecting three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code information corresponding to a plurality of code information used for the authentication code. An image display step of displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. A virtual plane setting step for associating the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target, identifies a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part An analysis step of determining that the selection target image has been selected, and code information corresponding to the selection target image determined to have been selected in the analysis step, based on code information of an authentication code registered in advance, An authentication determination step of performing an authentication determination , wherein the plurality of code information used for the authentication code are numbers from 0 to 9, and in the image displaying step, the numbers of 0 to 9 are used as the plurality of selection target images. An image is arranged and displayed in the screen, and in the analyzing step, when the object to be detected is the hand of the person to be authenticated, each finger part is individually identified, and one finger of the finger parts is identified. Each time a predetermined movement by a part is detected, each number of the selection target image corresponding to each finger part of all the hands and each identification information of each finger part corresponding to each of the numbers, In the authentication determination step, each of the numbers arranged in order and each identification information of the finger part corresponding to each of the numbers are obtained in accordance with the order of the arrangement in the authentication code registered in advance. The identification determination of the person to be authenticated is performed by determining whether the numeral and the identification information match with the numeral and the identification information in the candidate sequence in each order in which the predetermined movement is detected .

また、本発明の認証処理方法は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとを有し、前記認証コードに用いられる複数のコード情報は、少なくとも0から9の数字と所定の記号とを含み、前記画像表示ステップは、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置すると共に、前記数字の画像を除くエリアを前記所定の記号に対応した選択対象画像として表示し、前記解析ステップでは、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字又は記号と前記各数字又は記号にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、前記認証判定ステップでは、順に配列された各数字又は記号と前記各数字又は記号にそれぞれ対応した手指部位の各識別情報とが登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字又は記号及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする。
また、本発明の認証処理方法は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとを有し、前記仮想平面設定ステップでは、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定し、前記解析ステップでは、前記三次元空間内で前記識別された部位が静止した時間を計測し、前記部位が所定の時間だけ静止したことを検出したとき、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の方向で前記部位の先端から所定距離だけ離れた座標値に所定の判定座標を設定し、前記三次元空間内で前記部位が動いたことで前記部位の先端が前記判定座標に達したときに、前記所定の動きを検出することを特徴とする。
また、本発明の認証処理方法は、三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとを有し、前記仮想平面設定ステップでは、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定し、前記解析ステップでは、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の、当該仮想二次元平面内での座標を基準座標にすると共に当該基準座標に対して正側と負側を設定し、前記識別された部位の先端が前記基準座標に対して正側から前記基準座標を超えて負側へ移動したときに、前記所定の動きを検出することを特徴とする。
Further, the authentication processing method of the present invention includes a coordinate detecting step of detecting three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code information corresponding to a plurality of code information used for the authentication code. An image display step of displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. A virtual plane setting step for associating the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target , identifies a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part An analysis step of determining that the selection target image has been selected, and code information corresponding to the selection target image determined to have been selected in the analysis step, based on code information of an authentication code registered in advance, An authentication determination step of performing an authentication determination, wherein the plurality of code information used for the authentication code includes at least a number from 0 to 9 and a predetermined symbol, and the image display step includes the plurality of selection target images. The image of the number from 0 to 9 is arranged in the screen, and the area excluding the image of the number is displayed as a selection target image corresponding to the predetermined symbol. In the analysis step, the detection target is authenticated. In the case of the target person's hand, each finger part is individually identified, and each time a predetermined movement by one of the finger parts is detected, the hand Obtain a candidate array consisting of each number or symbol of the selection target image corresponding to all the finger parts and each identification information of each finger part corresponding to each of the numbers or symbols, and in the authentication determination step, the arrays are sequentially arranged. The number and identification information for each sequence in the authentication code in which each of the numbers or symbols and the identification information of the finger portion corresponding to each of the numbers or symbols are registered, and the predetermined movement is The authentication determination of the person to be authenticated is performed by judging whether or not the detected sequence matches a number or a symbol in the candidate sequence and identification information.
Further, the authentication processing method of the present invention includes a coordinate detecting step of detecting three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code information corresponding to a plurality of code information used for the authentication code. An image display step of displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. A virtual plane setting step for associating the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target, identifies a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part An analysis step of determining that the selection target image has been selected, and code information corresponding to the selection target image determined to have been selected in the analysis step, based on code information of an authentication code registered in advance, An authentication determination step of performing an authentication determination, wherein in the virtual plane setting step, any one of the X axis, the Y axis, and the Z axis is included in the three-dimensional space represented by the X axis, the Y axis, and the Z axis. The virtual two-dimensional plane represented by two coordinate axes is set, and in the analyzing step, the time during which the identified part is stationary in the three-dimensional space is measured, and the part is stationary for a predetermined time. When detecting, in the three-dimensional space, a predetermined determination coordinate is set to a coordinate value separated by a predetermined distance from the tip of the part in a direction of a coordinate axis orthogonal to the virtual two-dimensional plane, and in the three-dimensional space In front When the tip of the site by site has moved reaches the judgment coordinate, and detects the predetermined movement.
Further, the authentication processing method of the present invention includes a coordinate detecting step of detecting three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods, and a plurality of code information corresponding to a plurality of code information used for the authentication code. An image display step of displaying a selection target image in a screen, and setting a virtual two-dimensional plane in the three-dimensional space, and displaying the display coordinates of the plurality of selection target images in the screen and in a virtual two-dimensional plane. A virtual plane setting step for associating the virtual coordinates, and by analyzing the three-dimensional coordinates of the detection target, identifies a plurality of parts constituting the detection target, the coordinates of the identified part is the In a state corresponding to the virtual coordinates in the virtual two-dimensional plane, when detecting a predetermined movement by the identified part in the three-dimensional space, the identified part An analysis step of determining that the selection target image has been selected, and code information corresponding to the selection target image determined to have been selected in the analysis step, based on code information of an authentication code registered in advance, An authentication determination step of performing an authentication determination, wherein in the virtual plane setting step, any one of the X axis, the Y axis, and the Z axis is included in the three-dimensional space represented by the X axis, the Y axis, and the Z axis. The virtual two-dimensional plane represented by two coordinate axes is set, and in the analyzing step, the coordinates in a coordinate axis orthogonal to the virtual two-dimensional plane in the three-dimensional space are set as coordinates in the virtual two-dimensional plane. Coordinates and set the positive side and the negative side with respect to the reference coordinates, when the tip of the identified portion moves from the positive side to the reference coordinates beyond the reference coordinates to the negative side, Detect the predetermined movement Characterized in that it.

本発明によれば、認証センサ等に触れることなく、非常に高いセキュリティ性を確保した個人認証が可能となる。   According to the present invention, personal authentication with extremely high security can be performed without touching an authentication sensor or the like.

第1,第2の実施形態の認証処理装置の概観の一例を示す模式図である。It is a schematic diagram which shows an example of the general | schematic appearance of the authentication processing apparatus of 1st, 2nd embodiment. バーチャルタッチパネル内にランダム配置される仮想キーの一配置例を示す図である。FIG. 4 is a diagram illustrating an example of an arrangement of virtual keys randomly arranged in a virtual touch panel. ランダム配置されるキー画像の例を示す図である。It is a figure showing an example of a key picture arranged at random. 第1の実施形態の情報処理装置の各処理、制御、ハードウェア構成をそれぞれ機能ごとに分けた機能ブロック図である。FIG. 2 is a functional block diagram in which each process, control, and hardware configuration of the information processing apparatus according to the first embodiment are divided into functions. 第1の実施形態の情報処理装置がPINコードを利用して認証対象者の個人認証を行う際の処理及び制御の流れをフローチャートである。5 is a flowchart illustrating a flow of processing and control when the information processing apparatus of the first embodiment performs personal authentication of a person to be authenticated using a PIN code. 距離センサのセンサ面上の赤外線LEDと赤外線カメラの配置例を示す図である。It is a figure showing an example of arrangement of an infrared LED and an infrared camera on a sensor surface of a distance sensor. 距離センサの有効範囲の説明に用いる図である。It is a figure used for description of the effective range of a distance sensor. 距離センサのセンサ面上の三次元空間の座標説明に用いる図である。It is a figure used for description of coordinates of a three-dimensional space on a sensor surface of a distance sensor. バーチャルタッチパネル内で行われるエアクリックの説明に用いる図である。It is a figure used for description of air click performed in a virtual touch panel. バーチャルタッチパネル内で行われるフェイククリックの説明に用いる図である。FIG. 4 is a diagram used for describing a fake click performed in the virtual touch panel. 第1の実施形態の情報処理装置のメモリ部に格納されるテーブル情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of table information stored in a memory unit of the information processing device according to the first embodiment. ディスプレイ画面の上に反射板を設置した構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example in which a reflection plate is provided on a display screen. ディスプレイ画面の上に光学結像プレートを設置した構成例を示す図である。It is a figure showing the example of composition which installed the optical imaging plate on the display screen. 第2の実施形態の情報処理装置の各処理、制御、ハードウェア構成をそれぞれ機能ごとに分けた機能ブロック図である。FIG. 13 is a functional block diagram in which each processing, control, and hardware configuration of the information processing apparatus according to the second embodiment are divided for each function. 第2の実施形態の情報処理装置がPINコードと指識別情報を利用して認証対象者の個人認証を行う際の処理及び制御の流れをフローチャートである。9 is a flowchart illustrating a flow of processing and control when the information processing apparatus according to the second embodiment performs personal authentication of a person to be authenticated using a PIN code and finger identification information. 検出対象物である手をモデル化して説明する図である。FIG. 3 is a diagram illustrating a hand that is a detection target modeled and described. 第2の実施形態の情報処理装置のメモリ部に格納されるテーブル情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of table information stored in a memory unit of the information processing device according to the second embodiment. 第2の実施形態の情報処理装置がPINコードと指識別情報を用いて個人認証を行う際のPINコードと指識別情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of a PIN code and finger identification information when the information processing apparatus according to the second embodiment performs personal authentication using the PIN code and finger identification information. 第3の実施形態における情報処理装置と距離センサとバーチャルタッチパネルの位置関係の説明に用いる図である。It is a figure used for explaining the physical relationship of an information processor, a distance sensor, and a virtual touch panel in a 3rd embodiment. 第3の実施形態におけるディスプレイの画面と距離センサとバーチャルタッチパネルの位置関係の説明に用いる図である。It is a figure used for description of a screen of a display, a distance sensor, and a physical relationship of a virtual touch panel in a 3rd embodiment. 第3の実施形態において指先が静止した後に設定される各エアクリック判定座標と各指先座標の関係説明に用いる図である。It is a figure used in 3rd Embodiment for explaining the relationship between each air click determination coordinate set after a fingertip stops, and each fingertip coordinate. 第3の実施形態の情報処理装置の各処理、制御、ハードウェア構成をそれぞれ機能ごとに分けた機能ブロック図である。FIG. 13 is a functional block diagram in which each processing, control, and hardware configuration of the information processing apparatus according to the third embodiment are divided into functions. 第3の実施形態の情報処理装置がPINコードと指識別情報を利用して認証対象者の個人認証を行う際の処理及び制御の流れをフローチャートである。13 is a flowchart illustrating a flow of processing and control when the information processing apparatus of the third embodiment performs personal authentication of an authentication target person using a PIN code and finger identification information. 第4の実施形態の場合の各仮想キーと認証対象者の親指〜小指の五つの各指先の位置の一例を示す図である。It is a figure which shows each virtual key in the case of 4th Embodiment, and an example of the position of each of five fingertips of the authentication subject's thumb-little finger. 第4の実施形態の場合に4回のエアクリックで得られる候補コードの例を示す図である。It is a figure showing the example of the candidate code obtained by four air clicks in the case of a 4th embodiment. 第5の実施形態の場合の各仮想キーと認証対象者の親指〜小指の五つの各指先の位置の一例を示す図である。It is a figure showing an example of each virtual key in the case of a 5th embodiment, and the position of each of five fingertips of a to-be-authenticated person's thumb-little finger. 第5の実施形態の場合に4回のエアクリックで得られる候補コードの例を示す図である。It is a figure showing the example of the candidate code obtained by four air clicks in the case of a 5th embodiment. 本実施形態の認証処理装置が適用されて、サーバによりセキュリティ管理がなされるシステムの概略的な構成例を示す図である。FIG. 1 is a diagram illustrating a schematic configuration example of a system in which security management is performed by a server to which an authentication processing device according to an embodiment is applied.

<第1の実施形態>
図1は、本発明の第1の実施形態の認証処理装置1の概観の一例を示す図である。図1に示すように、本実施形態に係る認証処理装置1は、ディスプレイ11を備えていると共に仮想平面設定手段と解析手段と認証判定手段の機能を実現するための構成の一例である情報処理装置10と、座標検出手段の機能を実現するための構成の一例である距離センサ20とを有して構成されている。情報処理装置10と距離センサ20は、信号ケーブル若しくは無線により接続されている。
<First embodiment>
FIG. 1 is a diagram illustrating an example of an overview of an authentication processing device 1 according to a first embodiment of the present invention. As shown in FIG. 1, an authentication processing device 1 according to the present embodiment includes a display 11, and is an example of a configuration for realizing functions of a virtual plane setting unit, an analyzing unit, and an authentication determining unit. The apparatus includes a device 10 and a distance sensor 20 which is an example of a configuration for realizing the function of a coordinate detecting unit. The information processing device 10 and the distance sensor 20 are connected by a signal cable or wirelessly.

距離センサ20は、検出対象物の三次元空間内における三次元座標を所定の時間周期ごとに検出するための座標検出手段の機能の一部を担っており、座標検出手段は、当該距離センサ20と情報処理装置10内の後述する座標算出部111により構成されている。また、ディスプレイ11は、認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段の一例である。情報処理装置10は、三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と前記仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、前記検出対象物の三次元座標を解析することにより、前記検出対象物の検出座標が前記二次元平面で前記仮想座標に対応している状態で、前記三次元空間内において前記検出対象物による所定の動きを検出したとき、認証対象者により前記選択対象画像が選ばれたと判断する解析手段と、前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段としての各機能を実現する装置の一例である。   The distance sensor 20 has a part of a function of a coordinate detecting unit for detecting three-dimensional coordinates of a detection target in a three-dimensional space at predetermined time periods. And a coordinate calculation unit 111 described later in the information processing apparatus 10. The display 11 is an example of an image display unit that displays, on a screen, a plurality of selection target images corresponding to a plurality of pieces of code information used for the authentication code. The information processing apparatus 10 sets a virtual two-dimensional plane in a three-dimensional space, and sets a virtual plane setting in which the display coordinates of the plurality of selection target images in the screen correspond to the virtual coordinates in the virtual two-dimensional plane. Means, by analyzing three-dimensional coordinates of the detection target, the detection target in the three-dimensional space in a state where the detection coordinates of the detection target correspond to the virtual coordinates on the two-dimensional plane. Analysis means for determining that the selection target image has been selected by the person to be authenticated upon detecting a predetermined movement by an object; code information corresponding to the selection target image determined to have been selected by the analysis means; 1 is an example of an apparatus that realizes each function as an authentication determination unit that performs an authentication determination based on code information of an authentication code that has been performed.

本実施形態の認証処理装置1において、認証対象者の個人認証が、例えば4桁の数字がコード情報として用いられる認証コードの一例であるPINコードにより行われる場合、情報処理装置10は、その認証対象者から入力された4桁の数字からなるコード情報と、予め登録されている正規ユーザのPINコードとを比較し、それらが一致した場合に、当該認証対象者が正規のユーザであると認証する。   In the authentication processing device 1 of the present embodiment, when the personal authentication of the person to be authenticated is performed by a PIN code which is an example of an authentication code in which a four-digit number is used as code information, the information processing device 10 performs the authentication. The code information consisting of four digits entered by the subject is compared with the registered PIN code of the regular user, and if they match, the subject is authenticated as the legitimate user. I do.

ここで、PINコードを利用した個人認証を行う場合、情報処理装置10は、先ず、認証対象者が予め登録されている複数ユーザのうちの一人であるか否かを判定するユーザ確認処理を行う。なお、予め登録されているユーザが一人のみである場合、ユーザ確認のための判定は省略することができる。予め登録されているユーザが複数である場合、例えばPINコードとは別に予め登録しておいたパスワード等を用いたユーザ確認や、予め各ユーザに配布している認証用カード等を用いたユーザ確認、或いは、各ユーザの生体情報等を用いたユーザ確認等を行うことができる。   Here, when performing personal authentication using a PIN code, the information processing apparatus 10 first performs a user confirmation process of determining whether or not the person to be authenticated is one of a plurality of users registered in advance. . When only one user is registered in advance, the determination for user confirmation can be omitted. When there are a plurality of pre-registered users, for example, user confirmation using a password or the like registered in advance separately from a PIN code, or user confirmation using an authentication card distributed to each user in advance. Alternatively, user confirmation using biological information of each user or the like can be performed.

そして、認証対象者が登録されたユーザの一人であると判定した時、情報処理装置10は、距離センサ20から供給される信号に基づいて、当該距離センサ20のセンサ面20Fの上方側の三次元空間に、仮想二次元平面の一例であるタッチパネル40を設定する。以下の説明では、この仮想的なタッチパネル40をバーチャルタッチパネル40と表記する。当該バーチャルタッチパネル40は、前記ディスプレイ11の画面と仮想的に対応したパネルとして設定される。なお、バーチャルタッチパネル40は、三次元空間内に仮想的に設定されるものであり、認証対象者や他の第三者が実際に見ることの出来るものではない。情報処理装置10が前記距離センサ20のセンサ面20Fの上方側の三次元空間を、どのようにしてバーチャルタッチパネル40として扱い得るのかについての詳細な説明は後述する。   When it is determined that the person to be authenticated is one of the registered users, the information processing apparatus 10 determines, based on a signal supplied from the distance sensor 20, a tertiary tertiary area above the sensor surface 20F of the distance sensor 20. A touch panel 40, which is an example of a virtual two-dimensional plane, is set in the original space. In the following description, the virtual touch panel 40 is referred to as a virtual touch panel 40. The virtual touch panel 40 is set as a panel virtually corresponding to the screen of the display 11. The virtual touch panel 40 is set virtually in a three-dimensional space, and cannot be actually viewed by a person to be authenticated or another third party. A detailed description of how the information processing device 10 can handle the three-dimensional space above the sensor surface 20F of the distance sensor 20 as the virtual touch panel 40 will be described later.

次に、情報処理装置10は、距離センサ20から供給される信号に基づいて、認証対象者の手指の先端部(即ち、指先31)などのように或る程度狭い範囲を指し示すことが可能な先端部を有する物体が、バーチャルタッチパネル40の三次元空間内に存在するかを判断する。なお、この第1の実施形態の場合、前記先端部は手の指先に限定されず、例えばペン先などのように狭い範囲を指し示すことができるものであってもよい。そして、バーチャルタッチパネル40の三次元空間内に前記指先31等の先端部が存在している場合、情報処理装置10は、ディスプレイ11の画面上に、当該バーチャルタッチパネル40上での指先31等の先端部の位置に対応した指示マーク13を表示する。また、情報処理装置10は、バーチャルタッチパネル40内で前記指先31等が動かされた場合、当該指先31の動きに同期させて、ディスプレイ11の画面上の前記指示マーク13の表示位置を移動させる。なお、バーチャルタッチパネル40内での指先31の動きと、ディスプレイ11の画面上の指示マーク13の同期表示の詳細な説明は後述する。   Next, based on the signal supplied from the distance sensor 20, the information processing apparatus 10 can indicate a certain narrow range such as the tip of the finger of the person to be authenticated (that is, the fingertip 31). It is determined whether the object having the tip exists in the three-dimensional space of the virtual touch panel 40. In the case of the first embodiment, the tip is not limited to the fingertip of the hand, and may be a tip that can indicate a narrow range such as a pen tip. When the tip of the fingertip 31 or the like exists in the three-dimensional space of the virtual touch panel 40, the information processing apparatus 10 displays the tip of the fingertip 31 or the like on the virtual touch panel 40 on the screen of the display 11. An instruction mark 13 corresponding to the position of the copy is displayed. Further, when the fingertip 31 or the like is moved in the virtual touch panel 40, the information processing apparatus 10 moves the display position of the instruction mark 13 on the screen of the display 11 in synchronization with the movement of the fingertip 31. The detailed description of the movement of the fingertip 31 in the virtual touch panel 40 and the synchronous display of the instruction mark 13 on the screen of the display 11 will be described later.

さらに、情報処理装置10は、バーチャルタッチパネル40の三次元空間内に指先31等が存在していると判断した時、例えば「0〜9」までの数字キーに対応したキー画像12をディスプレイ11の画面上に表示する。これらキー画像12は、ディスプレイ11の画面内に複数表示される選択対象画像の一例である。そして、本実施形態において、これらキー画像12の画面上の配置は、ランダムな配置となされる。なお、図1のディスプレイ11の画面例は、キー画像12と指示マーク13のみ表示されているが、それらと共に例えばキャンセルを指示するためのキャンセルキーも表示される。   Further, when the information processing apparatus 10 determines that the fingertip 31 or the like exists in the three-dimensional space of the virtual touch panel 40, the information processing apparatus 10 displays the key image 12 corresponding to, for example, numeric keys from “0 to 9” on the display 11. Display on the screen. These key images 12 are examples of a plurality of selection target images displayed on the screen of the display 11. In the present embodiment, the key images 12 are randomly arranged on the screen. In the example of the screen of the display 11 shown in FIG. 1, only the key image 12 and the instruction mark 13 are displayed, but together with them, for example, a cancel key for instructing cancellation is also displayed.

また前述したように、バーチャルタッチパネル40はディスプレイ11の画面と仮想的に対応したパネルとなっているため、情報処理装置10は、例えば図2に示すように、バーチャルタッチパネル40の三次元空間内において、前記ディスプレイ11の画面上にランダム配置された各キー画像12にそれぞれ対応している位置に、仮想キーV12を配置する。なお、これら仮想キーV12についても、バーチャルタッチパネル40と同様に、三次元空間内に仮想的に配置されるものであり、認証対象者や他の第三者が実際に見ることの出来るものではない。また、前記ディスプレイ11の画面上に表示されるキー画像12は、図3の(a)〜(c)に一例として示すように、認証対象者に対する個人認証が行われる度に、それらの配置がランダムに変更される。したがって、バーチャルタッチパネル40上における前記仮想キーV12も、認証対象者に対する個人認証が行われる度にそれらの配置がランダムに変更される。なお、図2の例は、仮想キーV12のみ描いているが、それらと共に例えばキャンセルの指示用の仮想キャンセルキーも配置される。   Further, as described above, since the virtual touch panel 40 is a panel virtually corresponding to the screen of the display 11, the information processing apparatus 10 may be, for example, as shown in FIG. A virtual key V12 is arranged at a position corresponding to each key image 12 randomly arranged on the screen of the display 11. Note that, like the virtual touch panel 40, these virtual keys V12 are also virtually arranged in a three-dimensional space, and cannot be actually viewed by the person to be authenticated or another third party. . As shown in FIGS. 3A to 3C, the key image 12 displayed on the screen of the display 11 is arranged every time personal authentication is performed for the person to be authenticated. Changed randomly. Therefore, the arrangement of the virtual key V12 on the virtual touch panel 40 is randomly changed every time personal authentication is performed for the person to be authenticated. Although the example of FIG. 2 illustrates only the virtual key V12, a virtual cancel key for instructing cancellation is also arranged together with them.

また、情報処理装置10は、認証対象者が例えば手30の指先31等の先端部により、前記バーチャルタッチパネル40上の所望の位置を指示する所定動作(所望の位置を指先31等の先端部で突くような所定の動き)が行われた時、ユーザがその位置をクリックしたと認識する。なお、本実施形態では、バーチャルタッチパネル40上の所望の位置を指示する所定の動作として、当該所望の位置を指先31等の先端部で押すような動き(或いは、押し込む動作、突く動作)を例に挙げる。本実施形態では、前記先端部により所望の位置を指示するための所定の動きを、以下の説明ではエアクリックと表記する。情報処理装置10は、距離センサ20から供給される信号に基づいて、前記バーチャルタッチパネル40の三次元空間内で前記エアクリックが行われたかを認識するが、その詳細な説明は後述する。また、エアクリックが確実に行われたかどうかについては、例えばディスプレイ11の画面上にエアクリック完了通知用の所定の表示を行ったり、エアクリック完了通知用の所定の音を発生させるなどして、認証対象者へ知らせることも可能である。或いは、第三者への秘匿性を高めるために、それら通知が全く行われなくてもよい。   In addition, the information processing apparatus 10 performs a predetermined operation in which the person to be authenticated indicates a desired position on the virtual touch panel 40 by using the tip of the fingertip 31 of the hand 30 (the desired position is determined by the tip of the fingertip 31 or the like). When the user performs a predetermined movement (e.g., a thrusting motion), it is recognized that the user has clicked the position. In the present embodiment, an example of a predetermined operation for designating a desired position on the virtual touch panel 40 is an operation of pressing the desired position with the tip of the fingertip 31 or the like (or an operation of pushing or pushing). Listed in In the present embodiment, the predetermined movement for indicating a desired position by the tip portion is referred to as an air click in the following description. The information processing apparatus 10 recognizes whether or not the air click has been performed in the three-dimensional space of the virtual touch panel 40 based on a signal supplied from the distance sensor 20, and a detailed description thereof will be given later. Whether the air click has been performed reliably is determined by, for example, performing a predetermined display for air click completion notification on the screen of the display 11, generating a predetermined sound for air click completion notification, and the like. It is also possible to notify the person to be authenticated. Alternatively, in order to increase the confidentiality to a third party, the notification may not be performed at all.

そして、情報処理装置10は、認証対象者が前記バーチャルタッチパネル40内の仮想キーV12に対した位置でエアクリックを行い、そのエアクリックによってPINコードの正しい4桁の数字が順に入力されたとき、その認証対象者は正規のユーザであると判断する。   Then, the information processing apparatus 10 performs an air click at a position corresponding to the virtual key V12 in the virtual touch panel 40, and when the correct four-digit number of the PIN code is sequentially input by the air click, It is determined that the person to be authenticated is a legitimate user.

図4には、情報処理装置10の概略的な構成を示している。図4の示した各構成は、本実施形態の情報処理装置10にて行われる各処理や制御、実際のハードウェア構成をそれぞれ機能ごとに分けた機能ブロックとして表したものである。なお、図4には距離センサ20も描かれている。また、図4において、表示部(ディスプレイ11)は情報処理装置10の外部に設けられていてもよいし、メモリ部107内に記憶されている情報は外部の記憶装置に格納されていてもよい。   FIG. 4 shows a schematic configuration of the information processing apparatus 10. Each configuration illustrated in FIG. 4 is a functional block in which each processing, control, and actual hardware configuration performed by the information processing apparatus 10 of the present embodiment is divided into functions. FIG. 4 also illustrates the distance sensor 20. In FIG. 4, the display unit (display 11) may be provided outside the information processing apparatus 10, or the information stored in the memory unit 107 may be stored in an external storage device. .

図5には、PINコードを利用して認証対象者の個人認証を行う際の情報処理装置10の処理及び制御の流れをフローチャートにより示している。以下、図4の各構成の動作及び処理と制御について、図5のフローチャートを参照しながら説明する。   FIG. 5 is a flowchart illustrating a flow of processing and control of the information processing apparatus 10 when personal authentication of a person to be authenticated is performed using a PIN code. Hereinafter, the operation, processing, and control of each component in FIG. 4 will be described with reference to the flowchart in FIG.

先ず、認証対象者の個人認証が行われる場合、情報処理装置10のユーザ確認部106は、ステップS1の処理として、認証対象者が予め登録されている複数ユーザのうちの一人であるか否かのユーザ確認のための判定を行う。このユーザ確認の判定処理は、前述したように、パスワードや認証用カード、ユーザの生体情報等を用いて行われる。これらユーザ確認のための処理は既存の処理と同じであるため、その詳細な説明は省略する。   First, when personal authentication of a person to be authenticated is performed, the user confirmation unit 106 of the information processing apparatus 10 determines whether or not the person to be authenticated is one of a plurality of registered users in step S1. Is determined for user confirmation. As described above, the determination process of the user confirmation is performed using the password, the authentication card, the biometric information of the user, and the like. Since the processing for user confirmation is the same as the existing processing, a detailed description thereof will be omitted.

ステップS1において認証対象者が登録ユーザでないと判定された場合、制御部105は、ステップS12として、認証は否定(NG)されたとして認証NG処理を行う。制御部105は、ステップS12の認証NG処理として、例えばそれ以前の処理で取得された情報を全てクリアした後、処理をステップS11へ進める。ステップS11の処理へ進むと、制御部105の表示制御部121は、ディスプレイ11の画面上に認証NG等の表示を行う。なお認証NGの通知は音声により行われてもよい。一方、ステップS1において認証対象者が登録ユーザであると判定された場合、制御部105は、ステップS2の処理として、距離センサ出力解析部102で行われる解析結果を基に、指先31等のような狭い範囲を指し示すことのできる先端部が前記バーチャルタッチパネル40の三次元空間内に存在しているか判断する。   When it is determined in step S1 that the person to be authenticated is not a registered user, the control unit 105 determines that authentication has been denied (NG) and performs an authentication NG process in step S12. For example, as the authentication NG process in step S12, the control unit 105 clears all information acquired in the previous process, and then advances the process to step S11. When the process proceeds to step S11, the display control unit 121 of the control unit 105 displays authentication NG or the like on the screen of the display 11. The notification of the authentication NG may be made by voice. On the other hand, if it is determined in step S1 that the person to be authenticated is a registered user, the control unit 105 performs processing in step S2 based on the analysis result performed by the distance sensor output analysis unit 102, such as the fingertip 31 or the like. It is determined whether a tip that can indicate a very narrow range exists in the three-dimensional space of the virtual touch panel 40.

ここで、距離センサ出力解析部102で行われる処理の詳細を述べる前に、距離センサ20の構成と当該距離センサ20から得られる信号について説明する。距離センサ20は、図6に示すように、センサ面20Fの側に、例えば三つの赤外線LED22L,22C,22Rと、二つの赤外線カメラ21L,21Rが配されて構成されている。赤外線LED22L,22C,22Rから出射された赤外光は、当該距離センサ20のセンサ面20F側に何らかの検出対象物が存在していた場合、その検出対象物により反射されて、赤外線カメラ21L,21Rへ入射する。赤外線カメラ21L,21Rは、それぞれ撮像光学系と撮像素子を備えており、検出対象物にて反射された赤外光からなる光像を、所定の時間周期ごとに撮像する。なお、本実施形態の場合、所定の時間周期は、一例として290fps(フレーム/秒)のフレームレートとなされている。   Here, before describing the details of the processing performed by the distance sensor output analysis unit 102, the configuration of the distance sensor 20 and signals obtained from the distance sensor 20 will be described. As shown in FIG. 6, the distance sensor 20 includes, for example, three infrared LEDs 22L, 22C, and 22R and two infrared cameras 21L and 21R on the sensor surface 20F side. The infrared light emitted from the infrared LEDs 22L, 22C, and 22R is reflected by the detection target if any detection target exists on the sensor surface 20F side of the distance sensor 20, and is reflected by the infrared cameras 21L, 21R. Incident on. Each of the infrared cameras 21L and 21R includes an imaging optical system and an imaging element, and captures a light image composed of infrared light reflected by the detection target at predetermined time periods. In the case of the present embodiment, the predetermined time period is, for example, a frame rate of 290 fps (frames / second).

なお、距離センサ20において、赤外線LED22L,22C,22Rから出射された赤外光が検出対象物で反射されて赤外線カメラ21L,21Rが受光できる有効範囲は、例えば図7に示すように、センサ面20F上での赤外線カメラ21L,21Rの中間点20Cから、例えば25mm〜600mmまでの距離範囲DR内で且つ広がり角θが150度の逆ピラミッド状の範囲となされている。上述した距離センサ20は、赤外線カメラ21L,21Rの撮像信号を、情報処理装置10へ出力する。   In the distance sensor 20, the effective range in which the infrared light emitted from the infrared LEDs 22L, 22C, and 22R is reflected by the detection target and can be received by the infrared cameras 21L and 21R is, for example, as shown in FIG. From the midpoint 20C of the infrared cameras 21L and 21R on the 20F, an inverted pyramid-shaped range is set within a distance range DR of, for example, 25 mm to 600 mm and a spread angle θ of 150 degrees. The above-described distance sensor 20 outputs imaging signals of the infrared cameras 21L and 21R to the information processing device 10.

距離センサ20から出力された撮像信号は、本実施形態の情報処理装置10の距離センサ出力受信部101により受信される。距離センサ出力受信部101は、距離センサ20と情報処理装置10との間を接続する信号ケーブル或いは無線等の通信方式に応じた受信部となっている。当該距離センサ出力受信部101にて受信された撮像信号は、距離センサ出力解析部102へ送られる。   The imaging signal output from the distance sensor 20 is received by the distance sensor output receiving unit 101 of the information processing device 10 according to the present embodiment. The distance sensor output receiving unit 101 is a signal cable connecting the distance sensor 20 and the information processing device 10 or a receiving unit according to a communication method such as wireless. The imaging signal received by the distance sensor output receiving unit 101 is sent to the distance sensor output analyzing unit 102.

距離センサ出力解析部102は、例えば、座標算出部111と対象認識部112と先端座標情報取得部113とZ座標判定部114とを有して構成されている。座標算出部111は、距離センサ20の二つの赤外線カメラ21L,21Rからの撮像信号の画像解析を行うことにより、図7及び図8に示すように、距離センサ20の前記有効範囲内のX軸、Y軸、Z軸で表される三次元空間における検出対象物(図8の例では前記指先31)の三次元座標を算出する。なお、距離センサ20から供給される撮像信号は前述のように290fpsのフレームレートの信号となされているため、座標算出部111は、フレームごとに指先31の三次元座標を算出する。また、座標算出部111は、検出対象物が複数存在する場合であっても、或いは、一つの検出対象物内にそれぞれ異なる動きをする複数の部位が存在する場合であっても、それらについてそれぞれの三次元座標を算出する。座標算出部111にて算出されたフレームごとの三次元座標情報は、対象認識部112へ送られる。   The distance sensor output analysis unit 102 includes, for example, a coordinate calculation unit 111, a target recognition unit 112, a tip coordinate information acquisition unit 113, and a Z coordinate determination unit 114. The coordinate calculation unit 111 performs an image analysis of the imaging signals from the two infrared cameras 21L and 21R of the distance sensor 20, and as shown in FIGS. 7 and 8, the X axis within the effective range of the distance sensor 20. , And the three-dimensional coordinates of the detection target (the fingertip 31 in the example of FIG. 8) in the three-dimensional space represented by the Y axis and the Z axis. Since the imaging signal supplied from the distance sensor 20 has a frame rate of 290 fps as described above, the coordinate calculation unit 111 calculates the three-dimensional coordinates of the fingertip 31 for each frame. In addition, even when there are a plurality of detection targets, or when there are a plurality of parts that move differently within one detection target, the coordinate calculation unit 111 may be configured for each of them. Is calculated. The three-dimensional coordinate information for each frame calculated by the coordinate calculation unit 111 is sent to the target recognition unit 112.

対象認識部112は、前記フレームごとの三次元座標情報を基に、前記距離センサ20の有効範囲内の三次元空間における検出対象物がどのようなものであるかを認識する。ここで、距離センサ20の赤外線カメラにより、例えば図1中の手30の指先31などのように或る程度狭い範囲を指し示すことが可能な先端部を有する物体が撮像されているとする。この場合、対象認識部112は、前記撮像信号と前記座標算出部111でフレームごとに算出された三次元座標とから、前記検出対象物の少なくとも当該先端部を認識する。すなわち、図1や図8の例の場合、対象認識部112は、手30の少なくとも指先31を認識する。なお、詳細については第2の実施形態において後述するが、対象認識部112は、検出対象物として人の手が撮像されている場合、当該手を構成している手掌と5本の手指、及びそれら5本の手指の先端部(指先)や関節等もそれぞれ認識可能となされている。   The target recognition unit 112 recognizes what a detection target is in a three-dimensional space within the effective range of the distance sensor 20 based on the three-dimensional coordinate information for each frame. Here, it is assumed that the infrared camera of the distance sensor 20 is capturing an image of an object having a tip portion capable of pointing a certain narrow range, such as the fingertip 31 of the hand 30 in FIG. In this case, the target recognizing unit 112 recognizes at least the leading end of the detection target from the imaging signal and the three-dimensional coordinates calculated for each frame by the coordinate calculating unit 111. That is, in the case of the examples of FIGS. 1 and 8, the target recognition unit 112 recognizes at least the fingertip 31 of the hand 30. Although details will be described later in the second embodiment, when a human hand is imaged as a detection target, the target recognizing unit 112 includes a palm constituting the hand and five fingers, and The tips (fingertips), joints, and the like of the five fingers can also be recognized.

対象認識部112にて検出対象物の先端部が認識されると、先端座標情報取得部113は、前記座標算出部111にて算出された三次元座標の中から、前記先端部の座標情報を取得する。この先端座標情報取得部113は、当該先端部の座標情報を取得すると、その座標情報を制御部105へ送る。すなわち、図5のステップS2において、制御部105は、距離センサ出力解析部102の対象認識部112による対象認識結果により、指先31等のような先端部が前記バーチャルタッチパネル40の三次元空間内に存在しているか判断可能となる。   When the target recognition unit 112 recognizes the tip of the detection target, the tip coordinate information acquisition unit 113 extracts the coordinate information of the tip from the three-dimensional coordinates calculated by the coordinate calculation unit 111. get. When acquiring the coordinate information of the tip, the tip coordinate information acquiring unit 113 sends the coordinate information to the control unit 105. That is, in step S2 of FIG. 5, the control unit 105 determines that the tip such as the fingertip 31 is in the three-dimensional space of the virtual touch panel 40 based on the target recognition result by the target recognition unit 112 of the distance sensor output analysis unit 102. It can be determined whether it exists.

図5のフローチャートへ説明を戻し、前記ステップS2にてバーチャルタッチパネル40の三次元空間内に先端部が存在すると判定した場合、制御部105は、処理をステップS3へ進め、一方、バーチャルタッチパネル40の三次元空間内に先端部が存在しないときにはステップS2の判定処理を繰り返す。   Returning to the flowchart of FIG. 5, when it is determined in step S2 that the leading end is present in the three-dimensional space of the virtual touch panel 40, the control unit 105 advances the process to step S3. When the tip does not exist in the three-dimensional space, the determination processing of step S2 is repeated.

ステップS3へ処理を進めると、制御部105のキー配列制御部122は、前述したようにディスプレイ11上にランダム配置するキー画像12のデータを生成し、表示制御部121を介してそれらキー画像12をディスプレイ11の画面上に表示する。   When the process proceeds to step S3, the key array control unit 122 of the control unit 105 generates data of the key images 12 to be randomly arranged on the display 11 as described above, and outputs the key images 12 via the display control unit 121. Is displayed on the screen of the display 11.

その後、制御部105は、距離センサ出力解析部102の解析結果から、認証対象者がバーチャルタッチパネル40を通じて入力した認証用の4桁分の数字を取得するための、ステップS4からステップS8の処理へ移行する。   Thereafter, the control unit 105 proceeds from step S4 to step S8 for acquiring a four-digit number for authentication input by the person to be authenticated through the virtual touch panel 40 from the analysis result of the distance sensor output analysis unit 102. Transition.

ステップS4へ処理を進めると、制御部105は、距離センサ出力解析部102の先端座標情報取得部113に対し、バーチャルタッチパネル40上で前記先端部の座標を取得させる。すなわち、このときの先端座標情報取得部113は、前記対象認識部112が認識した先端部の座標を取得する。   When the process proceeds to step S4, the control unit 105 causes the tip coordinate information acquisition unit 113 of the distance sensor output analysis unit 102 to acquire the coordinates of the tip on the virtual touch panel 40. That is, the tip coordinate information acquisition unit 113 at this time acquires the coordinates of the tip recognized by the target recognition unit 112.

またこのとき、制御部105の表示制御部121は、指先31等の先端部の座標情報を基に、ディスプレイ11の画面上に表示する指示マーク13の画像を生成する。なお、指先31が三次元空間内で動かされている場合、指先31等の先端部の座標値は、赤外線カメラ21L,21Rで撮像されるフレームごとに刻々と変化することになる。このため、ディスプレイ11の画面上での指示マーク13の表示位置は、三次元空間内での指先31の動きに同期して変更されることになる。   At this time, the display control unit 121 of the control unit 105 generates an image of the instruction mark 13 to be displayed on the screen of the display 11 based on the coordinate information of the tip of the fingertip 31 or the like. When the fingertip 31 is moved in the three-dimensional space, the coordinate value of the tip of the fingertip 31 or the like changes every frame captured by the infrared cameras 21L and 21R. Therefore, the display position of the instruction mark 13 on the screen of the display 11 is changed in synchronization with the movement of the fingertip 31 in the three-dimensional space.

さらに、制御部105は、ステップS5の処理として、先端座標情報取得部113が取得した先端部の座標が、バーチャルタッチパネル40の三次元空間内に配置された何れかの仮想キーV12の座標と一致したか判断する。なおこの場合の一致判定は、先端部のX,Y座標が、仮想キーV12のX,Y座標の範囲内であるかの一致判定となる。そして、制御部105は、先端部の座標が、仮想キーV12の座標と一致したと判断したときにはステップS6へ処理を進め、一方、一致していないと判断したときにはステップS4へ処理を戻す。   Further, the control unit 105 determines that the coordinates of the tip acquired by the tip coordinate information acquiring unit 113 match the coordinates of any one of the virtual keys V12 arranged in the three-dimensional space of the virtual touch panel 40 as the process of step S5. Judge whether you did. In this case, the coincidence determination is performed to determine whether the X, Y coordinates of the tip end are within the range of the X, Y coordinates of the virtual key V12. Then, when the control unit 105 determines that the coordinates of the distal end portion match the coordinates of the virtual key V12, it proceeds to step S6, and when it determines that the coordinates do not match, returns the process to step S4.

なお、前記仮想キーV12は、実際には認証対象者から見えず且つ三次元空間上に仮想的に設定されるものであるため、認証対象者は前記先端部を仮想キーV12の位置に正確に合わせ難いことも考えられる。この場合、一例として、前記仮想キーV12の座標の周囲に所定の大きさの検出範囲を設定しておき、制御部105は、その検出範囲内に前記先端部の座標が入っているときに、当該先端部の座標が仮想キーV12の座標に一致したと判断してもよい。   Since the virtual key V12 is not actually seen by the person to be authenticated and is virtually set in a three-dimensional space, the person to be authenticated accurately positions the tip of the virtual key V12 at the position of the virtual key V12. It may be difficult to match. In this case, as an example, a detection range of a predetermined size is set around the coordinates of the virtual key V12, and when the coordinates of the tip end are included in the detection range, It may be determined that the coordinates of the tip correspond to the coordinates of the virtual key V12.

次に、制御部105は、Z座標判定部114でのZ座標判定結果に基づいて、バーチャルタッチパネル40上でエアクリックが行われたか判断する。ここで、Z座標判定部114で行われるZ座標判定処理について、図8と図9及び図10を参照して説明する。Z座標判定部114は、前記座標算出部111が算出した三次元座標のうち、距離センサ20の前記センサ面20Fの上方側三次元空間のZ座標について基準座標を設定すると共に、そのZ基準座標に対して正側(+側)のZ座標と、負側(−側)のZ座標とを設定する。なお、図9、図10の例では、バーチャルタッチパネル40を、格子状の升目が配されたスクリーンとして描いているが、これらはパネルとその座標を判り易くするために描いているだけであり、それらは認証対象者から見えるものではない。   Next, the control unit 105 determines whether an air click has been performed on the virtual touch panel 40 based on the Z coordinate determination result of the Z coordinate determination unit 114. Here, the Z coordinate determination processing performed by the Z coordinate determination unit 114 will be described with reference to FIGS. 8, 9, and 10. The Z coordinate determination unit 114 sets reference coordinates for the Z coordinates of the three-dimensional space above the sensor surface 20F of the distance sensor 20 among the three-dimensional coordinates calculated by the coordinate calculation unit 111, and sets the Z reference coordinates. , A positive (+) Z coordinate and a negative (−) Z coordinate are set. 9 and 10, the virtual touch panel 40 is drawn as a screen on which grid-like cells are arranged, but these are only drawn to make the panel and its coordinates easy to understand. They are not visible to the subject.

図8の例の場合、Z座標軸は、X軸とY軸を含む仮想二次元平面であるバーチャルタッチパネル40に対して直交する奥行き方向の座標軸となっており、基準座標(Z=0)は一例として、距離センサ20のセンサ面20Fの中央に相当するZ座標となされている。また図8の例の場合、正側(+側)のZ座標は基準座標(Z=0)に対して手前側(認証対象者に近い方)、負側(−側)のZ座標は基準座標(Z=0)に対して奥行き側(認証対象者から遠い方)となっている。   In the case of the example of FIG. 8, the Z coordinate axis is a coordinate axis in the depth direction orthogonal to the virtual touch panel 40 which is a virtual two-dimensional plane including the X axis and the Y axis, and the reference coordinate (Z = 0) is an example. Is the Z coordinate corresponding to the center of the sensor surface 20F of the distance sensor 20. In the case of the example of FIG. 8, the Z coordinate on the positive side (+ side) is closer to the reference coordinate (Z = 0) (closer to the person to be authenticated), and the Z coordinate on the negative side (− side) is the reference. It is on the depth side (farther from the person to be authenticated) with respect to the coordinates (Z = 0).

そして、Z座標判定部114は、対象認識部112が認識した前記検出対象物の先端部のZ座標が、図9に示すように、前記正側(+側)から前記基準座標(Z=0)を通り過ぎて負側(−側)に変化したか否か判定する。ここで、前記先端部のZ座標の変化があったと判定した時、Z座標判定部114は、判定検出信号を制御部105へ送る。なお、Z座標判定部114は、前記先端部のZ座標が、前記正側(+側)から前記基準座標(Z=0)を通り過ぎて負側(−側)に変化した後に、さらに例えば予め決められた時間内に正側(+側)へ戻るように変化したか否かを判定してもよい。   Then, as shown in FIG. 9, the Z coordinate determination unit 114 determines that the Z coordinate of the tip of the detection target recognized by the target recognition unit 112 is from the positive side (+ side) to the reference coordinate (Z = 0). ) To determine whether it has changed to the negative side (− side). Here, when it is determined that the Z coordinate of the tip has changed, the Z coordinate determination unit 114 sends a determination detection signal to the control unit 105. Note that, after the Z coordinate of the distal end portion changes from the positive side (+ side) to the negative side (− side) after passing through the reference coordinate (Z = 0), the Z coordinate determination section 114 further sets, for example, It may be determined whether or not a change has been made to return to the positive side (+ side) within the determined time.

そして、ステップS6において、前記Z座標判定部114から当該判定検出信号を受け取ると、制御部105は、エアクリックが行われたと判断する。なお、エアクリックが行われていない場合、制御部105は、ステップS4へ処理を戻す。   Then, in step S6, when receiving the determination detection signal from the Z coordinate determination unit 114, the control unit 105 determines that an air click has been performed. If the air click has not been performed, the control unit 105 returns the process to step S4.

このように、本実施形態においては、例えば図9に示したように、指先31等の先端部のZ座標が、前記正側(+側)から基準座標(Z=0)を通り過ぎて負側(−側)に変化した後、さらに例えば正側(+側)へ戻る変化であったときに、エアクリックがなされたと判断される。このため、例えば図10に示すように、バーチャルタッチパネル40上で、認証対象者が、指先31等の先端部をZ軸方向へ押し込む動作を行ったとしても、その際の前記先端部の押し込み動作が例えばZ軸座標の正側(+側)でのみ行われた場合には、エアクリックが行われたと判断しない。すなわち、指先31等の押し込み動作が例えばZ座標の正側(+側)でのみ行われた場合、第三者からはエアクリックが行われているように見えているが、実際にはエアクリックは行われていないことになる。本実施形態では、このような見かけ上のエアクリック(フェイクエアクリック)が可能となされている。   As described above, in the present embodiment, as shown in FIG. 9, for example, the Z coordinate of the tip of the fingertip 31 or the like passes through the reference coordinate (Z = 0) from the positive side (+ side) to the negative side. After the change to (−), if the change returns to, for example, the positive side (+), it is determined that the air click has been performed. Therefore, for example, as shown in FIG. 10, even if the person to be authenticated performs an operation of pushing the tip of the fingertip 31 or the like in the Z-axis direction on the virtual touch panel 40, the pushing operation of the tip at that time is performed. Is performed only on the positive side (+ side) of the Z-axis coordinate, for example, it is not determined that the air click has been performed. In other words, when the pressing operation of the fingertip 31 or the like is performed only on the positive side (+ side) of the Z coordinate, for example, it appears that the air click is being performed by a third party, but the air click is actually performed. Is not done. In the present embodiment, such an apparent air click (fake air click) is possible.

なお、Z座標軸の基準座標は、センサ面20Fの中央に相当するZ座標に限定されず、それよりも認証対象者側により近いZ座標となされてもよいし、逆に遠いZ座標となされてもよい。また、詳細は後述する第3の実施形態において説明するが、エアクリックが行われたか判断する際に使用する座標は、Z座標軸で予め固定的に決められた基準座標に限定されない。すなわち、エアクリックが行われたか判断する際に使用する座標は、例えば認証対象者の手30の指先31がバーチャルタッチパネル40の三次元空間内で検出された後、その手30若しくは指先31が三次元空間内で所定の時間だけ静止したときのZ座標から、指先方向で且つZ軸方向に所定距離だけ離れた座標に設定可能である。言い換えると、エアクリックの判定に使用される座標は、手30若しくは指先31が三次元空間内で静止したときのZ座標に応じた可変の座標として設定可能である。   The reference coordinate of the Z coordinate axis is not limited to the Z coordinate corresponding to the center of the sensor surface 20F, and may be a Z coordinate closer to the authentication target person than the Z coordinate, or a farther Z coordinate. Is also good. Although details will be described in a third embodiment described later, the coordinates used to determine whether an air click has been performed are not limited to reference coordinates fixedly determined in advance on the Z coordinate axis. That is, the coordinates used to determine whether an air click has been performed are, for example, after the fingertip 31 of the hand 30 of the person to be authenticated is detected in the three-dimensional space of the virtual touch panel 40, and then the hand 30 or the fingertip 31 is tertiary. It is possible to set a coordinate which is separated by a predetermined distance in the fingertip direction and in the Z-axis direction from a Z coordinate at the time of stopping for a predetermined time in the original space. In other words, the coordinates used for the air click determination can be set as variable coordinates according to the Z coordinate when the hand 30 or the fingertip 31 is stationary in the three-dimensional space.

次に、ステップS6にてエアクリックが行われたと判断して、ステップS7へ処理を進めると、制御部105は、入力情報判定部103に対し、エアクリックにより入力された座標に対応した数字を、配列PIN(n)として保管させた後、「n」に「1」を加えて、ステップS8へ処理を進める。   Next, in step S6, it is determined that an air click has been performed, and when the process proceeds to step S7, the control unit 105 instructs the input information determination unit 103 to input a number corresponding to the coordinates input by the air click. , After storing as the array PIN (n), “1” is added to “n”, and the process proceeds to step S8.

ステップS8へ処理が進むと、制御部105は、入力情報判定部103が保管している配列PIN(n)の「n」が「m」となったか否か判定する。なお「m」は、PINコードが4桁である場合は「4」となる。したがって、制御部105は、「n」が「4」になるとステップS9へ処理を進める。すなわち、「n」が「4」になったとき、入力情報判定部103が配列PIN(n)として保管している数字は4桁の数字となり、この4桁の数字が、バーチャルタッチパネル40を用いて認証対象者により入力された数字となる。   When the process proceeds to step S8, the control unit 105 determines whether “n” of the array PIN (n) stored in the input information determination unit 103 has become “m”. Note that “m” is “4” when the PIN code has four digits. Therefore, when “n” becomes “4”, control unit 105 proceeds to step S9. That is, when “n” becomes “4”, the number stored by the input information determination unit 103 as the array PIN (n) is a four-digit number. Is the number entered by the person to be authenticated.

次に、処理をステップS9へ進めると、制御部105は、入力情報判定部103に対し、例えばメモリ部107に保存されているユーザごとのPINコードの数字の配列と、前記バーチャルタッチパネル40を介して認証対象者により入力された数字の配列が完全に一致しているか否か判定させる。   Next, when the process proceeds to step S9, the control unit 105 instructs the input information determination unit 103 via, for example, an array of PIN code numbers for each user stored in the memory unit 107 and the virtual touch panel 40. Then, it is determined whether or not the sequence of numbers input by the person to be authenticated completely matches.

ここで、メモリ部107には、一例としてユーザ情報131とPINコード132が対応付けられたテーブル情報が登録されている。当該テーブル情報は、一例として図11に示すように、複数のユーザをそれぞれ表すユーザ情報U1,U2,U3,・・・と、各ユーザの登録PINコードとが対応付けられて登録されたものである。入力情報判定部103には、先のステップS1のユーザ確認の際に登録済みと判定されたユーザのPINコードがメモリ部107から渡されており、したがって、入力情報判定部103は、ステップS9において、そのPINコードと前記認証対象者が入力した数字との一致判定を行う。   Here, table information in which the user information 131 and the PIN code 132 are associated with each other is registered in the memory unit 107 as an example. As shown in FIG. 11 as an example, the table information is one in which user information U1, U2, U3,... Representing each of a plurality of users are registered in association with a registered PIN code of each user. is there. The PIN code of the user determined to have been registered at the time of the user confirmation in step S1 has been passed from the memory unit 107 to the input information determination unit 103. Therefore, the input information determination unit 103 determines in step S9 , The PIN code and the number input by the person to be authenticated are determined.

そして、入力情報判定部103が前記認証対象者の入力数字とPINコードとが一致したと判定すると、制御部105は、ステップS10として、認証は確認(OK)されたとして認証OK処理を行う。制御部105は、ステップS9からステップS10へ進んだ場合、例えばそれ以前の処理で取得された座標の情報や配列PIN(n)に保管した数字の情報等を全てクリアした後、処理をステップS11へ進める。ステップS10からステップS11へ処理が進むと、制御部105の表示制御部121は、ディスプレイ11の画面上に認証OK等の表示を行う。なお、認証OKの通知は音声により行われてもよい。   When the input information determination unit 103 determines that the input numeral of the person to be authenticated matches the PIN code, the control unit 105 determines that the authentication has been confirmed (OK) and performs an authentication OK process in step S10. When the control unit 105 proceeds from step S9 to step S10, for example, after clearing all the coordinate information acquired in the previous processing, the numerical information stored in the array PIN (n), and the like, the control unit 105 proceeds to step S11. Proceed to. When the process proceeds from step S10 to step S11, the display control unit 121 of the control unit 105 displays, for example, authentication OK on the screen of the display 11. Note that the notification of the authentication OK may be made by voice.

一方、ステップS9において入力数字とPINコードが一致しないと判定された場合、制御部105は、ステップS12へ処理を進めて認証NG処理を行う。ステップS9からステップS12へ進んだ場合、制御部105は、それ以前の処理で取得した座標の情報や配列PIN(n)に保管した数字の情報等を全てクリアした後、ステップS11へ処理を進める。そして、ステップS12からこのステップS11へ処理が進むと、表示制御部121は、ディスプレイ11の画面上に認証NGの表示を行う。   On the other hand, if it is determined in step S9 that the input numeral does not match the PIN code, control unit 105 proceeds to step S12 to perform an authentication NG process. When the process proceeds from step S9 to step S12, the control unit 105 clears all the coordinate information acquired in the previous process, the numerical information stored in the array PIN (n), and the like, and then proceeds to step S11. . Then, when the process proceeds from step S12 to step S11, the display control unit 121 displays the authentication NG on the screen of the display 11.

なお、本実施形態の認証処理装置1が例えば入室時の認証を行うための装置であり、認証結果に応じて図示しない電気錠の開閉を制御する場合、解錠制御部104は、ステップS10において、入力情報判定部103における判定結果に基づいて電気錠の開閉を制御する。すなわち、認証対象者が正規のユーザである場合、解錠制御部104は、ステップS10において、電気錠を開制御して当該ユーザの入室を可能にする。   Note that when the authentication processing device 1 of the present embodiment is, for example, a device for performing authentication at the time of entering a room and controls opening and closing of an electric lock (not shown) according to the authentication result, the unlock control unit 104 determines in step S10 The opening / closing of the electric lock is controlled based on the result of the determination by the input information determining unit 103. That is, when the person to be authenticated is a legitimate user, the unlock control unit 104 controls the opening of the electric lock to allow the user to enter the room in step S10.

図1や図9、図10では、認証対象者から見てディスプレイ11の画面が例えば正対している例を挙げているが、例えば図12や図13に示すようにディスプレイ11の画面は、認証対象者側から直接見えないように配置されてもよい。   1, 9, and 10 exemplify an example in which the screen of the display 11 faces, for example, directly from the person to be authenticated, but the screen of the display 11 is, for example, as shown in FIGS. 12 and 13. You may arrange | position so that it may not be seen directly from a target person side.

図12の例は、ディスプレイ11の画面に対して例えば45度に傾けて配置した反射板51により、ディスプレイ11の表示画像を反射し、その反射された画像を認証対象者が見る構成例を示している。なお、この図12の例の場合、ディスプレイ11上の表示は鏡像とする。この図12の構成の場合、距離センサ20は、反射板51により反射されたディスプレイ画面を認証対象者が見ることになる位置の手前に配されることになり、したがって、バーチャルタッチパネル40もその距離センサ20の上方の三次元空間に配置されることになる。この図12の構成の場合、ディスプレイ11の表示画面上には反射板51が設けられ、そのディスプレイ11の表示画面は反射板51で反射されることになるため、例えば盗撮用の小型隠しカメラをディスプレイ11画面上に秘かに配置するようなことはできない。   The example of FIG. 12 illustrates a configuration example in which a display image on the display 11 is reflected by a reflector 51 disposed at an angle of, for example, 45 degrees with respect to the screen of the display 11, and the reflected image is viewed by the person to be authenticated. ing. In the case of FIG. 12, the display on the display 11 is a mirror image. In the case of the configuration shown in FIG. 12, the distance sensor 20 is disposed in front of a position where the person to be authenticated looks at the display screen reflected by the reflection plate 51. It will be arranged in a three-dimensional space above the sensor 20. In the case of the configuration shown in FIG. 12, a reflector 51 is provided on the display screen of the display 11, and the display screen of the display 11 is reflected by the reflector 51. It cannot be placed secretly on the display 11 screen.

図13の例は、ディスプレイ11の画面に対して例えば45度傾けて配置され、そのディスプレイ11の表示画像を空中に仮想的な立体像として形成する光学結像プレート50を配した構成例を示している。なお光学結像プレート50としては、一例として特開2013-127625号公報に開示されているような光学結像装置を用いることができる。この図13の構成の場合、距離センサ20は、光学結像プレート50により仮想的な立体像が形成される位置に配されることになり、バーチャルタッチパネル40も距離センサ20の上方の三次元空間に配置されることになる。また、当該光学結像プレート50は、プレート面から45度を基軸として±20度が視野角となっており、そのような狭い視野角の範囲内でしかディスプレイ11の表示画面を見ることができない。このため、例えば認証対象者の肩越し或いは横からディスプレイ11の表示画面を盗み見るようなことはできず、また、小型隠しカメラによる盗撮も不可能である。   The example of FIG. 13 illustrates an example of a configuration in which an optical imaging plate 50 that is arranged at an angle of, for example, 45 degrees with respect to the screen of the display 11 and that forms a display image of the display 11 as a virtual stereoscopic image in the air is arranged. ing. As the optical imaging plate 50, for example, an optical imaging device disclosed in Japanese Patent Application Laid-Open No. 2013-127625 can be used. In the case of the configuration of FIG. 13, the distance sensor 20 is disposed at a position where a virtual stereoscopic image is formed by the optical imaging plate 50, and the virtual touch panel 40 is also located in a three-dimensional space above the distance sensor 20. Will be placed in In addition, the optical imaging plate 50 has a viewing angle of ± 20 degrees with 45 degrees as a base axis from the plate surface, and the display screen of the display 11 can be viewed only within such a narrow viewing angle range. . For this reason, for example, it is impossible to pry the display screen of the display 11 from over the shoulder or from the side of the person to be authenticated, and it is impossible to take a sneak shot with a small hidden camera.

以上説明したように、第1の実施形態の認証処理装置1によれば、三次元空間上に仮想的に配置したバーチャルタッチパネル40上に、ランダムに配置された仮想キーを指先31等でクリック(エアクリック)することでPINコードの入力がなされるため、実際に入力されている数字を、第三者に盗み見られたり、盗撮されたりすることが無く、非常に高いセキュリティ性を確保可能となっている。   As described above, according to the authentication processing apparatus 1 of the first embodiment, a virtual key randomly arranged is clicked on the virtual touch panel 40 virtually arranged in a three-dimensional space with the fingertip 31 or the like ( Since the PIN code is entered by "air-clicking", it is possible to ensure extremely high security without actually seeing the figure entered by a third party or stealing it. ing.

また、本実施形態の認証処理装置1によれば、確実なエアクリック動作が行われたかどうかは認証対象者本人のみが認識でき、例えばフェイククリックを行うことで、第三者に何れの数字がPINコードの数字であるかを知られる虞がない。   Further, according to the authentication processing device 1 of the present embodiment, whether or not a reliable air click operation has been performed can be recognized only by the person to be authenticated. There is no danger of knowing whether it is a PIN code number.

また、本実施形態の認証処理装置1によれば、認証対象者は、バーチャルタッチパネル40でエアクリックを行うだけであり、指先で実際にタッチパネル等に触れる必要が全くないため、指紋パターンなどの痕跡が残らず、指紋パターンを盗まれることがない。   Further, according to the authentication processing device 1 of the present embodiment, since the person to be authenticated only performs an air click on the virtual touch panel 40 and does not need to actually touch the touch panel or the like with a fingertip, the trace of a fingerprint pattern or the like is not obtained. No fingerprints are stolen.

さらに、本実施形態の認証処理装置1において、図12に示した反射板51や図13に示したような光学結像プレート50を配した構成を用いれば、第三者によるPINコードの盗み見や盗撮を有効に防止することができる。   Further, in the authentication processing apparatus 1 of the present embodiment, if a configuration in which the reflection plate 51 shown in FIG. 12 and the optical imaging plate 50 shown in FIG. Voyeurism can be effectively prevented.

また、本実施形態の認証処理装置1によれば、ディスプレイ画面の明るい表示を見ることができるため、十分な明るさが得られていない暗い環境であっても、認証対象者はPINコードの入力が可能となる。   Further, according to the authentication processing device 1 of the present embodiment, since the bright display on the display screen can be seen, even in a dark environment where sufficient brightness is not obtained, the person to be authenticated can input the PIN code. Becomes possible.

<第2の実施形態>
次に、本発明の第2の実施形態の認証処理装置1について以下に説明する。なお、第2の実施形態の認証処理装置1の概略的な構成は図1と同様である。また、第2の実施形態において、距離センサ20やディスプレイ11の画面表示、バーチャルタッチパネル40、ディスプレイ11の画面上にランダム配置されるキー画像12とバーチャルタッチパネル40内に配される仮想キーV12の対応関係、エアクリックとフェイククリックの区別、反射板51や光学結像プレート50等は、第1の実施形態と同様である。
<Second embodiment>
Next, an authentication processing device 1 according to a second embodiment of the present invention will be described below. Note that the schematic configuration of the authentication processing device 1 of the second embodiment is the same as that of FIG. Further, in the second embodiment, the correspondence between the distance sensor 20, the screen display of the display 11, the virtual touch panel 40, and the key images 12 randomly arranged on the screen of the display 11 and the virtual keys V12 arranged in the virtual touch panel 40 are shown. The relationship, the distinction between the air click and the fake click, the reflection plate 51, the optical imaging plate 50, and the like are the same as those in the first embodiment.

ここで、前述した第1の実施形態の場合、バーチャルタッチパネル40上でエアクリックが検出される際の検出対象物は、或る程度狭い範囲を指し示すことができる先端部を有する物体であればよく、指先に限定されるものではない。また第1の実施形態において、例えば指先によりエアクリックを行うことにした場合、認証対象者は、手の親指から小指までの何れの手指をどのように使ってもよく、PINコードの数字順に入力できればよい。   Here, in the case of the first embodiment described above, the detection target when an air click is detected on the virtual touch panel 40 may be any object having a tip that can indicate a somewhat narrow range. However, it is not limited to fingertips. Further, in the first embodiment, for example, when air click is performed with a fingertip, the person to be authenticated may use any finger from the thumb to the little finger in any manner, and input in numerical order of the PIN code. If possible.

これに対し、第2の実施形態の認証処理装置1は、認証対象者の手の5本の手指をそれぞれ個別に認識し、また、PINコードの各数字のうちいずれの数字がどの手指を使って入力されたかを個別に認識することにより、セキュリティ性能をさらに高めている。   On the other hand, the authentication processing device 1 of the second embodiment individually recognizes five fingers of the hand of the person to be authenticated, and determines which one of the numbers of the PIN code uses which finger. The security performance is further enhanced by individually recognizing whether the input has been made.

このようなことを実現するため、第2の実施形態において例えば4桁のPINコードにより個人認証が行われる場合、認証処理装置1には、PINコードの各数字とその数字に対応した手指の情報が予め登録されている。   In order to realize such a case, in the second embodiment, when personal authentication is performed using, for example, a four-digit PIN code, the authentication processing device 1 stores each number of the PIN code and information of a finger corresponding to the number. Are registered in advance.

また、認証処理装置1は、バーチャルタッチパネル40を介して認証対象者から4桁の数字が入力されたとき、それら4桁の各数字がそれぞれ何れの手指を用いて入力されたのかを認識可能となされている。そして、認証処理装置1は、入力された各数字及びそれら数字を入力した各手指の情報と、PINコードとして登録されている各数字及びそれら数字に対応して登録されている各手指の情報とを比較し、それらが全て一致した場合にのみ、認証対象者が正規のユーザであると認証する。   In addition, when a four-digit number is input from the person to be authenticated through the virtual touch panel 40, the authentication processing device 1 can recognize which finger each of the four-digit numbers was input using. It has been done. Then, the authentication processing device 1 compares the input numbers and the information of the respective fingers that input the numbers, the numbers registered as the PIN codes and the information of the respective fingers registered corresponding to the numbers. Are compared, and only when all of them match, the person to be authenticated is authenticated as a legitimate user.

図14には、第2の実施形態の場合の情報処理装置10の概略的な構成を示している。図14の示した各構成は、本実施形態の情報処理装置10にて行われる各処理や制御、実際のハードウェア構成をそれぞれ機能ごとに分けた機能ブロックとして表したものである。なお、図14において、前述の図4と同じ機能ブロックには図4と同一の符号を付してそれらの説明は省略する。   FIG. 14 illustrates a schematic configuration of the information processing apparatus 10 according to the second embodiment. Each configuration illustrated in FIG. 14 is a functional block in which each processing, control, and actual hardware configuration performed by the information processing apparatus 10 of the present embodiment is divided into functions. In FIG. 14, the same functional blocks as in FIG. 4 described above are denoted by the same reference numerals as in FIG. 4, and description thereof will be omitted.

すなわち、第2の実施形態の情報処理装置10は、第1の実施形態の情報処理装置10とは異なる機能として、検出対象物の三次元座標を解析することにより、前記検出対象物が認証対象者の手30である場合に手30の各手指部位を個別に識別し、前記識別した手指部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内において前記識別した手指部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、前記個別に識別した手指部位によって順に選ばれた複数の選択対象画像に対応した複数の数字の配列と、前記選択対象画像を順に選んだ手指部位の識別情報と、予め登録されている認証コードの数字の配列と、前記認証コードの各数字に対応して予め登録されている手指部位の識別情報との一致判定により、前記認証対象者の認証判定を行う認証判定手段としての各機能を実現する装置の一例である。   That is, the information processing apparatus 10 according to the second embodiment analyzes the three-dimensional coordinates of the detection target as a function different from that of the information processing apparatus 10 according to the first embodiment. In the case of the hand 30 of the user, each finger part of the hand 30 is individually identified, and the coordinates of the identified finger part correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for judging that the selection target image is selected by the identified part when a predetermined movement by the identified finger part is detected, and a plurality of selections sequentially selected by the individually identified finger part. An array of a plurality of numbers corresponding to the target image, identification information of the finger portion that sequentially selected the selection target image, an array of numbers of the authentication code registered in advance, and each number of the authentication code The matching determination of the response to the identification information of the finger part that is registered in advance, which is an example of an apparatus for realizing the functions as the authentication decision means for performing authentication determination of the authentication subject.

図15には、第2の実施形態においてPINコードを用いた個人認証が行われる際の情報処理装置10の処理及び制御の流れをフローチャートにより示している。以下、図14の各構成の動作及び処理と制御について、図15のフローチャートを参照しながら説明する。   FIG. 15 is a flowchart illustrating a flow of processing and control of the information processing apparatus 10 when personal authentication using a PIN code is performed in the second embodiment. Hereinafter, the operation, processing, and control of each component in FIG. 14 will be described with reference to the flowchart in FIG.

先ず、ステップS1の確認処理でユーザ確認がなされると、制御部205は、ステップS21の処理として、距離センサ出力解析部202で行われる解析結果から、認証対象者の前記手30が前記バーチャルタッチパネル40の三次元空間内に存在しているか判断する。   First, when the user is confirmed in the confirmation process of step S1, the control unit 205 determines that the hand 30 of the authentication target person is the virtual touch panel based on the analysis result performed by the distance sensor output analysis unit 202 as the process of step S21. It is determined whether it exists in the three-dimensional space of 40.

ここで、第2の実施形態の場合、距離センサ出力解析部202は、座標算出部211と対象認識部212と指識別情報取得部213と指先座標情報取得部214とZ座標判定部215とを有して構成されている。   Here, in the case of the second embodiment, the distance sensor output analysis unit 202 includes a coordinate calculation unit 211, a target recognition unit 212, a finger identification information acquisition unit 213, a fingertip coordinate information acquisition unit 214, and a Z coordinate determination unit 215. It is configured to have.

座標算出部211は、距離センサ20の二つの赤外線カメラ21L,21Rからの撮像信号の画像解析を行うことにより、距離センサ20の前記有効範囲内の三次元空間における検出対象物(本実施形態では前記手30)の三次元座標を、フレームごとに算出する。なお、第2の実施形態において、検出対象物である手30は、手掌と5本の手指からなる物体、すなわち一つの検出対象物内にそれぞれ異なる動きをする複数の部位が存在する物体である。したがって、座標算出部211は、手30を構成している手掌及び5本の手指の三次元座標を算出する。座標算出部211にて算出されたフレームごとの三次元座標情報は、対象認識部212へ送られる。   The coordinate calculation unit 211 performs an image analysis of the image pickup signals from the two infrared cameras 21L and 21R of the distance sensor 20 to detect a detection target (in the present embodiment, in a three-dimensional space) within the effective range of the distance sensor 20. The three-dimensional coordinates of the hand 30) are calculated for each frame. In the second embodiment, the hand 30 that is the detection target is an object including a palm and five fingers, that is, an object in which a plurality of parts that move differently exist in one detection target. . Therefore, the coordinate calculation unit 211 calculates the three-dimensional coordinates of the palm and the five fingers constituting the hand 30. The three-dimensional coordinate information for each frame calculated by the coordinate calculation unit 211 is sent to the target recognition unit 212.

対象認識部212は、前記フレームごとの撮像信号と三次元座標情報を基に、前記検出対象物がどのようなものであるかを認識する。ここで、距離センサ20の赤外線カメラにより、手掌及び5本の手指からなる手30が撮像されている場合、対象認識部212は、前記撮像信号と前記座標算出部211でフレームごとに算出された三次元座標とから、前記検出対象物が手30であることを認識する。また、対象認識部212は、検出対象物である手30を構成する各部位、すなわち手掌と5本の手指、それら5本の手指の先端(指先)、5本の手指の屈曲部である各関節等を認識する。このように、対象認識部212は、検出対象物が手30であることを認識すると、その対象認識結果と当該手掌と5本の指からなる手30の座標情報を制御部205へ送る。   The target recognizing unit 212 recognizes what the detection target is based on the imaging signal for each frame and the three-dimensional coordinate information. Here, when the hand 30 including the palm and five fingers is imaged by the infrared camera of the distance sensor 20, the target recognition unit 212 calculates the image signal and the coordinate calculation unit 211 for each frame. From the three-dimensional coordinates, it is recognized that the detection target is the hand 30. In addition, the target recognition unit 212 is a part that configures the hand 30 that is a detection target, that is, a palm and five fingers, a tip (fingertip) of the five fingers, and a bent part of the five fingers. Recognize joints and the like. As described above, when recognizing that the detection target is the hand 30, the target recognition unit 212 transmits the target recognition result and the coordinate information of the hand 30 including the palm and the five fingers to the control unit 205.

ここで、対象認識部212において、検出対象物が人の手であること及び当該手を構成する手掌と5本の手指をどのように認識するかについて、図16を参照しながら説明する。なお、以下の説明は概念説明であり、本発明はこの例に限定されるものではない。   Here, how the object to be detected is a human hand and how the palm and the five fingers constituting the hand are recognized by the target recognition unit 212 will be described with reference to FIG. The following description is a conceptual explanation, and the present invention is not limited to this example.

対象認識部212は、距離センサ20の赤外線カメラ21L,21Rにより人の手が撮像された場合、その撮像信号と前記座標算出部211でフレームごとに算出された三次元座標とから、検出対象物は他の部位よりも広い面積を有する部位(手掌に相当する部位)と、その広い部位から伸びて且つそれぞれが個別に屈曲可能な5本の部位(5本の手指に相当する部位)とからなることを認識する。   When a human hand is imaged by the infrared cameras 21L and 21R of the distance sensor 20, the object recognizing unit 212 uses the image signal and the three-dimensional coordinates calculated for each frame by the coordinate calculating unit 211 to detect a target object. Is composed of a part having a larger area than other parts (part corresponding to a palm) and five parts (parts corresponding to five fingers) extending from the large part and each of which can be individually bent. Recognize that it will be.

図16は、検出対象物として認識された手をモデル化して説明するための図である。図16の例では、検出対象物として認識された手掌部位を掌オブジェクトPとしてモデル化し、5本の手指部位をそれぞれ指オブジェクトF0〜F4としてモデル化して表している。なお、指オブジェクトF0は親指に対応しており、以下同様、指オブジェクトF1は人差し指、指オブジェクトF2は中指、指オブジェクトF3は薬指、指オブジェクトF4は小指にそれぞれ対応している。また、図16の例では、各手指の関節を関節オブジェクトF0j〜F4jとしてモデル化し、各手指の指先を指先オブジェクトF0t〜F4tとしてモデル化し、それら各関節オブジェクトの間或いは指先オブジェクトから隣の関節オブジェクトまでの間をボーンオブジェクトとしてモデル化して表している。対象認識部212は、図16に示すようにモデル化できる各部位を有した検出対象物が三次元空間内に存在していることを認識し、さらにそれら各部位の三次元空間内における配置関係から、当該検出対象物が人の手であると認識する。   FIG. 16 is a diagram for describing a hand recognized as a detection target by modeling. In the example of FIG. 16, a palm part recognized as a detection target is modeled as a palm object P, and five finger parts are modeled as finger objects F0 to F4, respectively. The finger object F0 corresponds to the thumb, and similarly, the finger object F1 corresponds to the index finger, the finger object F2 corresponds to the middle finger, the finger object F3 corresponds to the ring finger, and the finger object F4 corresponds to the little finger. In the example of FIG. 16, the joints of each finger are modeled as joint objects F0j to F4j, and the fingertips of each finger are modeled as fingertip objects F0t to F4t. The area up to is modeled and represented as a bone object. The object recognition unit 212 recognizes that a detection target having each part that can be modeled exists in the three-dimensional space as shown in FIG. From this, it is recognized that the detection target object is a human hand.

そして、制御部205は、対象認識部212から、検出対象物として人の手の認識結果を受け取ると、図15のステップS21において、前記バーチャルタッチパネル40内で人の手30を検出したと判断し、処理をステップS3へ進める。ステップS3へ処理を進めると、制御部205は、前述の第1の実施形態と同様に、ランダム配置したキー画像12をディスプレイ11の画面上に表示させる。   When receiving the recognition result of the human hand as the detection target from the target recognition unit 212, the control unit 205 determines that the human hand 30 has been detected in the virtual touch panel 40 in step S21 of FIG. The process proceeds to Step S3. When the process proceeds to step S3, the control unit 205 causes the key image 12 arranged at random to be displayed on the screen of the display 11, as in the first embodiment.

次に、制御部205は、ステップS22へ処理を進め、距離センサ出力解析部102の指識別情報取得部213に対して手30の各手指を識別するための指識別情報を取得させ、また、指先座標情報取得部214に対して各指先の座標情報を取得させる。この指識別情報は、部位識別情報の一例である。   Next, the control unit 205 advances the process to step S22, and causes the finger identification information acquisition unit 213 of the distance sensor output analysis unit 102 to acquire finger identification information for identifying each finger of the hand 30. The fingertip coordinate information acquisition unit 214 is made to acquire the coordinate information of each fingertip. The finger identification information is an example of the part identification information.

すなわち、指識別情報取得部213は、対象認識部212が認識した手30の各部位のうち、例えば図16の指オブジェクトF0〜F4のようにモデル化できる各部位を、それぞれ親指から小指までの手指部位であると識別する。そして、指識別情報取得部213は、それら手指部位を個別に識別した指識別情報を制御部205へ送る。また、指先座標情報取得部214は、前記指識別情報取得部213が識別した各手指部位のうち、例えば図16の指先オブジェクトF0t〜F4tのようにモデル化できる先端部位の座標情報を取得し、それら各指先部位の座標情報を制御部205へ送る。   In other words, the finger identification information acquisition unit 213 converts, from the thumb to the little finger, each of the parts of the hand 30 recognized by the target recognition unit 212 that can be modeled, for example, as the finger objects F0 to F4 in FIG. Identify a finger site. Then, the finger identification information acquisition unit 213 sends the finger identification information identifying the finger parts individually to the control unit 205. In addition, the fingertip coordinate information acquisition unit 214 acquires coordinate information of a tip part that can be modeled, for example, as the fingertip objects F0t to F4t in FIG. 16 among the finger parts identified by the finger identification information acquisition unit 213, The coordinate information of each fingertip part is sent to the control unit 205.

次に、制御部205は、ステップS23の処理として、指識別情報取得部213からの指識別情報と指先座標情報取得部214からの指先の座標情報とにより識別されている手指の指先の座標が、バーチャルタッチパネル40の三次元空間内に配置された何れかの仮想キーV12の座標と一致したか判断する。なおこの場合の一致判定は、指先のX,Y座標が、仮想キーV12のX,Y座標の範囲内であるかの一致判定となる。そして、制御部205は、前記識別されている手指の指先座標が、仮想キーV12の座標に一致したと判断したときにはステップS24へ処理を進め、一方、一致していないと判断したときにはステップS22へ処理を戻す。なお、ステップS23の判断の際も、前述の第1の実施形態で説明したのと同様に、仮想キーV12の座標の周囲に所定の検出範囲を設けてもよい。   Next, the control unit 205 determines the coordinates of the fingertip of the finger identified by the finger identification information from the finger identification information acquisition unit 213 and the coordinate information of the fingertip from the fingertip coordinate information acquisition unit 214 as the process of step S23. It is determined whether the coordinates match any one of the virtual keys V12 arranged in the three-dimensional space of the virtual touch panel 40. In this case, the coincidence determination is performed to determine whether the X and Y coordinates of the fingertip are within the range of the X and Y coordinates of the virtual key V12. When the controller 205 determines that the fingertip coordinates of the identified finger match the coordinates of the virtual key V12, the process proceeds to step S24, and when it determines that the fingers do not match, the process proceeds to step S22. Reverse processing. At the time of the determination in step S23, a predetermined detection range may be provided around the coordinates of the virtual key V12, as described in the first embodiment.

次に、制御部205は、Z座標判定部215でのZ座標判定結果に基づいて、バーチャルタッチパネル40上でエアクリックが行われたか判断する。なお、Z座標判定部215で行われるZ座標判定処理については前述の第1の実施形態と同様である。そして、ステップS24において、前記Z座標判定部215から判定検出信号を受け取ると、制御部205は、エアクリックが行われたと判断する。なお、エアクリックが行われていない場合、制御部205は、ステップS22へ処理を戻す。   Next, the control unit 205 determines whether an air click has been performed on the virtual touch panel 40 based on the Z coordinate determination result of the Z coordinate determination unit 215. Note that the Z coordinate determination process performed by the Z coordinate determination unit 215 is the same as in the first embodiment. Then, in step S24, when receiving the determination detection signal from the Z coordinate determination unit 215, the control unit 205 determines that an air click has been performed. If the air click has not been performed, the control unit 205 returns the process to step S22.

次に、ステップS24にてエアクリックが行われたと判断して、ステップS25へ処理を進めると、制御部205は、入力情報判定部203に対し、エアクリックにより入力された座標に対応した数字を配列PIN(n)として保管させ、また、エアクリックした何れかの手指の識別情報を配列FINGER(n)に保管した後、「n」に「1」を加えて、ステップS26へ処理を進める。   Next, in step S24, it is determined that an air click has been performed, and when the process proceeds to step S25, the control unit 205 instructs the input information determination unit 203 to input a number corresponding to the coordinates input by the air click. After storing the information as an array PIN (n) and storing the identification information of any finger that has been air-clicked in the array FINGER (n), “1” is added to “n”, and the process proceeds to step S26.

ステップS26へ処理が進むと、制御部205は、入力情報判定部203が保管している配列PIN(n)の「n」が「m」となり、また、配列FINGER(n)の「n」が「m」となったか否か判定する。なお「m」は、PINコードが4桁である場合は「4」となる。したがって、制御部205は、「n」が「4」になると、処理をステップS27へ進める。すなわち、「n」が「4」になったとき、入力情報判定部203が前記配列PIN(n)として保管している数字は4桁の数字となり、この4桁の数字が、バーチャルタッチパネル40を用いて認証対象者により入力された数字となる。また、「n」が「4」になったとき、入力情報判定部203が前記配列FINGER(n)にして保管している指識別情報の数は「4」となり、これにより、それぞれが個々に識別された手指による4回のエアクリックが認証対象者からなされたことになる。   When the process proceeds to step S26, the control unit 205 sets “n” in the array PIN (n) stored in the input information determination unit 203 to “m” and sets “n” in the array FINGER (n) to “m”. It is determined whether or not “m” has been reached. Note that “m” is “4” when the PIN code has four digits. Therefore, when “n” becomes “4”, control unit 205 causes the process to proceed to step S27. That is, when “n” becomes “4”, the number stored as the array PIN (n) by the input information determination unit 203 becomes a four-digit number, and the four-digit number is displayed on the virtual touch panel 40. And the number entered by the person to be authenticated. Also, when “n” becomes “4”, the number of finger identification information stored in the array FINGER (n) by the input information determination unit 203 becomes “4”. Four air clicks by the identified finger are performed by the person to be authenticated.

次に、処理をステップS27へ進めると、制御部205は、入力情報判定部203に対し、例えばメモリ部207に保存されているユーザごとのPINコード及び当該PINコードの各数字に対応付けられた指識別情報と、前記バーチャルタッチパネル40を介して認証対象者により入力された数字及びそれら数字を入力する際に使用された指識別情報とが、完全に一致しているか否か判定させる。   Next, when the process proceeds to step S27, the control unit 205 instructs the input information determination unit 203, for example, to associate the PIN code for each user stored in the memory unit 207 with each numeral of the PIN code. It is determined whether or not the finger identification information and the numbers input by the person to be authenticated via the virtual touch panel 40 and the finger identification information used when inputting the numbers completely match.

ここで、メモリ部207には、一例としてユーザ情報131とPINコード132と指識別情報133とが登録されたテーブル情報が格納されている。当該テーブル情報は、一例として図17に示すように、複数のユーザをそれぞれ表すユーザ情報U1,U2,U3,・・・と、各ユーザの登録PINコードと、それらPINコードの各数字を入力する手指の識別情報とが対応付けられて登録されてものである。入力情報判定部203には、先のステップS1のユーザ確認の際に登録済みと判定されたユーザのPINコード及び指識別情報がメモリ部107から渡されており、したがって、入力情報判定部203は、ステップS27において、そのPINコードと当該PINコードの各数字に対応した指識別情報と、前記認証対象者が入力した数字とそれら数字が入力された際の指識別情報との一致判定を行う。   Here, the memory unit 207 stores, for example, table information in which the user information 131, the PIN code 132, and the finger identification information 133 are registered. As the table information, as shown in FIG. 17 as an example, user information U1, U2, U3,... Respectively representing a plurality of users, a registered PIN code of each user, and each number of the PIN code are input. The identification information of the finger is registered in association with the identification information. The PIN code and finger identification information of the user determined to have been registered at the time of the user confirmation in the previous step S1 have been passed to the input information determination unit 203 from the memory unit 107. Therefore, the input information determination unit 203 In step S27, it is determined whether the PIN code and the finger identification information corresponding to each number of the PIN code coincide with the numbers input by the person to be authenticated and the finger identification information when those numbers are input.

そして、ステップS27において、入力情報判定部203が前記認証対象者の入力数字とPINコードと指識別情報が全て一致したと判定したとき、制御部205は、ステップS10として、認証は確認(OK)されたとして認証OK処理を行う。すなわち、例えば図18に示すように、PINコードが例えば「1,7,6,4」であり、それらPINコードの数字に対して指識別情報「F0(親指),F4(小指),F1(人差し指),F3(薬指)」が登録されていたような場合において、認証対象者から、親指により「1」、小指により「7」、人差し指により「6」、薬指により「4」の数字が、その順に入力されたとき、制御部205は、認証OK処理を行う。これ以降の処理は前述の図5のフローチャートと同様である。一方、ステップS27において入力数字とPINコードと各指識別情報が完全に一致しなかったと判定された場合、制御部205は、ステップS12へ処理を進めて認証NG処理を行う。すなわち、PINコードが例えば「1,7,6,4」であり、それらPINコードの数字に対して指識別情報「F0,F4,F1,F3」が登録されていたような場合において、認証対象者から、例えば全て人差し指を用いて「1,7,6,4」の数字が入力されたとき、制御部205は、認証NG処理を行う。   Then, in step S27, when the input information determination unit 203 determines that the input numeral of the person to be authenticated, the PIN code, and the finger identification information all match, the control unit 205 determines that the authentication is OK (OK) in step S10. Then, the authentication OK process is performed. That is, for example, as shown in FIG. 18, the PIN code is, for example, "1, 7, 6, 4", and the finger identification information "F0 (thumb), F4 (little finger), F1 ( In the case where “index finger” and F3 (ring finger) ”have been registered, the number of“ 1 ”by the thumb,“ 7 ”by the little finger,“ 6 ”by the index finger, and“ 4 ”by the ring finger from the authentication target person, When input in that order, the control unit 205 performs an authentication OK process. Subsequent processes are the same as those in the flowchart of FIG. On the other hand, when it is determined in step S27 that the input numeral, the PIN code, and each finger identification information do not completely match, the control unit 205 proceeds to step S12 to perform an authentication NG process. That is, when the PIN code is, for example, “1, 7, 6, 4” and the finger identification information “F0, F4, F1, F3” is registered for the numbers of those PIN codes, the authentication target When a numeral “1, 7, 6, 4” is input from the user using, for example, the index finger, the control unit 205 performs an authentication NG process.

なお、前述の説明では、5本の手指全てについて手指を識別する例を挙げたが、第2の実施形態の認証処理装置1は、必要とされるセキュリティレベル(セキュリティの度合い)に応じて、例えば手指2本のみを識別することにしたり、3本のみを識別するようなことも可能である。セキュリティレベルとしては、前述した第1の実施形態のように使用する手指を特定せずにPINコードの数字のみを入力するセキュリティレベルや、5本の手指のうち所定の2本や3本のみを識別するセキュリティレベル、5本の手指全てを識別するセキュリティレベルなどを挙げることができる。これらセキュリティレベルは、登録ユーザごとに設定してもよく、また、入室管理等される場所に応じて設定してもよい。例えばセキュリティレベルとして最高レベルが求められる場所やユーザに対しては、前記5本の手指全てを識別する設定とし、例えば最も緩いレベルでもよい場所やユーザに対しては、手指を特定しない設定とすることができる。   In the above description, an example has been given in which fingers are identified for all five fingers. However, the authentication processing device 1 according to the second embodiment may select a finger according to a required security level (degree of security). For example, it is also possible to identify only two fingers or to identify only three fingers. As the security level, as in the first embodiment described above, a security level in which only the PIN code number is input without specifying the finger to be used, or only predetermined two or three fingers out of five fingers are identified. Security level to identify all five fingers and the like. These security levels may be set for each registered user, or may be set according to places where entry control is performed. For example, for a place or user where the highest level is required as the security level, a setting is made to identify all of the five fingers, and for example, for a place or user who may have the lowest level, the finger is not specified. be able to.

第2の実施形態の認証処理装置1によれば、前述の第1の実施形態で説明した認証処理装置1と同様に、実際に入力されている数字を、第三者に盗み見られたり、盗撮されたりすることが無くなり、非常に高いセキュリティ性を確保可能であり、また例えばフェイククリックが行われたときには第三者に何れの数字がPINコードの数字であるかを知られる虞がない。また、第2の実施形態の認証処理装置1によれば、第1の実施形態同様に、認証対象者は指先で実際にタッチパネル等に触れる必要がなく、したがって指紋パターンなどの痕跡が残らず、指紋パターンを盗まれることがない。さらに、第2の実施形態の認証処理装置1においても、第1の実施形態同様に、反射板51や光学結像プレート50を配した構成を用いれば、第三者によるPINコードの盗み見や盗撮を有効に防止することができる。また、第2の実施形態の認証処理装置1によれば、第1の実施形態同様に、暗い環境であっても、認証対象者はPINコードの入力が可能となる。   According to the authentication processing apparatus 1 of the second embodiment, similarly to the authentication processing apparatus 1 described in the above-described first embodiment, the actual input number can be viewed by a third party or pirated. Is not performed, and very high security can be ensured. Further, for example, when a fake click is performed, there is no risk that a third party will know which number is the PIN code number. Further, according to the authentication processing device 1 of the second embodiment, similarly to the first embodiment, the person to be authenticated does not need to actually touch the touch panel or the like with his / her fingertip, so that no trace such as a fingerprint pattern remains. Your fingerprint pattern will not be stolen. Further, in the authentication processing apparatus 1 of the second embodiment, similarly to the first embodiment, if the configuration in which the reflection plate 51 and the optical imaging plate 50 are provided is used, the PIN code can be stolen by a third party or voyeurized. Can be effectively prevented. Further, according to the authentication processing device 1 of the second embodiment, as in the first embodiment, even in a dark environment, the person to be authenticated can input a PIN code.

さらに、これら第1の実施形態同様の効果に加え、第2の実施形態の認証処理装置1においては、PINコードの各数字に対し、その数字を入力する手指を個々に登録可能となされているため、より高いセキュリティ性を実現できる。例えば、PINコードが4桁の数字であった場合、それら数字の組み合わせは10の4乗で10000通りしかないが、第2の実施形態のように、PINコードの4桁の各数字の入力に対して5本の手指の何れを使用するかを登録した場合、それらの組み合わせは10×5の4乗で6250000通りとなる。すなわち、第2の実施形態によれば、PINコードの4桁の数字のみを用いた場合と比較して、セキュリティ強度が625倍となり、正規のユーザになりすまして不正を行うことが非常に難しくなる。   Further, in addition to the same effects as those of the first embodiment, in the authentication processing device 1 of the second embodiment, for each number of the PIN code, a finger for inputting the number can be individually registered. Therefore, higher security can be realized. For example, if the PIN code is a four-digit number, there are only 10,000 combinations of these numbers in the fourth power of 10. However, as in the second embodiment, the four-digit number of the PIN code must be entered. On the other hand, when it is registered which of the five fingers is to be used, 62,500,000 combinations of 10 × 5 to the fourth power are registered. That is, according to the second embodiment, the security strength becomes 625 times as compared with the case where only the 4-digit number of the PIN code is used, and it becomes very difficult to impersonate a legitimate user and perform fraud. .

また、第2の実施形態の認証処理装置1の場合、前述のようにセキュリティレベルの設定が可能となされているため、登録ユーザごと、また入出管理する場所等に応じてセキュリティの度合いを変えることができる。   Further, in the case of the authentication processing apparatus 1 of the second embodiment, since the security level can be set as described above, the degree of security is changed according to each registered user and a place where entry / exit management is performed. Can be.

なお、第2の実施形態において、詳細は後述する第3の実施形態で説明するが、それぞれ認識された指先31によりエアクリックが行われたか判断する際に使用する座標は、Z座標軸で予め固定的に決められた基準座標に限定されない。すなわち、エアクリックが行われたか判断する際に使用する座標は、例えば、認証対象者の手30の指先31がバーチャルタッチパネル40の三次元空間内で検出された後、その手30の指先31が三次元空間内で所定の時間だけ静止したときのそれぞれの指先31の各Z座標から、指先方向で且つZ軸方向にそれぞれ所定距離だけ離れた座標に設定することもできる。言い換えると、エアクリックの判定に使用される座標は、それぞれの指先31が三次元空間内で静止したときの各Z座標に応じた可変の座標として設定可能である。   In the second embodiment, details will be described in a third embodiment which will be described later. However, the coordinates used for determining whether or not the recognized fingertip 31 has performed the air click are fixed in advance on the Z coordinate axis. The reference coordinates are not limited to the predetermined coordinates. That is, the coordinates used to determine whether the air click has been performed are, for example, after the fingertip 31 of the hand 30 of the person to be authenticated is detected in the three-dimensional space of the virtual touch panel 40, From each Z coordinate of each fingertip 31 when it is stationary for a predetermined time in the three-dimensional space, it is possible to set a coordinate that is separated by a predetermined distance in the fingertip direction and in the Z-axis direction. In other words, the coordinates used for air click determination can be set as variable coordinates according to each Z coordinate when each fingertip 31 is stationary in the three-dimensional space.

<第3の実施形態>
前述の第1、第2の実施形態では、バーチャルタッチパネル40が、認証対象者に対して正対するように設定された例を挙げている。すなわち、第1、第2の実施形態は、例えば重力方向をY軸方向とした場合において、バーチャルタッチパネル40がX軸とY軸を含む仮想二次元平面として設定された例を挙げている。
<Third embodiment>
In the first and second embodiments described above, examples are given in which the virtual touch panel 40 is set to face the person to be authenticated. That is, the first and second embodiments exemplify an example in which the virtual touch panel 40 is set as a virtual two-dimensional plane including the X axis and the Y axis when the direction of gravity is the Y axis direction.

これに対し、第3の実施形態では、バーチャルタッチパネル40の仮想二次元平面が、認証対象者から見て略々水平に設定される例について説明する。すなわち、第3の実施形態は、図19に示すように、例えば重力方向をY軸方向とした場合において、バーチャルタッチパネル40がX軸とZ軸を含む仮想二次元平面として設定された例を挙げる。図19に示した配置の場合、認証対象者から見たディスプレイ11と距離センサ20は、例えば図20に示すような配置関係となり、バーチャルタッチパネル40は、それらディスプレイ11と距離センサ20の上空側の三次元空間に設定されることになる。この図19の例のように、バーチャルタッチパネル40とディスプレイ11の表示面を、認証対象者から見て略々水平に設定した場合、認証対象者は、既存の銀行ATMを操作する場合と略々変わらぬ体勢で、バーチャルタッチパネル40に対する操作が可能となる。   On the other hand, in the third embodiment, an example will be described in which the virtual two-dimensional plane of the virtual touch panel 40 is set substantially horizontally when viewed from the person to be authenticated. That is, in the third embodiment, as shown in FIG. 19, for example, when the gravity direction is set to the Y-axis direction, the virtual touch panel 40 is set as a virtual two-dimensional plane including the X axis and the Z axis. . In the case of the arrangement shown in FIG. 19, the display 11 and the distance sensor 20 viewed from the person to be authenticated have an arrangement relationship as shown in FIG. 20, for example. It will be set in a three-dimensional space. As in the example of FIG. 19, when the virtual touch panel 40 and the display surface of the display 11 are set to be substantially horizontal when viewed from the person to be authenticated, the person to be authenticated is substantially the same as when operating an existing bank ATM. The operation on the virtual touch panel 40 can be performed in the same posture.

なお、図19、図20の場合、認証対象者から見て、ディスプレイ11はその表示面が水平となるように設置され、同様に、距離センサ20はセンサ面20Fが水平となるように設置されているが、これはあくまで一例である。特に、バーチャルタッチパネル40の仮想二次元平面は、距離センサ20の有効範囲内であれば、例えば重力方向をY軸方向とした場合にそのY軸に対してどのような傾きであっても設定可能であり、X軸或いはZ軸に対しても同様にどのような傾きにも設定可能である。また、図19では、Y軸方向が重力方向と一致した例を挙げて説明しているが、Y軸方向は重力方向と一致している必要はなく、重力方向に対して傾いた軸として設定されていてもよい。これは第3の実施形態だけでなく、前述した第1、第2の実施形態においても同様である。   19 and 20, the display 11 is installed so that its display surface is horizontal when viewed from the person to be authenticated, and similarly, the distance sensor 20 is installed so that the sensor surface 20F is horizontal. However, this is only an example. In particular, if the virtual two-dimensional plane of the virtual touch panel 40 is within the effective range of the distance sensor 20, for example, when the gravity direction is the Y-axis direction, it can be set at any inclination with respect to the Y-axis. In the same manner, any inclination can be set for the X axis or the Z axis. FIG. 19 illustrates an example in which the Y-axis direction coincides with the direction of gravity. However, the Y-axis direction does not need to coincide with the direction of gravity, and is set as an axis inclined with respect to the direction of gravity. It may be. This is the same not only in the third embodiment but also in the first and second embodiments described above.

また、第3の実施形態の認証処理装置は、認証対象者の手30の指先31がバーチャルタッチパネル40の三次元空間内で検出された後、その手30の指先31が三次元空間内で静止した時間を計測している。そして、認証処理装置は、指先31が所定の時間(以下、静止判定時間と表記する。)だけ静止したことを検出したとき、各指先31のY座標から、それらの各指先方向で且つY軸方向にそれぞれ所定距離だけ離れた座標を、エアクリックが行われたか判断する際に使用する座標(以下、エアクリック判定座標と表記する。)として設定する。すなわち、第3の実施形態の場合、エアクリック判定座標は、指先31が三次元空間内で静止判定時間だけ静止したときのそれぞれの指先31のY座標に応じた可変の座標として設定される。   Further, after the fingertip 31 of the hand 30 of the person to be authenticated is detected in the three-dimensional space of the virtual touch panel 40, the authentication processing device of the third embodiment stops the fingertip 31 of the hand 30 in the three-dimensional space. Time is measured. When the authentication processing device detects that the fingertip 31 has stopped for a predetermined time (hereinafter, referred to as a stillness determination time), the authentication processing device calculates the Y-coordinate of each fingertip 31 in the respective fingertip directions and in the Y-axis direction. Coordinates separated by a predetermined distance in each direction are set as coordinates used for determining whether an air click has been performed (hereinafter, referred to as air click determination coordinates). That is, in the case of the third embodiment, the air click determination coordinates are set as variable coordinates according to the Y coordinates of each fingertip 31 when the fingertip 31 is stationary in the three-dimensional space for the stationary determination time.

また、エアクリック判定座標は、前記設定されたY座標を中心として、X軸方向とZ軸方向の幅がそれぞれ所定の幅となされた判定エリアを有するように設定されることが望ましい。すなわち、指先31は、静止した状態からY軸方向へ動かされたとき、必ずしもY軸に正確に沿って動くとは限らないためであり、指先31がエアクリック判定座標に到達したことを有効に検出可能にするためである。   In addition, it is preferable that the air click determination coordinate is set so as to have a determination area in which the width in the X-axis direction and the width in the Z-axis direction are each a predetermined width around the set Y coordinate. That is, when the fingertip 31 is moved in the Y-axis direction from a stationary state, the fingertip 31 does not always move exactly along the Y-axis. This is to make detection possible.

図21は、親指の指先座標FC0から所定距離DY0だけ離れたY座標値が親指用のエアクリック判定座標YS0として設定され、以下同様に、人差し指〜小指の各指先座標FC1〜FC4からそれぞれ所定距離DY1〜DY4だけ離れたY座標値がそれぞれ人差し指〜小指用のエアクリック判定座標YS1〜YS4として設定された状態を概念的に示している。エアクリック判定座標YS0〜YS4は、図21のようにX軸方向とZ軸方向が所定の幅となされた判定エリアを有している。   FIG. 21 shows that the Y coordinate value separated by a predetermined distance DY0 from the fingertip coordinates FC0 of the thumb is set as the air click determination coordinate YS0 for the thumb, and similarly, a predetermined distance from each of the fingertip coordinates FC1 to FC4 of the index finger to the little finger. This conceptually illustrates a state in which Y coordinate values separated by DY1 to DY4 are set as air click determination coordinates YS1 to YS4 for the index finger to the little finger, respectively. The air click determination coordinates YS0 to YS4 have a determination area in which the X-axis direction and the Z-axis direction have a predetermined width as shown in FIG.

そして、第3の実施形態の認証処理装置は、各指先座標FC1〜FC4に対してそれぞれエアクリック判定座標YS0〜YS4を設定した後、何れかの指先座標FCがエアクリック判定座標YSに達するか又は越えたとき、エアクリックが行われたと判定する。一方、第3の実施形態において、エアクリック判定座標YS0〜YS4が設定された後、何れかの指先座標FCがエアクリック判定座標YS付近まで移動してもエアクリック判定座標YSにまで達していないか又は越えていない場合には、フェイククリックとなる。   After setting the air click determination coordinates YS0 to YS4 for the fingertip coordinates FC1 to FC4, the authentication processing device of the third embodiment determines whether any of the fingertip coordinates FC reaches the air click determination coordinate YS. Or, when it exceeds, it is determined that the air click has been performed. On the other hand, in the third embodiment, after the air click determination coordinates YS0 to YS4 are set, even if any fingertip coordinate FC moves to the vicinity of the air click determination coordinate YS, it does not reach the air click determination coordinate YS. Otherwise, a fake click results.

なお、各指先座標FC0〜FC4からエアクリック判定座標YS1〜YS4までの所定距離DY0〜DY4は、一例として1.0cmとする。所定距離を1.0cmとしたのは、所定距離が1.0cmよりも短く設定されていたとすると、例えば薬指等でエアクリックがなされる場合において、その薬指の動きにより中指と小指も一緒に動いてしまい、それら中指と小指でもエアクリックがなされたと誤って判定されてしまう可能性を少なくするためである。もちろん、所定距離の1.0cmは一例であり、例えば親指や人差し指、中指などのように動かし易い手指に対する所定距離は長くし、薬指のように動かし難い手指に対する所定距離は短くするような設定であってもよい。また例えば、要求されるセキュリティレベルに応じて、各指先に対する所定距離が変更されてもよい。   The predetermined distances DY0 to DY4 from the fingertip coordinates FC0 to FC4 to the air click determination coordinates YS1 to YS4 are set to 1.0 cm, for example. The reason why the predetermined distance is set to 1.0 cm is that if the predetermined distance is set shorter than 1.0 cm, for example, when an air click is made with a ring finger or the like, the middle finger and the little finger move together with the movement of the ring finger. This is to reduce the possibility that the middle finger and the little finger are erroneously determined to have been air clicked. Of course, the predetermined distance of 1.0 cm is an example. For example, the predetermined distance for a finger that is easy to move such as a thumb, forefinger, or middle finger is set to be long, and the predetermined distance for a finger that is difficult to move such as a ring finger is set to be short. There may be. Further, for example, the predetermined distance to each fingertip may be changed according to a required security level.

また、指先31が静止したか否かを判断する静止判定時間は、一例として1秒間など予め決められた時間として設定される。静止判定時間が予め決められた時間に設定されている場合、指先31が静止した状態が静止判定時間以上になったことが検出されたときに、エアクリック判定座標が設定される。なお、静止判定時間は、各指先ごとに異なる時間に設定してもよいし、例えばセキュリティレベルに応じて異なる時間に設定してもよい。   The stillness determination time for determining whether or not the fingertip 31 has stopped is set as a predetermined time such as one second as an example. When the stillness determination time is set to a predetermined time, the air click determination coordinates are set when it is detected that the state in which the fingertip 31 has stopped is longer than the stillness determination time. The stillness determination time may be set to a different time for each fingertip, or may be set to a different time according to, for example, a security level.

以下、本発明の第3の実施形態の認証処理装置1について以下に説明する。図22は、第3の実施形態の情報処理装置10の概略的な構成を示している。図22の示した各構成は、本実施形態の情報処理装置10にて行われる各処理や制御、実際のハードウェア構成をそれぞれ機能ごとに分けた機能ブロックとして表したものである。なお、図22において、前述の図14と同じ機能ブロックには図14と同一の符号を付してそれらの説明は省略する。   Hereinafter, the authentication processing device 1 according to the third embodiment of the present invention will be described below. FIG. 22 illustrates a schematic configuration of an information processing apparatus 10 according to the third embodiment. Each configuration illustrated in FIG. 22 is a functional block in which each process, control, and actual hardware configuration performed by the information processing apparatus 10 of the present embodiment are divided into functions. In FIG. 22, the same reference numerals as in FIG. 14 denote the same functional blocks as in FIG. 14, and a description thereof will be omitted.

第3の実施形態の情報処理装置10は、基本的な構成と処理は図14と略々同様であるが、図14のZ座標判定部215に代えてY座標判定部255を備えており、また制御部250の処理も一部が異なる。また、第3の実施形態の場合、ディスプレイ11の画面上にランダム配置されるキー画像12とバーチャルタッチパネル40内に配される仮想キーV12の対応関係、認証対象者の各手指の認識と、エアクリックに使用される手指と4桁のPINコードとの対応付けによる個人認証等については第2の実施形態と同様であるが、バーチャルタッチパネル40、距離センサ20、ディスプレイ11の配置関係等は図19〜図21で示したようになされている。   The basic configuration and processing of the information processing apparatus 10 according to the third embodiment are substantially the same as those in FIG. 14, but include a Y coordinate determination unit 255 instead of the Z coordinate determination unit 215 in FIG. Also, the processing of the control unit 250 is partially different. In the case of the third embodiment, the correspondence between the key images 12 randomly arranged on the screen of the display 11 and the virtual keys V12 arranged in the virtual touch panel 40, the recognition of each finger of the person to be authenticated, and the air The personal authentication and the like by associating the finger used for the click with the four-digit PIN code are the same as in the second embodiment, but the arrangement relationship of the virtual touch panel 40, the distance sensor 20, the display 11 and the like are shown in FIG. 21 through FIG. 21.

また、図23には、第3の実施形態においてPINコードを用いた個人認証が行われる際の情報処理装置10の処理及び制御の流れをフローチャートにより示している。なお、図23において、前述の図15と同じ処理ステップには図15と同一の符号を付してそれらの説明は省略する。以下、図22の各構成の動作及び処理と制御について、図23のフローチャートを参照しながら説明する。   FIG. 23 is a flowchart illustrating a flow of processing and control of the information processing apparatus 10 when personal authentication using a PIN code is performed in the third embodiment. In FIG. 23, the same processing steps as those in FIG. 15 described above are denoted by the same reference numerals as in FIG. 15, and description thereof will be omitted. Hereinafter, the operation, processing, and control of each component in FIG. 22 will be described with reference to the flowchart in FIG.

図23において、ステップS1からステップS22を経てステップS31に進むと、制御部250は、指先座標情報取得部214がフレームごとに取得している各指先の座標情報から、認証対象者の手30の指先31が三次元空間内で静止した時間を計測し、指先31が静止判定時間だけ静止したか判定する。制御部250は、指先31が静止判定時間になるまで静止していないと判断している間は、ステップS22へ処理を戻し、静止判定時間以上静止したことを検出すると、ステップS32へ処理を進める。   In FIG. 23, when the process proceeds from step S1 to step S31 via step S22, the control unit 250 determines the hand 30 of the authentication target person from the coordinate information of each fingertip acquired by the fingertip coordinate information acquiring unit 214 for each frame. The time during which the fingertip 31 is stationary in the three-dimensional space is measured, and it is determined whether the fingertip 31 is stationary for the stationary determination time. The control unit 250 returns the process to step S22 while determining that the fingertip 31 is not stationary until the stationary determination time is reached, and proceeds to step S32 when detecting that the fingertip 31 is stationary for the stationary determination time or longer. .

ステップS32へ処理を進めると、制御部250は、指識別情報取得部213からの指識別情報と指先座標情報取得部214からの指先の座標情報とにより識別されている手指の指先の座標が、バーチャルタッチパネル40の三次元空間内に配置された何れかの仮想キーV12の座標と一致したか判断する。なお第3の実施形態の場合の一致判定は、指先のX,Z座標が、仮想キーV12のX,Z座標の範囲内であるかの一致判定となる。そして、制御部250は、前記識別されている手指の指先座標が、仮想キーV12の座標に一致したと判断したときにはステップS33へ処理を進め、一致していないと判断したときにはステップS22へ処理を戻す。なお、ステップS32の判断の際も、前述の第1の実施形態で説明したのと同様に、仮想キーV12の座標の周囲に所定の検出範囲を設けてもよい。   When the process proceeds to step S32, the control unit 250 sets the coordinates of the fingertip of the finger identified by the finger identification information from the finger identification information acquisition unit 213 and the coordinate information of the fingertip from the fingertip coordinate information acquisition unit 214 to: It is determined whether the coordinates match any one of the virtual keys V12 arranged in the three-dimensional space of the virtual touch panel 40. The match determination in the third embodiment is a match determination as to whether the X, Z coordinates of the fingertip are within the range of the X, Z coordinates of the virtual key V12. If the controller 250 determines that the fingertip coordinates of the identified finger match the coordinates of the virtual key V12, the controller 250 proceeds to step S33, and if it determines that the fingers do not match, it proceeds to step S22. return. At the time of the determination in step S32, a predetermined detection range may be provided around the coordinates of the virtual key V12, as described in the first embodiment.

ステップS33へ処理を進めると、制御部250は、前述のように、指先31のY座標から指先方向で且つY軸方向に所定距離だけ離れたエアクリック判定座標を設定する。そして、制御部250は、設定したエアクリック判定座標の情報をY座標判定部255へ渡す。そして、Y座標判定部255は、指先31の座標がエアクリック判定座標に達したか又は超えたとき、その旨を示すY座標判定結果を制御部250へ送る。   When the process proceeds to step S33, the control unit 250 sets the air click determination coordinates separated from the Y coordinate of the fingertip 31 by a predetermined distance in the fingertip direction and the Y-axis direction as described above. Then, the control unit 250 passes the information of the set air click determination coordinates to the Y coordinate determination unit 255. Then, when the coordinates of the fingertip 31 have reached or exceeded the air click determination coordinates, the Y coordinate determination unit 255 sends a Y coordinate determination result indicating that fact to the control unit 250.

制御部250は、指先31の座標がエアクリック判定座標に達した旨のY座標判定結果を受け取ると、ステップS34の処理としてエアクリックが行われたと判断した後、ステップS25へ処理を進める。一方指先31の座標がエアクリック判定座標に達していないとき、制御部250は、ステップS22へ処理を戻す。ステップS25以降の処理は図15のフローチャートと同様であり、その説明は省略する。   Upon receiving the Y coordinate determination result indicating that the coordinates of the fingertip 31 have reached the air click determination coordinates, the control unit 250 determines that an air click has been performed as the process of step S34, and then proceeds to step S25. On the other hand, when the coordinates of the fingertip 31 have not reached the air click determination coordinates, the control unit 250 returns the process to step S22. The processing after step S25 is the same as that in the flowchart of FIG. 15, and a description thereof will be omitted.

なお、この第3の実施形態においても前述の第2の実施形態同様に、必要とされるセキュリティレベル(セキュリティの度合い)に応じて認識する手指の本数を変更してもよく、また、セキュリティレベルを登録ユーザごとに設定してもよく、入室管理等される場所に応じて設定してもよい。   In the third embodiment, as in the second embodiment, the number of fingers to be recognized may be changed according to the required security level (security level). May be set for each registered user, or may be set according to a place where entry control is performed.

第3の実施形態の認証処理装置1によれば、前述の第1,第2の実施形態で説明したのと同様の効果を得ることができる。また、第3の実施形態の認証処理装置1においては、認証対象者は既存の銀行ATM等を操作する場合と略々変わらぬ体勢でバーチャルタッチパネル40に対する操作が可能となり、さらに、エアクリック判定座標の設定によりエアクリックの誤判定を少なくすることができる。   According to the authentication processing device 1 of the third embodiment, the same effects as those described in the first and second embodiments can be obtained. Further, in the authentication processing device 1 of the third embodiment, the person to be authenticated can operate the virtual touch panel 40 in a posture almost the same as that when operating an existing bank ATM or the like. By setting, erroneous determination of air click can be reduced.

<第4の実施形態>
次に、本発明の第4の実施形態の認証処理装置1について以下に説明する。なお、第4の実施形態の認証処理装置1の概観は前述の図1と同様であり、また情報処理装置10の概略的な構成は前述の第2の実施形態の図14や第3の実施形態の図22と同様であるため、それらの図示は省略する。第4の実施形態の認証処理装置1は、認証対象者の手の5本の手指をそれぞれ個別に認識し、その中の所定の手指によりエアクリックが行われたかを認識し、所定の手指によるエアクリックが行われた際に、手の5本全ての手指にそれぞれ対応した各仮想キーV12の各数字等の情報を取得する。以下、第4の実施形態について、前述した第2,第3の実施形態とは異なる部分のみ説明する。
<Fourth embodiment>
Next, an authentication processing device 1 according to a fourth embodiment of the present invention will be described below. The overview of the authentication processing device 1 of the fourth embodiment is the same as that of FIG. 1 described above, and the schematic configuration of the information processing device 10 is the same as that of FIG. 14 or the third embodiment of the second embodiment. Since the configuration is the same as that of FIG. 22, their illustration is omitted. The authentication processing device 1 according to the fourth embodiment individually recognizes five fingers of the hand of the person to be authenticated, recognizes whether or not an air click has been performed by a predetermined finger among them, and uses the predetermined finger. When the air click is performed, information such as each numeral of each virtual key V12 respectively corresponding to all five fingers of the hand is acquired. Hereinafter, only the portions of the fourth embodiment that are different from the above-described second and third embodiments will be described.

ここで、第4の実施形態の場合、情報処理装置10は、PINコードの入力がなされる際に、認証対象者が所定の手指(本実施形態では人差し指とする。)によりエアクリックが行われた場合、5本の手指の識別情報と共に、そのエアクリック時点における5本の全ての手指の指先がそれぞれ位置している仮想キーV12の各数字の情報をも取得する。なお、エアクリックしていない残りの手指の指先がいずれの仮想キーV12内にも入っていない場合には、各仮想キーV12のいずれの数字でもないことを示す情報を取得する。本実施形態では、各仮想キーV12のいずれの数字でもないことを示す情報として記号#を用いることにする。第4の実施形態の場合、各仮想キーV12外のエリア、つまりディスプレイ11の画面に表示されている画像におけるキー画像12外の画像エリアは、各仮想キーV12のいずれの数字でもないことを示す情報(記号#)に対応した選択対象画像のエリアとなされている。   Here, in the case of the fourth embodiment, when the PIN code is input, the information processing apparatus 10 performs the air click with the predetermined finger (in this embodiment, the index finger) of the person to be authenticated. In this case, together with the identification information of the five fingers, the information of each numeral of the virtual key V12 in which the fingertips of all five fingers at the time of the air click are respectively obtained. If the fingertips of the remaining fingers that have not been air-clicked are not included in any of the virtual keys V12, information indicating that they are not any of the numbers of the virtual keys V12 is obtained. In the present embodiment, a symbol # is used as information indicating that it is not any numeral of each virtual key V12. In the case of the fourth embodiment, the area outside each virtual key V12, that is, the image area outside the key image 12 in the image displayed on the screen of the display 11, indicates that it is not any numeral of each virtual key V12. The area of the selection target image corresponding to the information (symbol #) is set.

そして、第4の実施形態の情報処理装置10は、エアクリックを行った1本の手指(人差し指)の指識別情報及びその指先に対応した仮想キーV12の数字と、エアクリックしていない残り4本の手指の各識別情報及びそれらの指先の位置に対応した四つの情報(数字や記号#等からなる四つ情報)とからなる五つの情報を、例えば4桁のPINコードのうちの一つのコードを決める際の候補コード(候補配列)として取得する。   Then, the information processing apparatus 10 of the fourth embodiment includes the finger identification information of one finger (the index finger) that has performed the air click, the number of the virtual key V12 corresponding to the fingertip, and the remaining four that have not been air clicked. The five pieces of information consisting of the identification information of the fingers of the book and four pieces of information (four pieces of information consisting of numbers, symbols #, etc.) corresponding to the positions of the fingertips are converted into, for example, one of four-digit PIN codes. It is obtained as a candidate code (candidate sequence) for determining the code.

図24(a)〜図24(d)には、第4の実施形態において、バーチャルタッチパネル40の三次元空間内に配置された各仮想キーV12と、バーチャルタッチパネル40内における認証対象者の親指〜小指の五つの各指先F0〜F4の位置の一例を示している。なお、各仮想キーV12内の各数字は、それら各仮想キーV12に各々対応付けられている数字であるとする。図の例では、説明を判り易くするために、各仮想キーV12に対応した各数字が0〜9の順に配置されているが、前述の各実施形態で説明したのと同様にそれらの数字はランダムに配置されてもよい。図24(a)〜図24(d)において、エアクリックを行うのは人差し指であり、一方、図24(a)〜図24(d)の円マークECは、順番に人差し指によるエアクリックがなされた各時点において、正しいPINコードとして登録されている各数字に対応した仮想キーV12を示している。   FIGS. 24A to 24D show, in the fourth embodiment, each virtual key V12 arranged in the three-dimensional space of the virtual touch panel 40 and the thumb of the person to be authenticated in the virtual touch panel 40. An example of the position of each of the five fingertips F0 to F4 of the little finger is shown. It is assumed that each number in each virtual key V12 is a number associated with each virtual key V12. In the example of the figure, in order to make the description easier to understand, the respective numbers corresponding to the respective virtual keys V12 are arranged in the order of 0 to 9, but these numbers are the same as described in the above-described embodiments. They may be arranged randomly. 24 (a) to 24 (d), it is the index finger that performs the air click, while the circle mark EC in FIGS. 24 (a) to 24 (d) is sequentially clicked by the index finger. At each point in time, a virtual key V12 corresponding to each number registered as a correct PIN code is shown.

図24(a)の例は、4桁のPINコードのうち、1番目のコード(PIN=1)が入力される際(1回目のエアクリックがなされた際)の、5つの指先F0〜F4の位置の例を示している。また、図24(a)の例では、人差し指(F1)による1回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(1番目のPINコード)が数字「1」で且つその数字「1」を入力するべき手指が中指(F2)として予め登録されているとする。図24(a)の例では、例えば親指の指先F0が数字「3」の仮想キーV12内に位置し、以下同様に、人差し指の指先F1が数字「0」、中指の指先F2が数字「1」、薬指の指先F3が数字「2」、小指の指先F4が数字「6」の仮想キーV12内に位置している。したがって、図25に示すように、4桁のPINコードのうち、1番目のコード(PIN=1)を決める際の候補コードは、親指〜小指の各指先F0〜F4に対応した五つのコード「3,0,1,2,6」となる。   The example of FIG. 24A shows five fingertips F0 to F4 when the first code (PIN = 1) of the four-digit PIN code is input (when the first air click is performed). The example of the position of is shown. In the example of FIG. 24A, when the first air click is performed with the index finger (F1), the correct PIN code (first PIN code) to be input is the number “1” and the number “1”. It is assumed that the finger to which "1" is to be input is registered in advance as the middle finger (F2). In the example of FIG. 24A, for example, the fingertip F0 of the thumb is located in the virtual key V12 of the number “3”, and similarly, the fingertip F1 of the index finger is the number “0”, and the fingertip F2 of the middle finger is the number “1”. , The fingertip F3 of the ring finger is located within the virtual key V12 having the number “2”, and the fingertip F4 of the little finger is located within the virtual key V12 having the number “6”. Therefore, as shown in FIG. 25, among the four-digit PIN codes, candidate codes for determining the first code (PIN = 1) are five codes “F0” to “F4” corresponding to the fingertips F0 to F4 of the thumb to the little finger. 3,0,1,2,6 ".

また、図24(b)の例は、4桁のPINコードのうち、2番目のコード(PIN=2)が入力される際(2回目のエアクリックがなされた際)の、5つの指先F0〜F4の位置の例を示している。また、図24(b)の例では、人差し指(F1)による2回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(2番目のPINコード)が数字「5」で且つその数字「5」を入力するべき手指が薬指(F3)として予め登録されているとする。図24(b)の例では、例えば親指の指先F0が仮想キーV12外となっており、人差し指の指先F1が数字「3」の仮想キーV12内に位置し、以下同様に、中指の指先F2が数字「4」、薬指の指先F3が数字「5」、小指の指先F4が数字「9」の仮想キーV12内に位置している。したがって、図25に示すように、4桁のPINコードのうち、2番目のコード(PIN=2)を決める際の候補コードは、親指〜小指の各指先F0〜F4に対応した五つのコード「#,3,4,5,9」となる。   Further, the example of FIG. 24B shows five fingertips F0 when the second code (PIN = 2) of the four-digit PIN code is input (when the second air click is performed). The example of the position of -F4 is shown. In the example of FIG. 24B, when the second air click is performed with the index finger (F1), the correct PIN code (the second PIN code) to be input is the number “5” and the number “5”. It is assumed that the finger to which "5" is to be input is registered in advance as the ring finger (F3). In the example of FIG. 24B, for example, the fingertip F0 of the thumb is outside the virtual key V12, the fingertip F1 of the index finger is located within the virtual key V12 of the number “3”, and so on. Is located within the virtual key V12 having the number “4”, the fingertip F3 of the ring finger being the number “5”, and the fingertip F4 of the little finger being the number “9”. Therefore, as shown in FIG. 25, among the four-digit PIN codes, candidate codes for determining the second code (PIN = 2) are five codes “F0” to “F4” corresponding to the fingertips F0 to F4 of the thumb to the little finger. #, 3, 4, 5, 9 ".

同様に、図24(c)の例は、4桁のPINコードのうち、3番目のコード(PIN=3)が入力される際(3回目のエアクリックがなされた際)の、5つの指先F0〜F4の位置の例を示している。また、図24(c)の例では、人差し指(F1)による3回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(3番目のPINコード)が数字「3」で且つその数字「3」を入力するべき手指が人差し指(F1)として予め登録されているとする。図24(c)の例では、例えば親指の指先F0が仮想キーV12外、人差し指の指先F1が数字「3」、中指の指先F2と薬指の指先F3が共に数字「4」、小指の指先F4が数字「8」の仮想キーV12内に位置している。したがって、図25に示すように、4桁のPINコードのうち、3番目のコード(PIN=3)を決める際の候補コードは、親指〜小指の各指先F0〜F4に対応した五つのコード「#,3,4,4,8」となる。   Similarly, the example of FIG. 24C shows five fingertips when the third code (PIN = 3) of the four-digit PIN code is input (when the third air click is performed). The example of the position of F0-F4 is shown. In the example of FIG. 24C, when the third air click is performed with the index finger (F1), the correct PIN code (third PIN code) to be input is the number “3” and the number “3”. It is assumed that the finger to which "3" is to be input is registered in advance as the index finger (F1). In the example of FIG. 24C, for example, the fingertip F0 of the thumb is outside the virtual key V12, the fingertip F1 of the index finger is the number "3", the fingertip F2 of the middle finger and the fingertip F3 of the ring finger are both the number "4", and the fingertip F4 of the little finger Are located in the virtual key V12 of the number “8”. Therefore, as shown in FIG. 25, among the four-digit PIN codes, candidate codes for determining the third code (PIN = 3) are five codes “F0 to F4 corresponding to the fingertips F0 to F4 of the thumb to the little finger. #, 3, 4, 4, 8 ".

同様に、図24(d)の例は、4桁のPINコードのうち、4番目のコード(PIN=4)が入力される際(4回目のエアクリックがなされた際)の、5つの指先F0〜F4の位置の例を示している。また、図24(c)の例では、人差し指(F1)による4回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(4番目のPINコード)が数字「8」で且つその数字「8」を入力するべき手指が小指(F4)として予め登録されているとする。図24(d)の例では、親指の指先F0が仮想キーV12外、人差し指の指先F1が数字「3」、中指の指先F2と薬指の指先F3が共に数字「4」、小指の指先F4が数字「8」の仮想キーV12内に位置している。したがって、図25に示すように、4桁のPINコードのうち、4番目のコード(PIN=4)を決める際の候補コードは、親指〜小指の各指先F0〜F4に対応した五つのコード「#,3,4,4,8」となる。   Similarly, the example of FIG. 24D shows five fingertips when the fourth code (PIN = 4) of the four-digit PIN code is input (when the fourth air click is performed). The example of the position of F0-F4 is shown. In the example of FIG. 24C, when the fourth air click is performed with the index finger (F1), the correct PIN code (fourth PIN code) to be input is the number “8” and the number “8”. It is assumed that the finger to which "8" is to be input is registered in advance as the little finger (F4). In the example of FIG. 24D, the fingertip F0 of the thumb is outside the virtual key V12, the fingertip F1 of the index finger is the number “3”, the fingertip F2 of the middle finger and the fingertip F3 of the ring finger are both the number “4”, and the fingertip F4 of the little finger is It is located within the virtual key V12 with the number “8”. Therefore, as shown in FIG. 25, the candidate codes for determining the fourth code (PIN = 4) among the four-digit PIN codes are five codes “F0” to “F4” corresponding to the fingertips F0 to F4 of the thumb to the little finger. #, 3, 4, 4, 8 ".

第4の実施形態の情報処理装置10は、前述のように、4桁のPINコードの1番目のコード(PIN=1)〜4番目のコード(PIN=4)を決めるための4回のエアクリックがなされた場合、エアクリックがなされるごとに、それぞれ各指先F0〜F4に対応した五つの候補コードを取得する。そして、これら五つの候補コードにおける各数字には、各指先F0〜F4の各手指の識別情報が対応付けられている。   As described above, the information processing apparatus 10 of the fourth embodiment performs four air operations for determining the first code (PIN = 1) to the fourth code (PIN = 4) of the four-digit PIN code. When a click is made, every time an air click is made, five candidate codes corresponding to each of the fingertips F0 to F4 are acquired. Each number in these five candidate codes is associated with identification information of each finger at each fingertip F0 to F4.

図24(a)〜図24(d)及び図25の例の場合、PINコードの1番目のコード(PIN=1)を決めるために取得された候補コード「3,0,1,2,6」の中で、PIN=1に登録された数字は「1」であり、その数字「1」に対応した手指は中指(F2)となされている。以下同様に、PINコードの2番目のコード(PIN=2)を決める際に取得された候補コード「#,3,4,5,9」の中で、PIN=2に登録された数字は「5」であり、その数字「5」に対応した手指は薬指(F3)となされており、PIN=3を決める際に取得された候補コード「#,3,4,4,8」の中で、PIN=3に登録された数字は「3」であり、その数字「3」に対応した手指は人差し指(F1)となされており、PIN=4を決める際に取得された候補コード「#,3,4,4,8」の中で、PIN=4に登録された数字は「8」であり、その数字「8」に対応した手指は小指(F4)となされている。   In the case of the examples of FIGS. 24A to 24D and FIG. 25, the candidate code “3, 0, 1, 2, 6, 6” acquired to determine the first code (PIN = 1) of the PIN code , The number registered with PIN = 1 is “1”, and the finger corresponding to the number “1” is the middle finger (F2). Similarly, among the candidate codes “#, 3, 4, 5, 9” acquired when determining the second code (PIN = 2) of the PIN code, the number registered at PIN = 2 is “ The finger corresponding to the numeral "5" is the ring finger (F3), and among the candidate codes "#, 3, 4, 4, 8" acquired when determining PIN = 3. , PIN = 3 is “3”, the finger corresponding to the number “3” is the index finger (F1), and the candidate code “#, #” acquired when PIN = 4 is determined. In “3, 4, 4, 8”, the number registered at PIN = 4 is “8”, and the finger corresponding to the number “8” is the little finger (F4).

このため、図24(a)〜図24(d)及び図25の例の場合、4回のエアクリックによる入力順の4桁のPINコードとして「1,5,3,8」が取得され、また1回目のエアクリックによるコード「1」については中指(F2)の指識別情報が得られ、2回目のエアクリックによるコード「5」については薬指(F3)、3回目のエアクリックによるコード「3」については人差し指(F1)、4回目のエアクリックによるコード「8」については小指(F4)の各指識別情報が得られる。ここで、本実施形態では、認証対象者について登録されているPINコードが例えば「1,5,3,8」の順であり、それら各コードに対応した指識別情報の順番が「中指(F2)、薬指(F3)、人差し指(F1)、小指(F4)」となされているため、その登録されたPINコード及び指識別情報と、図24(a)〜図24(d)及び図25の例で4回のエアクリックにより得られたPINコード及び指識別情報とは一致し、したがって、その認証対象者は正当な登録者であると認証されることになる。   For this reason, in the case of the examples of FIGS. 24A to 24D and FIG. 25, “1, 5, 3, 8” is acquired as a four-digit PIN code in the input order by four air clicks, For the code "1" by the first air click, the finger identification information of the middle finger (F2) is obtained. For the code "5" by the second air click, the ring finger (F3) and the code "3" by the third air click The finger identification information of the index finger (F1) is obtained for “3”, and the finger identification information of the little finger (F4) is obtained for the code “8” obtained by the fourth air click. Here, in the present embodiment, the PIN codes registered for the person to be authenticated are, for example, in the order of “1, 5, 3, 8”, and the order of the finger identification information corresponding to those codes is “Middle finger (F2 ), The ring finger (F3), the index finger (F1), and the little finger (F4) ", the registered PIN code and the finger identification information, and FIG. 24 (a) to FIG. 24 (d) and FIG. In the example, the PIN code and the finger identification information obtained by four air clicks match, and therefore, the person to be authenticated is authenticated as a valid registrant.

また前述したように、第4の実施形態の場合、4桁のPINコードの1番目のコード(PIN=1)〜4番目のコード(PIN=4)を決めるための4回のエアクリックがなされた際に、エアクリックごとに五つの候補コードが取得される。ここで、第4の実施形態の場合、エアクリックごとに取得された五つの候補コードのなかで、予め登録されている手指に対応した一つの候補コードのみが入力されたコードとして扱われ、それ以外の四つの手指による四つの各候補コードは全てフェイクコードとして扱われる。また、第4の実施形態の場合、エアクリックは所定の手指である人差し指のみで行われ、登録されたコードを入力する手指が人差し指として登録されていない場合には、そのエアクリックを行った人差し指によるエアクリック自体がフェイクとなる。図24(a)〜図24(d)及び図25の例の場合、1回目のエアクリックでは、中指(F2)に対応した数字「1」のみが入力されたコードとして扱われ、残りの親指(F0)に対応した数字「3」、エアクリックを行った人差し指(F1)に対応した数字「0」、薬指(F3)に対応した数字「2」、小指(F0)に対応した数字「6」は全てフェイクコードとして扱われる。同様に、2回目のエアクリックでは、薬指(F3)に対応した数字「5」のみが入力されたコードとなされ、残りの親指(F0)による記号「#」、エアクリックを行った人差し指(F1)による数字「3」、中指(F2)による数字「4」、小指(F0)による数字「9」は全てフェイクコードとして扱われる。3回目と4回目のエアクリックについても同様のことが行われる。   Further, as described above, in the case of the fourth embodiment, four air clicks are performed to determine the first code (PIN = 1) to the fourth code (PIN = 4) of the four-digit PIN code. Then, five candidate codes are obtained for each air click. Here, in the case of the fourth embodiment, of the five candidate codes acquired for each air click, only one candidate code corresponding to a previously registered finger is treated as an input code. All four candidate codes by four fingers other than are treated as fake codes. Further, in the case of the fourth embodiment, the air click is performed only with the index finger that is a predetermined finger, and when the finger for inputting the registered code is not registered as the index finger, the index finger that performed the air click is used. The air click itself becomes a fake. In the case of the examples of FIGS. 24A to 24D and FIG. 25, in the first air click, only the number “1” corresponding to the middle finger (F2) is treated as the input code, and the remaining thumb The number "3" corresponding to (F0), the number "0" corresponding to the index finger (F1) that performed the air click, the number "2" corresponding to the ring finger (F3), and the number "6" corresponding to the little finger (F0). Are all treated as fake codes. Similarly, in the second air click, a code in which only the number “5” corresponding to the ring finger (F3) is entered, the symbol “#” by the remaining thumb (F0), and the index finger (F1) performing the air click ), The number “4” by the middle finger (F2), and the number “9” by the little finger (F0) are all treated as fake codes. The same is performed for the third and fourth air clicks.

このように、第4の実施形態によれば、エアクリック自体がフェイクとして扱われ、五つの候補コードのなかで入力コードとして扱われるのは、予め登録された手指により選ばれた一つの候補コードのみであり、残りの四つの各候補コードは全てフェイクコードとなされる。第4の実施形態によれば、4桁のPINコードの1番目のコード(PIN=1)〜4番目のコード(PIN=4)を決めるための4回のエアクリックごとに五つの候補コードが取得されるため、PINコードの候補は、5×4×4×4=320通りとなる。このため、例えば悪意を持った者によりハッキング等が行われたとしても、登録されたPINコードがどのようなコードであるかを知られてしまう虞は非常に少ない。   As described above, according to the fourth embodiment, the air click itself is treated as a fake, and among the five candidate codes, the input code is treated as one candidate code selected by a pre-registered finger. And the remaining four candidate codes are all fake codes. According to the fourth embodiment, five candidate codes are generated every four air clicks for determining the first code (PIN = 1) to the fourth code (PIN = 4) of the four-digit PIN code. Therefore, the number of PIN code candidates is 5 × 4 × 4 × 4 = 320. For this reason, even if hacking or the like is performed by a malicious person, there is very little possibility that the registered PIN code will be known.

第4の実施形態の情報処理装置10では、概ね前述した図15や図23のフローチャートで説明したのと同様の流れで認証処理が行われるが、第4の実施形態の場合には、図15や図23のステップS25の処理が異なる。以下、以下、第4の実施形態における認証処理について、図15や図23のフローチャートとは異なる処理について説明する。   In the information processing apparatus 10 according to the fourth embodiment, the authentication process is performed in a flow substantially similar to that described in the flowcharts of FIGS. 15 and 23 described above. And the processing of step S25 in FIG. Hereinafter, regarding the authentication processing in the fourth embodiment, processing different from the flowcharts of FIGS. 15 and 23 will be described.

第4の実施形態の場合、図15や図23のステップS25で説明した処理に代えて、制御部205は、入力情報判定部203に対し、前述したような人差し指による1回目〜4回目のエアクリックがなされた際の5本の手指により取得された候補コードを、配列PIN(M,N)として保管させる。「M」は1回目〜4回目のエアクリックの回数(PIN=1〜PIN=4における「1〜4」)の値となる。そして、制御部205は、入力情報判定部203に対し、配列PIN(M,N)の「M」に「1」を加えて、ステップS26へ処理を進める。第4の実施形態の場合、ステップS26に処理が進むと、制御部205は、入力情報判定部203が保管している配列PIN(M,N)の「M」が「4」となったか否か判定する。   In the case of the fourth embodiment, instead of the processing described in step S25 of FIG. 15 or FIG. 23, the control unit 205 controls the input information determination unit 203 to perform the first to fourth airflows using the index finger as described above. The candidate codes obtained by the five fingers when the click is made are stored as an array PIN (M, N). “M” is a value of the number of first to fourth air clicks (“1 to 4” at PIN = 1 to PIN = 4). Then, control unit 205 adds “1” to “M” in array PIN (M, N) for input information determination unit 203, and proceeds to step S26. In the case of the fourth embodiment, when the process proceeds to step S26, the control unit 205 determines whether “M” of the array PIN (M, N) stored in the input information determination unit 203 has become “4”. Is determined.

ここで、配列PIN(M,N)の「N」は、各手指に対応した値として親指の場合は「1」、人差し指の場合は「2」、中指の場合は「3」、薬指の場合は「4」、小指の場合は「5」の値となり、また「N」が「1:5」と表現される場合には5本の手指による個々の数字や記号が入ることを表す。   Here, “N” in the array PIN (M, N) is “1” for the thumb, “2” for the index finger, “3” for the middle finger, and “3” for the ring finger as values corresponding to each finger. Represents a value of “4”, the little finger has a value of “5”, and if “N” is represented as “1: 5”, it indicates that individual numbers and symbols by five fingers are included.

一例として、前述の図24(a)〜図24(d)及び図25を用いて説明する。
1回目の人差し指によるエアクリックがなされた際、配列PIN(1,1)が「3」、配列PIN(1,2)が「0」、配列PIN(1,3)が「1」、配列PIN(1,4)が「2」、配列PIN(1,5)が「6」となり、この場合、PIN(1,1:5)は(3,0,1,2,6)となる。
2回目の人差し指によるエアクリックがなされた際、配列PIN(2,1)が「#」、配列PIN(2,2)が「3」、配列PIN(2,3)が「4」、配列PIN(2,4)が「5」、配列PIN(2,5)が「9」となり、この場合、PIN(2,1:5)は(#,3,4,5,9)となる。
3回目の人差し指によるエアクリックがなされた際、配列PIN(3,1)が「#」、配列PIN(3,2)が「3」、配列PIN(3,3)が「4」、配列PIN(3,4)が「4」、配列PIN(3,5)が「8」となり、この場合、PIN(3,1:5)は(#,3,4,4,8)となる。
4回目の人差し指によるエアクリックがなされた際、配列PIN(4,1)が「#」、配列PIN(4,2)が「3」、配列PIN(4,3)が「4」、配列PIN(4,4)が「4」、配列PIN(4,5)が「8」となり、この場合、PIN(4,1:5)は(#,3,4,4,8)となる。
An example will be described with reference to FIGS. 24A to 24D and FIG. 25 described above.
When the first air click is performed with the index finger, the array PIN (1, 1) is “3”, the array PIN (1, 2) is “0”, the array PIN (1, 3) is “1”, and the array PIN is (1, 4) is "2", and the array PIN (1, 5) is "6". In this case, PIN (1, 1: 5) is (3, 0, 1, 2, 6).
When an air click is performed with the second index finger, the array PIN (2, 1) is “#”, the array PIN (2, 2) is “3”, the array PIN (2, 3) is “4”, and the array PIN is (2, 4) is “5”, and the array PIN (2, 5) is “9”. In this case, PIN (2, 1: 5) is (#, 3, 4, 5, 9).
When the third air click is performed with the index finger, the array PIN (3, 1) is “#”, the array PIN (3, 2) is “3”, the array PIN (3, 3) is “4”, and the array PIN is (3, 4) is "4" and the array PIN (3, 5) is "8". In this case, PIN (3, 1: 5) is (#, 3, 4, 4, 8).
When the air click is performed by the index finger for the fourth time, the array PIN (4, 1) is “#”, the array PIN (4, 2) is “3”, the array PIN (4, 3) is “4”, and the array PIN is (4, 4) is “4” and the array PIN (4, 5) is “8”. In this case, PIN (4, 1: 5) is (#, 3, 4, 4, 8).

これら1回目〜4回目のエアクリックがなされた際の4回の候補コード入力の結果は、
PIN(1,1:5)=(3,0,1,2,6)、
PIN(2,1:5)=(#,3,4,5,9)、
PIN(3,1:5)=(#,3,4,4,8)、
PIN(4,1:5)=(#,3,4,4,8)となる。
このような組み合わせは前述したように320通りになり、そのうち正しいPINコードは一つのみ、すなわち、一回目のエアクリックの際にはPIN(1,3)=「1」、2回目のエアクリックではPIN(2,4)=「5」、3回目のエアクリックではPIN(3,2)=「3」、4回目のエアクリックではPIN(4,5)=8であり、したがって、この例の場合の入力されたPINコードは「1,5,3,8」となる。
The results of four candidate code inputs when these first to fourth air clicks are made are:
PIN (1,1: 5) = (3,0,1,2,6),
PIN (2,1: 5) = (#, 3,4,5,9),
PIN (3,1: 5) = (#, 3,4,4,8),
PIN (4,1: 5) = (#, 3,4,4,8).
There are 320 such combinations as described above, of which only one is the correct PIN code, that is, PIN (1,3) = "1" at the time of the first air click, and the second air click Then, PIN (2,4) = “5”, PIN (3,2) = “3” in the third air click, and PIN (4,5) = 8 in the fourth air click. In this case, the input PIN code is "1, 5, 3, 8".

そして、第4の実施形態において、制御部205は、図15や図23のステップS27において、エアクリックが行われた順番のPIN(M,N)で得られた各候補コード及び指識別情報と、予め登録されているPINコード及び指識別情報との一致判定を行う。第4の実施形態の場合、1番目のPINコード「1」に対しては中指、2番目のPINコード「5」に対しては薬指、3番目のPINコード「3」に対しては人差し指、4番目のPINコード「8」に対しては小指が登録されており、ステップS27では、それらPINコード「1,5,3,8」と各登録された手指とが一致するか否かの判断が行われる。   In the fourth embodiment, the control unit 205 determines in step S27 of FIG. 15 or FIG. 23 that each of the candidate codes and the finger identification information obtained by the PINs (M, N) in the order in which the air clicks were performed. Then, a match is determined between the previously registered PIN code and finger identification information. In the case of the fourth embodiment, the middle finger is for the first PIN code “1”, the ring finger is for the second PIN code “5”, the index finger is for the third PIN code “3”, The little finger is registered for the fourth PIN code "8", and in step S27, it is determined whether or not the PIN code "1, 5, 3, 8" matches each registered finger. Is performed.

<第5の実施形態>
前述した第4の実施形態では、PINコードとして仮想キーV12に対応した数字のみが用いられる例を挙げたが、第5の実施形態では、仮想キーV12外のエリアに対応した前述の記号「#」をもPINコードとして扱う。第5の実施形態の場合、各仮想キーV12外のエリア、つまりディスプレイ11の画面に表示されている画像におけるキー画像12外の画像エリアが、各仮想キーV12の各数字以外のコード(記号#)が設定された選択対象画像となされている。したがって、第5の実施形態の情報処理装置10は、各仮想キーV12外のエリアに対応した記号#のコードをもユーザによる選択(入力)が可能となされている。
<Fifth embodiment>
In the above-described fourth embodiment, an example is described in which only the number corresponding to the virtual key V12 is used as the PIN code. However, in the fifth embodiment, the above-described symbol “#” corresponding to the area outside the virtual key V12 is used. Is also treated as a PIN code. In the case of the fifth embodiment, the area outside each virtual key V12, that is, the image area outside the key image 12 in the image displayed on the screen of the display 11, is a code (symbol #) other than each numeral of each virtual key V12. ) Is set as the selection target image. Therefore, the information processing apparatus 10 of the fifth embodiment allows the user to select (input) the code of the symbol # corresponding to the area outside each virtual key V12.

図26(a)〜図26(d)及び図27には、第5の実施形態のように仮想キーV12外のエリアに対応した記号「#」が、PINコードの中の一つのコードとして登録された場合の認証例を示している。なお、第5の実施形態は、前述した第4の実施形態に対して、仮想キーV12外の記号「#」をPINコードの中の一つのコードとして扱うようにした場合の例である。   In FIGS. 26A to 26D and FIG. 27, the symbol “#” corresponding to the area outside the virtual key V12 as in the fifth embodiment is registered as one of the PIN codes. 9 shows an example of authentication when the authentication is performed. Note that the fifth embodiment is an example in which the symbol “#” outside the virtual key V12 is treated as one of the PIN codes in the fourth embodiment.

図26(a)〜図26(d)は、第5の実施形態において、前述の図24(a)〜図24(d)の例と同様に、各仮想キーV12と、認証対象者の各指先F0〜F4の位置の一例を示している。図26(a)〜図26(d)の円マークECは、それぞれPINコードとして登録されている数字に対応した仮想キーV12を示すために描かれている。   FIGS. 26A to 26D show the virtual key V12 and the authentication target person in the fifth embodiment, similarly to the example of FIGS. 24A to 24D described above. An example of the positions of the fingertips F0 to F4 is shown. The circle marks EC in FIGS. 26A to 26D are drawn to indicate the virtual keys V12 corresponding to the numbers registered as the PIN codes, respectively.

図26(a)の例は、4桁のPINコードのうち、人差し指による1回目のエアクリックがなされた際、つまり1番目のコード(PIN=1)の入力がなされる際の各指先F0〜F4の位置の例を示している。図26(a)の例では、人差し指(F1)による1回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(1番目のPINコード)が数字「1」で且つその数字「1」を入力するべき手指が中指(F2)として予め登録されているとする。図26(a)の例では、親指(F0)が数字「3」、人差し指(F1)が数字「0」、中指(F2)が数字「1」、薬指(F3)が数字「2」、小指(F4)が数字「6」を指している。このため、図27に示すように、1番目のコード(PIN=1)を決める際の候補コードは「3,0,1,2,6」となる。   In the example of FIG. 26A, the fingertips F0 to F0 when the first air click is performed with the index finger of the four-digit PIN code, that is, when the first code (PIN = 1) is input. The example of the position of F4 is shown. In the example of FIG. 26A, when the first air click is performed with the index finger (F1), the correct PIN code (first PIN code) to be input is the number “1” and the number “1”. Is input in advance as the middle finger (F2). In the example of FIG. 26A, the thumb (F0) has the number “3”, the index finger (F1) has the number “0”, the middle finger (F2) has the number “1”, the ring finger (F3) has the number “2”, and the little finger. (F4) points to the number “6”. Therefore, as shown in FIG. 27, the candidate codes for determining the first code (PIN = 1) are “3, 0, 1, 2, 6”.

図26(b)の例は、2回目のエアクリックがなされた際、つまり2番目のコード(PIN=2)の入力がなされる際の各指先F0〜F4の位置の例を示している。図26(b)の例では、人差し指(F1)による2回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(2番目のPINコード)が記号「#」で且つその記号「#」を入力するべき手指が親指(F0)として予め登録されているとする。図26(b)の例では、親指(F0)が仮想キーV12外、人差し指(F1)が数字「7」、中指(F2)が数字「8」、薬指(F3)が数字「9」、小指(F4)が仮想キーV12外を指している。このため、図27に示すように、2番目のコード(PIN=2)を決める際の候補コードは「#,7,8,9,#」となる。   FIG. 26B illustrates an example of the positions of the fingertips F0 to F4 when the second air click is performed, that is, when the second code (PIN = 2) is input. In the example of FIG. 26B, when the second air click is performed with the index finger (F1), the correct PIN code (the second PIN code) to be input is the symbol “#” and the symbol “#”. Is input in advance as a thumb (F0). In the example of FIG. 26B, the thumb (F0) is outside the virtual key V12, the index finger (F1) is the number "7", the middle finger (F2) is the number "8", the ring finger (F3) is the number "9", and the little finger. (F4) points outside the virtual key V12. Therefore, as shown in FIG. 27, candidate codes for determining the second code (PIN = 2) are “#, 7, 8, 9, #”.

図26(c)の例は、3回目のエアクリックがなされた際、つまり3番目のコード(PIN=3)が入力された際の各指先F0〜F4の位置の例を示している。図26(c)の例では、人差し指(F1)による3回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(3番目のPINコード)が数字「3」で且つその数字「3」を入力するべき手指が人差し指(F1)として予め登録されているとする。図26(c)の例では、親指(F0)が仮想キーV12外、人差し指(F1)が数字「3」、中指(F2)が数字「4」、薬指(F3)が数字「5」、小指(F4)が数字「9」を指している。このため、図27に示すように、3番目のコード(PIN=3)を決める際の候補コードは「#,3,4,5,9」となる。   FIG. 26C shows an example of the positions of the fingertips F0 to F4 when the third air click is performed, that is, when the third code (PIN = 3) is input. In the example of FIG. 26C, when the third air click is performed with the index finger (F1), the correct PIN code (third PIN code) to be input is the number “3” and the number “3”. Is assumed to be registered in advance as the index finger (F1). In the example of FIG. 26C, the thumb (F0) is outside the virtual key V12, the index finger (F1) is the number "3", the middle finger (F2) is the number "4", the ring finger (F3) is the number "5", and the little finger. (F4) points to the number “9”. Therefore, as shown in FIG. 27, candidate codes for determining the third code (PIN = 3) are “#, 3, 4, 5, 9”.

図26(d)の例は、4回目のエアクリックがなされた際、つまり4番目のコード(PIN=4)が入力された際の各指先F0〜F4の位置の例を示している。図26(d)の例では、人差し指(F1)による4回目のエアクリックがなされた時点で、入力されるべき正しいPINコード(4番目のPINコード)が数字「8」で且つその数字「8」を入力するべき手指が小指(F4)として予め登録されているとする。図26(d)の例では、親指(F0)と人差し指(F1)が共に仮想キーV12外、中指(F2)が数字「3」、薬指(F3)が数字「4」、小指(F4)が数字「8」を指している。このため、図27に示すように、4番目のコード(PIN=4)を決める際の候補コードは「#,#,3,4,8」となる。   FIG. 26D shows an example of the positions of the fingertips F0 to F4 when the fourth air click is performed, that is, when the fourth code (PIN = 4) is input. In the example of FIG. 26D, when the fourth air click is performed with the index finger (F1), the correct PIN code (fourth PIN code) to be input is the number “8” and the number “8”. Is input in advance as the little finger (F4). In the example of FIG. 26D, the thumb (F0) and the index finger (F1) are both outside the virtual key V12, the middle finger (F2) is the number “3”, the ring finger (F3) is the number “4”, and the little finger (F4) is It points to the number "8". Therefore, as shown in FIG. 27, candidate codes for determining the fourth code (PIN = 4) are “#, #, 3, 4, 8”.

図26(a)〜図25(d)及び図27の例の場合、1回目のエアクリックの際に取得されたPIN=1の各候補コード「3,0,1,2,6」の中で、PIN=1に登録された数字は「1」であり、その数字「1」に対応した手指は中指(F2)となされている。以下同様に、2回目のエアクリックの際に取得されたPIN=2の各候補コード「#,7,8,9,#」の中で、PIN=2に登録されているのは記号「#」であり、その記号「#」に対応した手指は親指(F0)となされており、3回目のエアクリック(PIN=3)の際に取得された候補コード「#,3,4,5,9」の中で、PIN=3に登録されているのは数字「3」であり、その数字「3」に対応した手指は人差し指(F1)となされており、4回目のエアクリック(PIN=4)の際に取得された各候補コード「#,#,3,4,8」の中で、PIN=4に登録されているのは数字「8」であり、その数字「8」に対応した手指は小指(F4)となされている。   In the case of the examples of FIGS. 26 (a) to 25 (d) and FIG. 27, among the candidate codes “3, 0, 1, 2, 6” of PIN = 1 acquired at the time of the first air click. The number registered at PIN = 1 is “1”, and the finger corresponding to the number “1” is the middle finger (F2). Similarly, among the candidate codes “#, 7, 8, 9, #” of PIN = 2 acquired at the time of the second air click, the symbol “#,” registered at PIN = 2, And the finger corresponding to the symbol “#” is the thumb (F0), and the candidate code “#, 3, 4, 5, 5” acquired at the time of the third air click (PIN = 3) 9 ”, the number registered at PIN = 3 is the number“ 3 ”, the finger corresponding to the number“ 3 ”is the index finger (F1), and the fourth air click (PIN = 3) Of the candidate codes “#, #, 3, 4, 8” obtained in 4), the number registered at PIN = 4 is the number “8”, which corresponds to the number “8”. The finger that has been made is the little finger (F4).

このため、図26(a)〜図26(d)及び図27の例の場合、4回のエアクリックによる入力順の4桁のPINコードとして「1,#,3,8」が取得され、また1番目のPINコード「1」については中指(F2)、2番目のPINコード「5」については親指(F0)、3番目のPINコード「3」については人差し指(F1)、4番目のPINコード「8」については小指(F4)の各指識別情報が得られる。そして、認証対象者について登録されているPINコードが例えば「1,#,3,8」の順であり、それら各コードに対応した指識別情報の順番は「中指(F2)、親指(F0)、人差し指(F1)、小指(F4)」として登録されていた場合、その登録されたPINコード及び指識別情報と、図26(a)〜図26(d)及び図27の例で得られたPINコード及び指識別情報とは一致するため、その認証対象者は正当な登録者であると認証されることになる。   For this reason, in the case of the examples of FIGS. 26A to 26D and FIG. 27, “1, #, 3, 8” is acquired as a 4-digit PIN code in the input order by four air clicks, Also, the middle finger (F2) for the first PIN code "1", the thumb (F0) for the second PIN code "5", the index finger (F1) for the third PIN code "3", the fourth PIN For the code "8", finger identification information of the little finger (F4) is obtained. The PIN codes registered for the person to be authenticated are, for example, in the order of “1, #, 3, 8”, and the order of the finger identification information corresponding to each code is “the middle finger (F2), the thumb (F0)” , Index finger (F1), little finger (F4) ", the registered PIN code and finger identification information are obtained in the examples of FIGS. 26 (a) to 26 (d) and FIG. 27. Since the PIN code and the finger identification information match, the person to be authenticated is authenticated as a valid registrant.

第5の実施形態の場合、前述の第4の実施形態と同様の効果が得られるだけでなく、仮想キーV12外のエリアについても、PINコードの中の一つのコードとして扱っているため、4桁のPINコードに対し、5の4乗=625通りの候補コードが取得され、第4の実施形態の場合の320通りより更に、ハッキング等に対する耐性が高くなる。なお、第5の実施形態の場合のフローチャートは、前述の第4の実施形態の場合と略々同様であるため、その説明は省略する。   In the case of the fifth embodiment, not only the same effects as in the above-described fourth embodiment are obtained, but also the area outside the virtual key V12 is treated as one of the PIN codes, so With respect to the PIN code of the digit, 5 ^ 4 = 625 kinds of candidate codes are obtained, and the resistance to hacking and the like is higher than 320 kinds in the case of the fourth embodiment. Note that the flowchart in the case of the fifth embodiment is substantially the same as that in the case of the above-described fourth embodiment, and a description thereof will be omitted.

<その他の実施形態>
前述した各実施形態では、認証対象者の手30若しくは指先31が三次元空間内で所定の時間だけ静止したときに、指先方向に所定距離だけ離れた座標をエアクリック判定のための座標として設定可能となされているが、他の例として、前記静止したと判定された後に、例えば幾つかの指先31が移動した場合、それら移動した指先31の中で移動量が最も大きい指によりエアクリックがなされたと判定してもよい。すなわち、前述の図22の構成を例に挙げて説明すると、前記認証対象者により所望の仮想キーV12に所定の指先31が合わされた状態で、前述のように手30等が所定の時間だけ静止された後に、親指から小指までの手指の指先31が三次元空間内で動いた場合、制御部250は、それらの移動量(座標の変化量)をそれぞれ比較して、変化量が最も大きい指先31によりエアクリックが行われたと判定する。すなわち、この場合における前記変化量が最も大きい指先31は、前記所望の仮想キーV12に合わせられていた所定の指先31であり、認証対象者は、その指先31を大きく動かすことなく、少ない動きでエアクリックを行えることになる。またこの例の場合、例えば認証対象者の肩越しに第三者が覗き見ていたとしても、認証対象者の指先の動きは少なく、また複数の指先が同時に動いているため、どの指でエアクリックが行われたのかを第三者は知ることができない。この例は、前述の各実施形態に適用可能である。
<Other embodiments>
In each of the above-described embodiments, when the hand 30 or the fingertip 31 of the person to be authenticated stops in the three-dimensional space for a predetermined time, the coordinates separated by a predetermined distance in the fingertip direction are set as the coordinates for the air click determination. Although it is possible, as another example, if, for example, some fingertips 31 move after it is determined to be stationary, air click is performed by the finger having the largest movement amount among the moved fingertips 31. It may be determined that this has been done. That is to say, taking the configuration of FIG. 22 as an example, the hand 30 and the like stand still for a predetermined time as described above in a state where a predetermined fingertip 31 is set to a desired virtual key V12 by the person to be authenticated. When the fingertips 31 of the fingers from the thumb to the little finger move in the three-dimensional space after the movement, the control unit 250 compares the movement amounts (coordinate change amounts), and determines the fingertip having the largest change amount. 31 determines that an air click has been performed. That is, the fingertip 31 with the largest change amount in this case is the predetermined fingertip 31 that has been set to the desired virtual key V12, and the person to be authenticated can move the fingertip 31 with a small amount of movement without moving the fingertip 31 greatly. You will be able to air click. Also, in this example, even if a third party is looking over the shoulder of the person to be authenticated, the fingertip of the person to be authenticated has little movement, and multiple fingers are moving at the same time. A third party cannot know if the process has been performed. This example is applicable to each of the above-described embodiments.

前述した各実施形態の認証処理装置1は、例えば銀行ATMや研究所等のような高度なセキュリティ管理が必要とされるシステムに適用可能である。図28には、各実施形態の個人認証が適用され、サーバによりセキュリティ管理がなされるシステムの概略的な構成例を示している。   The authentication processing device 1 of each of the above-described embodiments is applicable to a system that requires advanced security management, such as a bank ATM or a research laboratory. FIG. 28 illustrates a schematic configuration example of a system to which the personal authentication of each embodiment is applied and security management is performed by a server.

図28のセキュリティシステムにおいて、サーバ300は、大別してシステム情報蓄積部301、システム制御部302、ネットワークI/F部303を有して構成されている。ネットワークI/F部303は、ネットワーク304を介して、サーバ300によりセキュリティ管理がなされる端末310との間で通信可能となされている。各端末310には前述した距離センサ20が併設されている。システム制御部302は、このセキュリティシステム全体を制御し、また、ネットワーク304を通じて接続されている端末310との間で送受信される情報の管理等も行う。   In the security system of FIG. 28, the server 300 is roughly configured to include a system information storage unit 301, a system control unit 302, and a network I / F unit 303. The network I / F unit 303 is capable of communicating with a terminal 310 whose security is controlled by the server 300 via a network 304. Each terminal 310 is provided with the distance sensor 20 described above. The system control unit 302 controls the entire security system, and also manages information transmitted / received to / from the terminal 310 connected through the network 304.

サーバ300内のシステム情報蓄積部301は、システム全体を管理するための様々な情報とともに、このセキュリティシステムに登録されている全てのユーザの前記ユーザ情報と、全ユーザのPINコードの情報と、前述した指識別情報とからなる前述のテーブル情報を蓄積している。このセキュリティシステムの場合、各端末310は、全ユーザのテーブル情報を内部に保持しておらず、認証対象者の個人認証が行われる際に当該認証に必要となる情報のみを、ネットワーク304を介してサーバ300から取得する。そして端末310は、距離センサ20の出力信号に対して前述の距離センサ出力解析部と同様の解析のみ行い、サーバ300は、その解析情報を用いて前述した各実施形態同様にして認証対象者の個人認証を行う。そして、認証対象者が正規のユーザであると判定したとき、サーバ300は、その認証対象者に対して、例えば銀行ATMを使用した入出金等の操作を許可したり、室内への出入りを許可(解錠等)したりする。   The system information storage unit 301 in the server 300 stores various information for managing the entire system, the user information of all users registered in this security system, the information of PIN codes of all users, The above-described table information including the finger identification information is stored. In the case of this security system, each terminal 310 does not internally hold the table information of all the users, and transmits only the information necessary for the personal authentication of the person to be authenticated via the network 304 when the individual is authenticated. From the server 300. Then, the terminal 310 performs only the same analysis on the output signal of the distance sensor 20 as in the above-described distance sensor output analysis unit, and the server 300 uses the analysis information in the same manner as in the above-described embodiments to determine the authentication target. Perform personal authentication. When the server 300 determines that the person to be authenticated is a legitimate user, the server 300 allows the person to be authenticated to perform operations such as depositing and withdrawing using a bank ATM, and to enter and exit the room. (Such as unlocking).

なお、前述した情報処理装置10のように端末310が個人認証まで行う場合、前述のステップS1にて認証対象者が登録ユーザであると確認できたとき、当該端末310は、サーバ300に蓄積されている全ての登録ユーザのテーブル情報の中で、ステップS1で確認したユーザ用に登録されているPINコードと指識別情報のみをサーバ300から受け取る。そして、認証対象者が正規のユーザであると端末310で判定されたとき、サーバ300は、その認証対象者に対して、例えば銀行ATMを使用した入出金等の操作や室内への出入りを許可(解錠等)する。   In the case where the terminal 310 performs personal authentication as in the information processing apparatus 10 described above, the terminal 310 is stored in the server 300 when it is confirmed that the person to be authenticated is a registered user in step S1 described above. Of the table information of all registered users, only the PIN code and finger identification information registered for the user confirmed in step S1 are received from server 300. When the terminal 310 determines that the person to be authenticated is a legitimate user, the server 300 permits the person to be authenticated to perform operations such as depositing and withdrawing using a bank ATM, and to enter and exit the room. (Such as unlocking).

また、第2〜第5の実施形態では、手の5本の手指を認識する例を挙げたが、例えば左右の手をそれぞれ識別し、さらにそれら左右の手の各5本の手指を個別に識別することも可能である。左右の手の識別は、例えば前述の図16に示したモデルを例に挙げた場合、親指に相当する指オブジェクトF0が左側になっており、小指に相当する指オブジェクトF4が右側になっているような場合、右手であると認識することができる。同様に、親指の指オブジェクトF0が左側で、小指の指オブジェクトF4が右側の場合、左手であると認識することができる。このように、左右の手と合計10本の手指の全てを識別可能とした場合は、片手の5本の手指を用いる場合よりも更に高いセキュリティレベルを設定することが可能となる。   Further, in the second to fifth embodiments, the example in which the five fingers of the hand are recognized has been described. However, for example, the left and right hands are identified, and further, each of the five fingers is individually identified. It is also possible to identify. For example, when the model shown in FIG. 16 described above is taken as an example, the finger object F0 corresponding to the thumb is on the left and the finger object F4 corresponding to the little finger is on the right. In such a case, it can be recognized as the right hand. Similarly, when the finger object F0 of the thumb is on the left side and the finger object F4 of the little finger is on the right side, it can be recognized as the left hand. As described above, when all of the left and right hands and the total of ten fingers can be identified, it is possible to set a higher security level than when using five fingers of one hand.

また、前述した各実施形態では、PINコードの数字をバーチャルタッチパネル40により入力する例を挙げているが、本発明は数字の入力に限定されず他の文字やアイコンなどをバーチャルタッチパネル40により入力することで個人認証を行う場合にも適用可能である。   In each of the above-described embodiments, an example is described in which the PIN code number is input through the virtual touch panel 40. However, the present invention is not limited to inputting numbers, and other characters and icons are input through the virtual touch panel 40. Therefore, the present invention can be applied to the case of performing personal authentication.

また、前述の実施形態ではバーチャルタッチパネル40は仮想二次元パネルとなされているが、三次元的な奥行きを有した仮想三次元パネルであってもよく、この場合、一例として各仮想キーV12を当該仮想三次元パネル内のZ軸方向の異なる場所に配置してもよい。さらにこの場合、前記基準座標やエアクリック判定座標は、仮想キーV12ごとに設定されていてもよく、それら仮想キーV12ごとに設定されている基準座標やエアクリック判定座標に対してエアクリックが行われたときに、当該仮想キーV12の入力がなされたと判断してもよい。またこの例の場合、ディスプレイ11に表示されるキー画像12は、前記仮想三次元パネル内に配された仮想キーV12の奥行きに合わせて、その表示の大きさを変更して、仮想キーV12の奥行きを認証対象者に推測できるようにしてもよい。すなわち、例えば仮想キーV12が奥行き方向の近い場所に配置されるときには、ディスプレイ11上の該当するキー画像12を大きく表示し、逆に仮想キーV12が遠い場所に配置されるときには、該当するキー画像12を小さく表示すれば、認証対象者は、ディスプレイ11のキー画像12の大きさにより、仮想キーV12の奥行き方向の配置場所を推測しやすくなると考えられる。   In the above-described embodiment, the virtual touch panel 40 is a virtual two-dimensional panel. However, the virtual touch panel 40 may be a virtual three-dimensional panel having a three-dimensional depth. In this case, for example, each virtual key V12 is The virtual three-dimensional panel may be arranged at different locations in the Z-axis direction. Further, in this case, the reference coordinates and air click determination coordinates may be set for each virtual key V12, and an air click is performed on the reference coordinates and air click determination coordinates set for each virtual key V12. Then, it may be determined that the input of the virtual key V12 has been performed. In the case of this example, the size of the key image 12 displayed on the display 11 is changed according to the depth of the virtual key V12 arranged in the virtual three-dimensional panel, and the size of the virtual key V12 is changed. The depth may be guessed by the person to be authenticated. That is, for example, when the virtual key V12 is arranged at a location close to the depth direction, the corresponding key image 12 on the display 11 is displayed in a large size. Conversely, when the virtual key V12 is arranged at a location far away, the corresponding key image is displayed. It is considered that, if 12 is displayed small, the person to be authenticated can easily estimate the location of the virtual key V12 in the depth direction based on the size of the key image 12 on the display 11.

なお、本実施形態では、バーチャルタッチパネル40上の所望の位置を指示する所定動作として、当該所望の位置を指先31等の先端部で押す(或いは、押し込む、突く)動作を例に挙げたが、例えば指先31で弾く動作(フリック動作)や触れる動作(タッチ動作)などであってもよい。   In the present embodiment, as an example of the predetermined operation for instructing a desired position on the virtual touch panel 40, an operation of pushing (or pushing or pushing) the desired position with the tip of the fingertip 31 or the like is described as an example. For example, an operation of flicking (flick operation) or an operation of touching (touch operation) with the fingertip 31 may be used.

その他、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。   In addition, the present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or an apparatus via a network or various recording media, and a computer (or CPU, MPU, or the like) of the system or the apparatus reads out the program and This is the process to be performed. The program and a computer-readable recording medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   It should be noted that the above-described embodiments of the present invention are merely examples of specific embodiments for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. It is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features.

1:認証処理装置、10:情報処理装置、11:ディスプレイ、12:キー画像、13:指示マーク、20:距離センサ、20F:センサ面、30:手、31:指先、40:バーチャルタッチパネル、50:光学結像プレート、51:反射板、V12:仮想キー、101:距離センサ出力受信部、102,202:距離センサ出力解析部、103,203:入力情報判定部、104:解錠制御部、105,205,250:制御部、106:ユーザ確認部、107,207:メモリ部、111,211:座標算出部、112,212:対象認識部、113:先端座標情報取得部、114,215:Z座標判定部、131:ユーザ情報、132:PINコード、133:指識別情報、121:表示制御部、122:キー配置制御部、131:ユーザ情報、213:指識別情報取得部、214:指先座標情報取得部、255:Y座標判定部   1: Authentication processing device, 10: Information processing device, 11: Display, 12: Key image, 13: Instruction mark, 20: Distance sensor, 20F: Sensor surface, 30: Hand, 31: Fingertip, 40: Virtual touch panel, 50 : Optical imaging plate, 51: reflector, V12: virtual key, 101: distance sensor output receiving unit, 102, 202: distance sensor output analyzing unit, 103, 203: input information determining unit, 104: unlock control unit, 105, 205, 250: control unit, 106: user confirmation unit, 107, 207: memory unit, 111, 211: coordinate calculation unit, 112, 212: object recognition unit, 113: tip coordinate information acquisition unit, 114, 215: Z coordinate determination unit, 131: user information, 132: PIN code, 133: finger identification information, 121: display control unit, 122: key arrangement control unit, 131: user The information 213: finger identification information acquisition unit, 214: finger coordinate information obtaining unit, 255: Y-coordinate determining section

Claims (15)

三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、
前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段と
を有し、
前記認証コードに用いられる複数のコード情報は0から9の数字であり、
前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置して表示し、
前記解析手段は、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字と前記各数字にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、
前記認証判定手段は、順に配列された各数字と前記各数字に対応した手指部位の各識別情報とが予め登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする認証処理装置。
Coordinate detection means for detecting the three-dimensional coordinates of the detection target in the three-dimensional space at predetermined time periods,
Image display means for displaying a plurality of selection target images corresponding to a plurality of code information used for the authentication code on a screen,
A virtual plane setting unit that sets a virtual two-dimensional plane in the three-dimensional space, and associates display coordinates of the plurality of selection target images in the screen with virtual coordinates in the virtual two-dimensional plane.
By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for determining that the selection target image is selected by the identified part when detecting a predetermined movement by the identified part in the three-dimensional space in a state where
And code information corresponding to the selection target image determined to have been selected by the analyzing means, based on the code information of the authentication code has been registered in advance, have a authentication decision means for performing authentication determination,
The plurality of code information used for the authentication code are numbers from 0 to 9,
The image display means arranges and displays images of numbers from 0 to 9 as the plurality of selection target images in the screen,
The analysis means, when the detection target is the hand of the person to be authenticated, individually identifies each finger part, each time a predetermined movement by one finger part of the finger parts is detected, Obtain a candidate array consisting of each number of the selection target image corresponding to each finger part of all the hands and each identification information of each finger part respectively corresponding to each number,
The authentication determination means, each number arranged in order and each identification information of the finger part corresponding to each number, the number and identification information of each sequence in the authentication code registered in advance, An authentication processing apparatus , wherein an authentication determination of the person to be authenticated is performed by determining a match between a number in the candidate sequence and identification information in each order in which a predetermined motion is detected .
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、Coordinate detection means for detecting the three-dimensional coordinates of the detection target in the three-dimensional space at predetermined time periods,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、Image display means for displaying a plurality of selection target images corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、A virtual plane setting unit that sets a virtual two-dimensional plane in the three-dimensional space, and associates display coordinates of the plurality of selection target images in the screen with virtual coordinates in the virtual two-dimensional plane.
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for determining that the selection target image is selected by the identified part when detecting a predetermined movement by the identified part in the three-dimensional space in a state where
前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とAn authentication determination unit that performs an authentication determination based on code information corresponding to a selection target image determined to be selected by the analysis unit and code information of an authentication code registered in advance;
を有し、Has,
前記認証コードに用いられる複数のコード情報は、少なくとも0から9の数字と所定の記号とを含み、The plurality of code information used for the authentication code includes at least a number from 0 to 9 and a predetermined symbol,
前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置すると共に、前記数字の画像を除くエリアを前記所定の記号に対応した選択対象画像として表示し、The image display means arranges images of numbers 0 to 9 as the plurality of selection target images in the screen and displays an area excluding the number images as a selection target image corresponding to the predetermined symbol. ,
前記解析手段は、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字又は記号と前記各数字又は記号にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、The analysis means, when the detection target is the hand of the person to be authenticated, individually identifies each finger part, each time a predetermined movement by one finger part of the finger parts is detected, Obtain a candidate array consisting of each number or symbol of the selection target image corresponding to each finger portion of all of the hands and each identification information of each finger portion corresponding to each of the numbers or symbols,
前記認証判定手段は、順に配列された各数字又は記号と前記各数字又は記号にそれぞれ対応した手指部位の各識別情報とが登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字又は記号及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする認証処理装置。The authentication judging means includes a number and an identification number for each sequence in the authentication code in which each number or symbol arranged in order and each identification information of a finger portion corresponding to each number or symbol are registered. An authentication processing device, wherein an authentication determination of the person to be authenticated is performed by determining whether information matches a number or a symbol in the candidate sequence and identification information in each order in which the predetermined movement is detected.
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、Coordinate detection means for detecting the three-dimensional coordinates of the detection target in the three-dimensional space at predetermined time periods,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、Image display means for displaying a plurality of selection target images corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、A virtual plane setting unit that sets a virtual two-dimensional plane in the three-dimensional space, and associates display coordinates of the plurality of selection target images in the screen with virtual coordinates in the virtual two-dimensional plane.
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for determining that the selection target image is selected by the identified part when detecting a predetermined movement by the identified part in the three-dimensional space in a state where
前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とAn authentication determination unit that performs an authentication determination based on code information corresponding to a selection target image determined to be selected by the analysis unit and code information of an authentication code registered in advance;
を有し、Has,
前記仮想平面設定手段は、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定しており、The virtual two-dimensional plane represented by any two coordinate axes of the X, Y, and Z axes in the three-dimensional space represented by the X, Y, and Z axes. Is set,
前記解析手段は、前記三次元空間内で前記識別された部位が静止した時間を計測し、前記部位が所定の時間だけ静止したことを検出したとき、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の方向で前記部位の先端から所定距離だけ離れた座標値に所定の判定座標を設定し、前記三次元空間内で前記部位が動いたことで前記部位の先端が前記判定座標に達したときに、前記所定の動きを検出することを特徴とする認証処理装置。The analysis unit measures a time at which the identified part is stationary in the three-dimensional space, and when detecting that the part is stationary for a predetermined time, the virtual two-dimensional in the three-dimensional space. A predetermined determination coordinate is set at a coordinate value that is a predetermined distance away from the tip of the part in the direction of the coordinate axis orthogonal to the plane, and the tip of the part moves in the three-dimensional space so that the tip of the part is the determination coordinate. The authentication processing device detects the predetermined movement when the number of times reaches a predetermined value.
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、Coordinate detection means for detecting the three-dimensional coordinates of the detection target in the three-dimensional space at predetermined time periods,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、Image display means for displaying a plurality of selection target images corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、A virtual plane setting unit that sets a virtual two-dimensional plane in the three-dimensional space, and associates display coordinates of the plurality of selection target images in the screen with virtual coordinates in the virtual two-dimensional plane.
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for determining that the selection target image is selected by the identified part when detecting a predetermined movement by the identified part in the three-dimensional space in a state where
前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とAn authentication determination unit that performs an authentication determination based on code information corresponding to a selection target image determined to be selected by the analysis unit and code information of an authentication code registered in advance;
を有し、Has,
前記仮想平面設定手段は、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定しており、The virtual two-dimensional plane represented by any two coordinate axes of the X, Y, and Z axes in the three-dimensional space represented by the X, Y, and Z axes. Is set,
前記解析手段は、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の、当該仮想二次元平面内での座標を基準座標にすると共に当該基準座標に対して正側と負側を設定し、前記識別された部位の先端が前記基準座標に対して正側から前記基準座標を超えて負側へ移動したときに、前記所定の動きを検出することを特徴とする認証処理装置。The analysis unit sets the coordinates of the coordinate axes orthogonal to the virtual two-dimensional plane in the three-dimensional space to the coordinates in the virtual two-dimensional plane as reference coordinates and sets the positive side and the negative side with respect to the reference coordinates. The authentication processing device, wherein the predetermined movement is detected when the tip of the identified portion moves from the positive side to the reference coordinate and moves beyond the reference coordinate to the negative side with respect to the reference coordinate.
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出手段と、Coordinate detection means for detecting the three-dimensional coordinates of the detection target in the three-dimensional space at predetermined time periods,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示手段と、Image display means for displaying a plurality of selection target images corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定手段と、A virtual plane setting unit that sets a virtual two-dimensional plane in the three-dimensional space, and associates display coordinates of the plurality of selection target images in the screen with virtual coordinates in the virtual two-dimensional plane.
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析手段と、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. Analyzing means for determining that the selection target image is selected by the identified part when detecting a predetermined movement by the identified part in the three-dimensional space in a state where
前記解析手段で選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定手段とAn authentication determination unit that performs an authentication determination based on code information corresponding to a selection target image determined to be selected by the analysis unit and code information of an authentication code registered in advance;
を有し、Has,
前記解析手段は、前記三次元空間内で前記識別された各部位が静止した時間を計測し、前記各部位が所定の時間だけ静止したことを検出した後、前記三次元空間内で前記各部位の先端が動いた際の移動量が最も大きい部位を、前記所定の動きが検出された部位とすることを特徴とする認証処理装置。The analysis means measures the time at which each of the identified parts has stopped in the three-dimensional space, and after detecting that each of the parts has stopped for a predetermined time, the An authentication processing apparatus characterized in that a part where the amount of movement when the tip of the head moves is the largest is a part where the predetermined movement is detected.
前記認証コードに用いられる複数のコード情報は0から9の数字であり、
前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内にランダムに配置して表示し、
前記解析手段は、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別して各手指部位の識別情報を取得すると共に、前記個別に識別した手指部位により順に選ばれた前記複数の選択対象画像に対応した数字の配列を取得し、
前記認証判定手段は、前記解析手段により個別に識別された手指部位によって順に選ばれた複数の選択対象画像に対応した複数の数字の配列と、前記選択対象画像を順に選んだ手指部位の識別情報と、予め登録されている認証コードの数字の配列と、前記認証コードの各数字に対応して予め登録されている手指部位の識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする請求項3乃至5のうち何れか1項に記載の認証処理装置。
The plurality of code information used for the authentication code are numbers from 0 to 9,
The image display means randomly displays images of numbers from 0 to 9 as the plurality of selection target images in the screen, and displays the images.
When the detection target is the hand of the person to be authenticated, the analysis unit individually identifies each finger part and acquires identification information of each finger part, and sequentially selects the finger parts according to the individually identified finger parts. Obtain an array of numbers corresponding to the plurality of selected images,
The authentication determination unit includes an array of a plurality of numbers corresponding to a plurality of selection target images sequentially selected by the finger parts individually identified by the analysis unit, and identification information of the finger part that sequentially selects the selection target image. The authentication determination of the person to be authenticated is performed by determining whether the sequence of the numbers of the authentication codes registered in advance matches the identification information of the finger part registered in advance corresponding to each number of the authentication codes. The authentication processing device according to any one of claims 3 to 5, wherein:
前記認証コードに用いられる複数のコード情報は0から9の数字であり、
前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内にランダムに配置して表示し、
前記解析手段は、前記検出対象物が認証対象者の手である場合に、一つの手指部位によって順に選ばれた前記複数の選択対象画像に対応した数字の配列を取得し、
前記認証判定手段は、前記解析手段により取得された複数の選択対象画像に対応した複数の数字の配列と、予め登録されている認証コードの数字の配列との一致判定により、前記認証対象者の認証判定を行うことを特徴とする請求項3乃至5のうち何れか1項に記載の認証処理装置。
The plurality of code information used for the authentication code are numbers from 0 to 9,
The image display means randomly displays images of numbers from 0 to 9 as the plurality of selection target images in the screen, and displays the images.
The analysis means, when the detection target is the hand of the person to be authenticated, obtains an array of numbers corresponding to the plurality of selection target images sequentially selected by one finger site,
The authentication determination unit is configured to determine whether or not the authentication target person is a match by determining whether an array of a plurality of numbers corresponding to the plurality of selection target images acquired by the analysis unit matches an array of numbers of an authentication code registered in advance. The authentication processing device according to claim 3 , wherein an authentication determination is performed.
前記認証コードに用いられる複数のコード情報は0から9の数字であり、
前記画像表示手段は、前記複数の選択対象画像として0から9の数字の画像を前記画面内にランダムに配置して表示し、
前記解析手段は、前記検出対象物が認証対象者の手である場合に、認証処理に対して予め設定されているセキュリティレベルに応じた少なくとも一つの手指部位を、個別に識別して前記手指部位の識別情報を取得すると共に、前記個別に識別した手指部位により順に選ばれた前記複数の選択対象画像に対応した数字の配列を取得し、
前記認証判定手段は、前記解析手段により個別に識別された手指部位によって順に選ばれた複数の選択対象画像に対応した複数の数字の配列と、前記選択対象画像を順に選んだ手指部位の識別情報と、予め登録されている認証コードの数字の配列と、前記認証コードの各数字に対応して予めセキュリティレベルごとに登録されている手指部位の識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする請求項3乃至5のうち何れか1項に記載の認証処理装置。
The plurality of code information used for the authentication code are numbers from 0 to 9,
The image display means randomly displays images of numbers from 0 to 9 as the plurality of selection target images in the screen, and displays the images.
The analysis means individually identifies at least one finger part corresponding to a security level set in advance for an authentication process when the detection target is the hand of the person to be authenticated. Along with acquiring the identification information, an array of numbers corresponding to the plurality of selection target images sequentially selected by the individually identified finger parts is acquired,
The authentication determination unit includes an array of a plurality of numbers corresponding to a plurality of selection target images sequentially selected by the finger parts individually identified by the analysis unit, and identification information of the finger part that sequentially selects the selection target image. And an array of numbers of the authentication code registered in advance and the identification information of the finger part registered in advance for each security level corresponding to each number of the authentication code, and The authentication processing device according to claim 3 , wherein an authentication determination is performed.
前記画像表示手段は、前記検出対象物の三次元座標に基づいて、前記画像表示手段の画面上に前記検出対象物に対応した所定のマークを表示することを特徴とする請求項1乃至のうち何れか1項に記載の認証処理装置。 The image display means, based on the three-dimensional coordinates of the detection object, according to claim 1 to 8, wherein the displaying the screen predetermined mark corresponding to the detected object on the image display means The authentication processing device according to claim 1. 前記画像表示手段の画面上に当該画面の表示画像を反射する反射板、若しくは、前記画面の表示画像を空中に仮想的な立体像として形成する光学結像プレートを配することを特徴とする請求項1乃至のうち何れか1項に記載の認証処理装置。 A reflection plate for reflecting a display image of the screen or an optical imaging plate for forming a display image of the screen as a virtual stereoscopic image in the air is disposed on a screen of the image display means. Item 10. The authentication processing device according to any one of Items 1 to 9 . 前記座標検出手段は、赤外光を出射して前記検出対象物により反射された赤外光を撮像した撮像信号に基づいて、前記三次元座標を算出することを特徴とする請求項1乃至1のうち何れか1項に記載の認証処理装置。 2. The coordinate detection unit according to claim 1, wherein the three-dimensional coordinates are calculated based on an imaging signal that emits infrared light and captures infrared light reflected by the detection target. 3. The authentication processing device according to any one of 0 . 認証処理装置が実行する認証処理方法であって、
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、
前記解析ステップで選ばれたと判定された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップと
有し、
前記認証コードに用いられる複数のコード情報は0から9の数字であり、
前記画像表示ステップでは、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置して表示し、
前記解析ステップでは、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字と前記各数字にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、
前記認証判定ステップでは、順に配列された各数字と前記各数字に対応した手指部位の各識別情報とが予め登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする認証処理方法。
An authentication processing method executed by the authentication processing device,
A coordinate detection step of detecting the three-dimensional coordinates of the detection target in the three-dimensional space every predetermined time period,
An image display step of displaying a plurality of selection target images respectively corresponding to a plurality of code information used for the authentication code on a screen,
A virtual plane setting step of setting a virtual two-dimensional plane in the three-dimensional space, and causing display coordinates of the plurality of selection target images in the screen to correspond to virtual coordinates in the virtual two-dimensional plane,
By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. In the state, when detecting a predetermined movement by the identified part in the three-dimensional space, an analysis step of determining that the selection target image is selected by the identified part,
Code information corresponding to the selection target image determined to be selected in the analysis step, based on the code information of the authentication code registered in advance, having an authentication determination step to perform an authentication determination ,
The plurality of code information used for the authentication code are numbers from 0 to 9,
In the image display step, images of numbers from 0 to 9 are arranged and displayed in the screen as the plurality of selection target images,
In the analyzing step, when the detection target is the hand of the person to be authenticated, each finger part is individually identified, and each time a predetermined movement by one finger part of the finger parts is detected, Obtain a candidate array consisting of each number of the selection target image corresponding to each finger part of all the hands and each identification information of each finger part respectively corresponding to each number,
In the authentication determination step, each number arranged in order and each identification information of the finger portion corresponding to each number, the number and identification information of each sequence in the authentication code registered in advance, and An authentication processing method , wherein an authentication determination of the person to be authenticated is performed by determining a match between a number in the candidate sequence and identification information in each order in which a predetermined motion is detected .
認証処理装置が実行する認証処理方法であって、An authentication processing method executed by the authentication processing device,
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、A coordinate detection step of detecting the three-dimensional coordinates of the detection target in the three-dimensional space every predetermined time period,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、An image display step of displaying a plurality of selection target images respectively corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、A virtual plane setting step of setting a virtual two-dimensional plane in the three-dimensional space, and causing display coordinates of the plurality of selection target images in the screen to correspond to virtual coordinates in the virtual two-dimensional plane,
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. In the state, when detecting a predetermined movement by the identified part in the three-dimensional space, an analysis step of determining that the selection target image is selected by the identified part,
前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとAn authentication determination step of performing an authentication determination based on code information corresponding to the selection target image determined to be selected in the analysis step and code information of an authentication code registered in advance;
を有し、Has,
前記認証コードに用いられる複数のコード情報は、少なくとも0から9の数字と所定の記号とを含み、The plurality of code information used for the authentication code includes at least a number from 0 to 9 and a predetermined symbol,
前記画像表示ステップは、前記複数の選択対象画像として0から9の数字の画像を前記画面内に配置すると共に、前記数字の画像を除くエリアを前記所定の記号に対応した選択対象画像として表示し、The image display step includes arranging an image of a number from 0 to 9 as the plurality of selection target images in the screen and displaying an area excluding the number image as a selection target image corresponding to the predetermined symbol. ,
前記解析ステップでは、前記検出対象物が認証対象者の手である場合に、各手指部位を個別に識別し、前記各手指部位のうち一つの手指部位による所定の動きが検出される毎に、前記手の全ての各手指部位に対応した選択対象画像の各数字又は記号と前記各数字又は記号にそれぞれ対応した各手指部位の各識別情報とからなる候補配列を取得し、In the analyzing step, when the detection target is the hand of the person to be authenticated, each finger part is individually identified, and each time a predetermined movement by one finger part of the finger parts is detected, Obtain a candidate array consisting of each number or symbol of the selection target image corresponding to each finger portion of all of the hands and each identification information of each finger portion corresponding to each of the numbers or symbols,
前記認証判定ステップでは、順に配列された各数字又は記号と前記各数字又は記号にそれぞれ対応した手指部位の各識別情報とが登録されている認証コードの中の前記配列の順番毎の数字及び識別情報と、前記所定の動きが検出された順番毎の前記候補配列の中の数字又は記号及び識別情報との一致判定により、前記認証対象者の認証判定を行うことを特徴とする認証処理方法。In the authentication determination step, in the authentication code in which each number or symbol arranged in order and each identification information of a finger portion corresponding to each number or symbol are registered, the number and identification of each sequence in the authentication code are registered. An authentication processing method, comprising: performing authentication determination of the person to be authenticated by determining whether information matches a number or a symbol in the candidate sequence and identification information in each order in which the predetermined motion is detected.
認証処理装置が実行する認証処理方法であって、An authentication processing method executed by the authentication processing device,
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、A coordinate detection step of detecting the three-dimensional coordinates of the detection target in the three-dimensional space every predetermined time period,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、An image display step of displaying a plurality of selection target images respectively corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、A virtual plane setting step of setting a virtual two-dimensional plane in the three-dimensional space, and causing display coordinates of the plurality of selection target images in the screen to correspond to virtual coordinates in the virtual two-dimensional plane,
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. In the state, when detecting a predetermined movement by the identified part in the three-dimensional space, an analysis step of determining that the selection target image is selected by the identified part,
前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとAn authentication determination step of performing an authentication determination based on code information corresponding to the selection target image determined to be selected in the analysis step and code information of an authentication code registered in advance;
を有し、Has,
前記仮想平面設定ステップでは、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定し、In the virtual plane setting step, the virtual two-dimensional plane represented by any two coordinate axes of the X, Y, and Z axes in the three-dimensional space represented by the X, Y, and Z axes And set
前記解析ステップでは、前記三次元空間内で前記識別された部位が静止した時間を計測し、前記部位が所定の時間だけ静止したことを検出したとき、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の方向で前記部位の先端から所定距離だけ離れた座標値に所定の判定座標を設定し、前記三次元空間内で前記部位が動いたことで前記部位の先端が前記判定座標に達したときに、前記所定の動きを検出することを特徴とする認証処理方法。In the analyzing step, the time at which the identified part is stationary in the three-dimensional space is measured, and when it is detected that the part is stationary for a predetermined time, the virtual two-dimensional A predetermined determination coordinate is set at a coordinate value that is a predetermined distance away from the tip of the part in the direction of the coordinate axis orthogonal to the plane, and the tip of the part moves in the three-dimensional space so that the tip of the part is the determination coordinate. Detecting the predetermined movement when the number of times has reached the threshold value.
認証処理装置が実行する認証処理方法であって、An authentication processing method executed by the authentication processing device,
三次元空間内における検出対象物の三次元座標を所定の時間周期ごとに検出する座標検出ステップと、A coordinate detection step of detecting the three-dimensional coordinates of the detection target in the three-dimensional space every predetermined time period,
認証コードに用いられる複数のコード情報にそれぞれ対応した複数の選択対象画像を画面内に表示する画像表示ステップと、An image display step of displaying a plurality of selection target images respectively corresponding to a plurality of code information used for the authentication code on a screen,
前記三次元空間内に仮想二次元平面を設定するとともに、前記画面内における前記複数の選択対象画像の表示座標と仮想二次元平面内における仮想座標とを対応させる仮想平面設定ステップと、A virtual plane setting step of setting a virtual two-dimensional plane in the three-dimensional space, and causing display coordinates of the plurality of selection target images in the screen to correspond to virtual coordinates in the virtual two-dimensional plane,
前記検出対象物の三次元座標を解析することにより、前記検出対象物を構成している複数の部位を識別し、前記識別した部位の座標が前記仮想二次元平面内で前記仮想座標に対応している状態で、前記三次元空間内にて前記識別した部位による所定の動きを検出したとき、前記識別した部位により前記選択対象画像が選ばれたと判断する解析ステップと、By analyzing the three-dimensional coordinates of the detection target, a plurality of parts constituting the detection target are identified, and the coordinates of the identified parts correspond to the virtual coordinates in the virtual two-dimensional plane. In the state, when detecting a predetermined movement by the identified part in the three-dimensional space, an analysis step of determining that the selection target image is selected by the identified part,
前記解析ステップで選ばれたと判断された選択対象画像に対応したコード情報と、予め登録されている認証コードのコード情報とに基づいて、認証判定を行う認証判定ステップとAn authentication determination step of performing an authentication determination based on code information corresponding to the selection target image determined to be selected in the analysis step and code information of an authentication code registered in advance;
を有し、Has,
前記仮想平面設定ステップでは、X軸とY軸とZ軸で表される前記三次元空間内に、前記X軸とY軸とZ軸の何れか二つの座標軸で表される前記仮想二次元平面を設定し、In the virtual plane setting step, the virtual two-dimensional plane represented by any two coordinate axes of the X, Y, and Z axes in the three-dimensional space represented by the X, Y, and Z axes And set
前記解析ステップでは、前記三次元空間内にて前記仮想二次元平面と直交する座標軸の、当該仮想二次元平面内での座標を基準座標にすると共に当該基準座標に対して正側と負側を設定し、前記識別された部位の先端が前記基準座標に対して正側から前記基準座標を超えて負側へ移動したときに、前記所定の動きを検出することを特徴とする認証処理方法。In the analyzing step, the coordinates of the coordinate axes orthogonal to the virtual two-dimensional plane in the three-dimensional space are set to the coordinates in the virtual two-dimensional plane, and the positive side and the negative side are set to the reference coordinates. The authentication processing method, wherein the predetermined movement is detected when the tip of the identified part moves from the positive side to the reference coordinate beyond the reference coordinate to the negative side with respect to the reference coordinate.
JP2015247761A 2014-12-19 2015-12-18 Authentication processing apparatus and authentication processing method Active JP6674683B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014257583 2014-12-19
JP2014257583 2014-12-19

Publications (2)

Publication Number Publication Date
JP2016119095A JP2016119095A (en) 2016-06-30
JP6674683B2 true JP6674683B2 (en) 2020-04-01

Family

ID=56244355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247761A Active JP6674683B2 (en) 2014-12-19 2015-12-18 Authentication processing apparatus and authentication processing method

Country Status (1)

Country Link
JP (1) JP6674683B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201703299TA (en) 2017-04-21 2018-11-29 Mastercard Asia Pacific Pte Ltd A system and method for carrying out two factor authentication using augmented/virtual reality
JP7017675B2 (en) * 2018-02-15 2022-02-09 有限会社ワタナベエレクトロニクス Contactless input system, method and program
BE1026341B1 (en) * 2018-06-04 2020-01-14 Worldline Sa DEVICE AND METHOD FOR SECURE IDENTIFICATION OF A USER
JP2020052681A (en) 2018-09-26 2020-04-02 シュナイダーエレクトリックホールディングス株式会社 Operation processing device
JP7128720B2 (en) 2018-10-25 2022-08-31 日立チャネルソリューションズ株式会社 Input/output device and automatic transaction device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214943A (en) * 1999-01-22 2000-08-04 Nec Corp Password input processor and password input changing method
JP2001092960A (en) * 1999-09-20 2001-04-06 Fujitsu General Ltd Fingerprint verifying method
WO2009131128A1 (en) * 2008-04-22 2009-10-29 Fujishima Tomohiko Optical imaging device and optical imaging method using the same
JP2010198211A (en) * 2009-02-24 2010-09-09 Toshiba Corp Authentication device
US9880629B2 (en) * 2012-02-24 2018-01-30 Thomas J. Moscarillo Gesture recognition devices and methods with user authentication
US9323338B2 (en) * 2013-04-12 2016-04-26 Usens, Inc. Interactive input system and method

Also Published As

Publication number Publication date
JP2016119095A (en) 2016-06-30

Similar Documents

Publication Publication Date Title
Wang et al. User authentication on mobile devices: Approaches, threats and trends
JP6674683B2 (en) Authentication processing apparatus and authentication processing method
Tian et al. KinWrite: Handwriting-Based Authentication Using Kinect.
Frank et al. Touchalytics: On the applicability of touchscreen input as a behavioral biometric for continuous authentication
EP3100152B1 (en) User-authentication gestures
TWI533230B (en) User identification with biokinematic input
ES2795669T3 (en) User authentication method and system using variable numeric keyboard and biometric identification
Aumi et al. Airauth: evaluating in-air hand gestures for authentication
KR20170138475A (en) Identification and / or authentication of the user using gaze information
EP2727339A1 (en) User identification by gesture recognition
WO2013114806A1 (en) Biometric authentication device and biometric authentication method
JP2023145582A (en) Multi-factor authentication for virtual reality
Wang et al. Sensor-based user authentication
Koong et al. A user authentication scheme using physiological and behavioral biometrics for multitouch devices
Ibrahim et al. Recent advances in mobile touch screen security authentication methods: A systematic literature review
JP6745009B1 (en) Authentication system, authentication device, authentication method, and program
Ganesh et al. A secure gesture based authentication scheme to unlock the smartphones
CN211087230U (en) Eyeball tracking unlocking system
Ling et al. Secure fingertip mouse for mobile devices
KR101286750B1 (en) Password estimation system using gesture.
JP2017010459A (en) User authentication method, electronic device and computer program
JP2017091276A (en) Operation permission determination device, operation permission determination system, operation permission determination method, and operation permission determination program
JPWO2021131059A1 (en) Authentication system, authentication device, authentication method, and program
JP6516467B2 (en) Authentication processing apparatus and authentication processing method, authentication information registration apparatus and authentication information registration method
Gautama et al. RISET: Secure Eye-Tracking Password Authentication with Random Image Sequence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6674683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250