JP6793363B2 - Personal authentication method and personal authentication system - Google Patents
Personal authentication method and personal authentication system Download PDFInfo
- Publication number
- JP6793363B2 JP6793363B2 JP2016049053A JP2016049053A JP6793363B2 JP 6793363 B2 JP6793363 B2 JP 6793363B2 JP 2016049053 A JP2016049053 A JP 2016049053A JP 2016049053 A JP2016049053 A JP 2016049053A JP 6793363 B2 JP6793363 B2 JP 6793363B2
- Authority
- JP
- Japan
- Prior art keywords
- optical axis
- eyeball
- display panel
- identification information
- user identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000003287 optical effect Effects 0.000 claims description 156
- 210000005252 bulbus oculi Anatomy 0.000 claims description 148
- 238000005259 measurement Methods 0.000 claims description 60
- 230000000007 visual effect Effects 0.000 claims description 33
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 9
- 206010044565 Tremor Diseases 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 206010025421 Macule Diseases 0.000 description 1
- 241001139947 Mida Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、個人認証方法および個人認証システムに関するものである。 The present invention relates to a personal authentication method and a personal authentication system.
一般に、デジタル機器を利用する際の個人認証として、例えば4桁のパスコード(暗証番号)を打鍵し、予め機械に記憶させた数字列と照合するというものが用いられている。
しかしながら、パスコードを見破る方法として多用されるのが、実は最もシンプルなショルダーハックといわれるものである。これは、肩越しに対象者の操作等を見て、情報を盗み出すものである。
近年、携帯端末の急速な普及に伴い、携帯端末のロック画面の解除等に必要なパスコードを指の動きを小型カメラで盗撮されるなどの様々な方法で、パスコードが盗み出される危険性が高まっている。パスコードは、一旦盗まれれば、同様に打鍵するだけで容易になりすますことができる。今後、4K、8Kなどの超高解像度の監視カメラが普及すれば、こういった危険性は飛躍的に高まると考えられる。
また、ショルダーハック等による盗み見を防止するだけではなく、なりすましを防止できれば、さらにセキュリティを向上させることができる。
Generally, as personal authentication when using a digital device, for example, a 4-digit passcode (personal identification number) is entered and collated with a number string stored in a machine in advance.
However, what is often used as a method of detecting passcodes is actually the simplest shoulder hack. This is to steal information by looking at the operation of the subject over the shoulder.
In recent years, with the rapid spread of mobile terminals, there is a risk that the passcode will be stolen by various methods such as taking a voyeur of the movement of the finger with a small camera, which is necessary for unlocking the lock screen of the mobile terminal. It is increasing. Once the passcode is stolen, it can be easily spoofed by simply typing the key. If ultra-high resolution surveillance cameras such as 4K and 8K become widespread in the future, such dangers are expected to increase dramatically.
In addition to preventing eavesdropping due to shoulder hacks and the like, if spoofing can be prevented, security can be further improved.
そこで、指による打鍵ではなく、より盗み見されにくく、かつ、なりすましが防止しやすい指紋認証や視線による認証等が考えられるが、指紋認証は、寝ている間にセンサにタッチさせられるなどすると、本人の意図に反して認証される可能性がある。これに対して、視線による認証であれば、本人が意図せず入力することがなく安全である。
視線計測で問題となるのは、外部から計測される眼球の光軸と、実際にその人が見ている視線(視軸)の間に、個人毎に異なる数度レベルのズレ角があることである。そのため、正確な視線の計測には、予め指示した点を注視させ、その人のズレを計測するというプロセス(キャリブレーション)が必要である。なお、このズレは一度計測すればほとんど変化しないとされている。
Therefore, instead of typing with a finger, fingerprint authentication or eye-gaze authentication, which is more difficult to be snooped and is easier to prevent spoofing, can be considered. However, fingerprint authentication can be performed by touching the sensor while sleeping. There is a possibility of being authenticated against the intention of. On the other hand, if the authentication is based on the line of sight, it is safe because the person does not enter it unintentionally.
The problem with line-of-sight measurement is that there is a deviation angle of several degrees between the optical axis of the eyeball measured from the outside and the line of sight (line-of-sight) actually seen by the person. Is. Therefore, in order to accurately measure the line of sight, a process (calibration) is required in which a point instructed in advance is gazed at and the deviation of the person is measured. It is said that this deviation hardly changes once measured.
一方、不正な認証を防止する認証装置として、画像に撮像されているユーザの視線角度を特定し、視線角度と視線方向との対応関係を示す視線方向特定情報を使用しつつ、視線方向を特定して、その特定結果から個人の認証を行う認証装置が知られている(特許文献1を参照)。
しかしながら、特許文献1に開示された認証方法は、視線方向特定情報そのもので個人を特定するものではない。また、視線角度が±20°、±10°と大きく、認証許可の方向を知っている他人がなりすますことが可能であるという問題がある。
On the other hand, as an authentication device for preventing unauthorized authentication, the line-of-sight angle of the user captured in the image is specified, and the line-of-sight direction is specified while using the line-of-sight direction identification information indicating the correspondence between the line-of-sight angle and the line-of-sight direction. Then, an authentication device that authenticates an individual based on the specific result is known (see Patent Document 1).
However, the authentication method disclosed in Patent Document 1 does not identify an individual by the line-of-sight direction specifying information itself. In addition, the line-of-sight angle is as large as ± 20 ° and ± 10 °, and there is a problem that another person who knows the direction of authentication permission can impersonate.
上記状況に鑑みて、本発明は、視線を用いて多数の対象者の中から個人認証が可能であり、パスコードの盗まれにくさと成りすましにくさを高め、パスコード認証の安全性を向上させた個人認証方法及び個人認証システムを提供することを目的とする。 In view of the above situation, the present invention enables personal authentication from a large number of subjects using the line of sight, increases the resistance to theft and spoofing of the passcode, and improves the security of the passcode authentication. The purpose is to provide a personal authentication method and a personal authentication system.
上記課題を解決すべく、本発明の個人認証方法は、視線でパスコードを入力する個人認証方法において、ユーザ識別情報を入力し、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、表示パネルの空間的な3次元座標と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けて予め登録された眼球の光軸と視軸(視線)のズレ角(κ角)から、パスコードを算定して、登録されたパスコードと照合して認証する。 In order to solve the above problems, the personal authentication method of the present invention is a personal authentication method in which a passcode is input with a line of sight, when user identification information is input and an input key displayed on a display panel is gazed at. The orientation of the optical axis of the camera is measured, and the spatial three-dimensional coordinates of the display panel, the orientation of the optical axis of the eyeball, and the optical axis and visual axis of the eyeball registered in advance in association with the input user identification information ( The passcode is calculated from the deviation angle (κ angle) of the line of sight) and verified by collating with the registered passcode.
本発明の個人認証方法によれば、眼球の光軸と視軸とのズレ角を用いてパスコード認証を行うことにより、パスコードの盗まれにくさと成りすましにくさを高め、パスコード認証の安全性を向上させることができる。つまり、指でパスコードを入力する場合と異なり、眼球の光軸と視軸とのズレ角(κ角)を個人認証に用いるため、ショルダーハックによりパスコードを盗まれる危険性が低くなり、また、視線情報は個人差があるため、なりすましの防止にも効果的である。 According to the personal authentication method of the present invention, by performing passcode authentication using the deviation angle between the optical axis and the visual axis of the eyeball, the passcode is less likely to be stolen and spoofed, and the passcode authentication can be performed. Safety can be improved. In other words, unlike the case of entering the passcode with a finger, the deviation angle (κ angle) between the optical axis and the visual axis of the eyeball is used for personal authentication, so the risk of the passcode being stolen by a shoulder hack is reduced, and Since the line-of-sight information varies from person to person, it is also effective in preventing spoofing.
ここで、眼球の光軸と視軸とのズレ角(κ角)は、垂直方向(上下方向)と水平方向(左右方向)の2次元の値をとる特徴量である。予め、眼球の光軸と視軸とのズレ角を計測する時は、公知の視線計測手法や装置を1回だけ利用し、キャリブレーションすることにより、ズレ角を取得する。ズレ角を計測する顔の向きも個人情報として記録しておくことにより、より正確な個人情報として利用することができる。ここで、顔の向きとは、入力キーを注視する際の顔の姿勢であり、例えば、左肩の方に10°傾いているとか、右肩の方に15°傾いているなど、立体角であるズレ角(κ角)に影響を与えるような向きをいう。表示パネルの前に立って、顔を右に向けてパネル上の入力キーを見ても、顔が右に向いた分だけ、眼球も回転するので、ズレ角(κ角)は変わらないが、首を中心として右肩の方に傾ける(回転する)と、その分だけズレ角(κ角)も回転してしまう。このように、ズレ角(κ角)は、正面にある表示パネルの入力キーを注視する際、常に姿勢が同じであれば、或は、単に顔を左あるいは右に向けて正面を横目で注視するのであれば、基本的には計測角度に依らないが、顔を右肩あるいは左肩の方に傾けて入力キーを注視する際は、顔の向きの計測角度がズレ角(κ角)の補正角度として重要になる。そのため、予めズレ角を計測する時には、ズレ角を計測する向きも計測して正確なズレ角を取得することが好ましい。すなわち、正確な個人情報として利用するため、眼球の光軸の向きを計測する際には、顔の向きや傾きといった計測角度を計測する。計測角度もズレ角と同様に2次元の値をとる。 Here, the deviation angle (κ angle) between the optical axis and the visual axis of the eyeball is a feature quantity that takes two-dimensional values in the vertical direction (vertical direction) and the horizontal direction (horizontal direction). When measuring the deviation angle between the optical axis and the visual axis of the eyeball in advance, the deviation angle is acquired by using a known line-of-sight measurement method or device only once and calibrating. By recording the orientation of the face for measuring the deviation angle as personal information, it can be used as more accurate personal information. Here, the orientation of the face is the posture of the face when gazing at the input key, and is tilted at a solid angle such as 10 ° toward the left shoulder or 15 ° toward the right shoulder. A direction that affects a certain deviation angle (κ angle). Even if you stand in front of the display panel and look at the input keys on the panel with your face facing right, the eyeballs rotate as much as your face turns to the right, so the deviation angle (κ angle) does not change, If you tilt (rotate) toward the right shoulder around the neck, the deviation angle (κ angle) will rotate accordingly. In this way, the deviation angle (κ angle) can be determined if the posture is always the same when gazing at the input key on the front display panel, or simply with the face facing left or right and looking sideways at the front. If so, basically it does not depend on the measurement angle, but when the face is tilted toward the right shoulder or left shoulder and the input key is gazed, the measurement angle of the face orientation corrects the deviation angle (κ angle). It becomes important as an angle. Therefore, when measuring the deviation angle in advance, it is preferable to measure the direction in which the deviation angle is measured to obtain an accurate deviation angle. That is, in order to use it as accurate personal information, when measuring the direction of the optical axis of the eyeball, the measurement angle such as the direction and inclination of the face is measured. The measurement angle also takes a two-dimensional value like the deviation angle.
また、パスコードとは、数字や英数字の文字に限らず、その他の文字、記号、図形を含むコードであり、ユーザ本人あるいは個人認証サービスの提供者が決定する。パスコードは、例えば、3桁または4桁の数字であってもよいが、特定部分(特徴点)を注視するようなもの、ジェスチャー的なもの、これら以外でも構わない。安全性のレベルの違いはあるが、1桁の数字でも構わない。 The passcode is not limited to numbers and alphanumeric characters, but is a code including other characters, symbols, and figures, and is determined by the user or the provider of the personal authentication service. The passcode may be, for example, a 3-digit or 4-digit number, but may be something that gazes at a specific part (feature point), a gesture-like one, or something other than these. There are differences in the level of safety, but single-digit numbers are acceptable.
入力キーが注視された際に、眼球の光軸の向きを計測するのに、カメラ計測を行う。例えば、カメラ間の位置関係が固定された撮像角度が異なる2台のカメラで顔を撮影し、ワールド座標系(グローバル座標系)を用いて、眼球の光軸の向きを計測する。眼球の光軸の向きの計測方法は、公知の計測手法を用いればよい。入力キーが表示された表示パネルの形状とカメラとの位置関係がわかれば、表示パネルのワールド座標(空間的な3次元座標)がわかる。さらに、表示パネルの入力キー表示画面内のピクセル情報がわかれば、個々の入力キーのワールド座標がわかる。ここで、ピクセル情報とは、特定の入力キーがどのピクセルに表示されているのかという情報である。
ワールド座標系を用いて、眼球の光軸の向きを取得する。眼球の光軸の向きは、瞳孔中心座標と、眼球の光軸と表示パネル表面との交点座標とで表すことができる。そして、表示パネルのピクセル情報と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けされたズレ角とから、表示パネル上の注視点、すなわち、注視されたパスコードを算定することができる。
When the input key is gazed, camera measurement is performed to measure the direction of the optical axis of the eyeball. For example, the face is photographed by two cameras having a fixed positional relationship between the cameras and different imaging angles, and the direction of the optical axis of the eyeball is measured using the world coordinate system (global coordinate system). As a method for measuring the direction of the optical axis of the eyeball, a known measurement method may be used. If the shape of the display panel on which the input keys are displayed and the positional relationship with the camera are known, the world coordinates (spatial three-dimensional coordinates) of the display panel can be known. Furthermore, if the pixel information in the input key display screen of the display panel is known, the world coordinates of each input key can be known. Here, the pixel information is information on which pixel a specific input key is displayed on.
Obtain the orientation of the optical axis of the eyeball using the world coordinate system. The direction of the optical axis of the eyeball can be represented by the coordinates of the center of the pupil and the coordinates of the intersection of the optical axis of the eyeball and the surface of the display panel. Then, from the pixel information of the display panel, the direction of the optical axis of the eyeball, and the deviation angle associated with the input user identification information, the gazing point on the display panel, that is, the gazing passcode is calculated. Can be done.
本発明の個人認証方法において、予め、ユーザ毎に、眼球の光軸と視軸のズレ角を計測して、パスコードおよびズレ角を、ユーザ識別情報に関連付けして登録した後に、個人認証を行う。
或は、本発明の個人認証方法において、予め、ユーザ毎に、パスコードを設定し、表示パネルに表示されたパスコードに対応する入力キーを注視する際の眼球の光軸の向きをカメラ計測し、入力キーの領域からのズレ角を、眼球の光軸と視軸のズレ角として、ユーザ識別情報に関連付けして登録した後に、個人認証を行う。
In the personal authentication method of the present invention, the deviation angle between the optical axis and the visual axis of the eyeball is measured in advance for each user, and the passcode and the deviation angle are registered in association with the user identification information, and then personal authentication is performed. Do.
Alternatively, in the personal authentication method of the present invention, a passcode is set in advance for each user, and the direction of the optical axis of the eyeball when gazing at the input key corresponding to the passcode displayed on the display panel is measured by the camera. Then, after registering the deviation angle from the input key area as the deviation angle between the optical axis and the visual axis of the eyeball in association with the user identification information, personal authentication is performed.
具体的に、本発明の個人認証方法は、以下の登録ステップと認証ステップから成る。
まず、登録ステップは、下記1)〜4)から構成される。
1)ユーザ毎にユーザ識別情報を設定するユーザ識別情報設定ステップ
2)ユーザ毎にパスコードを設定するパスコード設定ステップ
3)ユーザ毎に、眼球の光軸と視軸とのズレ角を計測するズレ角計測ステップ
4)パスコードとズレ角を、ユーザ識別情報に関連付けして登録する記憶ステップ
Specifically, the personal authentication method of the present invention comprises the following registration step and authentication step.
First, the registration step is composed of the following 1) to 4).
1) User identification information setting for each user User identification information setting step 2) Passcode setting for each user Passcode setting step 3) For each user, measure the deviation angle between the optical axis and the visual axis of the eyeball. Misalignment angle measurement step 4) A storage step in which the passcode and the misalignment angle are registered in association with the user identification information.
次に、認証ステップは、下記5)〜11)から構成される。
5)ユーザ識別情報を入力するユーザ識別情報入力ステップ
6)入力キーを表示パネルに表示する入力キー表示ステップ
7)入力キーが注視された状態を確定する注視状態確定ステップ
8)入力キーが注視された際の眼球の光軸の向きをカメラ計測する光軸計測ステップ
9)計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標算出ステップ
10)表示パネルのピクセル情報と、上記の交点座標と、入力されたユーザ識別情報に関連付けされたズレ角とから、注視されたパスコードを算定するパスコード算定ステップ
11)算定されたパスコードと予め設定したパスコードとを照合するパスコード照合ステップ
Next, the authentication step is composed of the following 5) to 11).
5) Input the user identification information User identification information input step 6) Display the input key on the display panel Input key display step 7) Confirm the state in which the input key is gazed Step 8) Gaze the input key Optical axis measurement that measures the direction of the optical axis of the eyeball with a camera Step 9) From the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel, the intersection coordinates of the optical axis of the eyeball and the display panel Coordinate calculation to be calculated 10) Passcode calculation step 11) Calculation to calculate the watched passcode from the pixel information of the display panel, the above intersection coordinates, and the deviation angle associated with the input user identification information. Passcode matching step to match the entered passcode with the preset passcode
本発明の個人認証方法において、入力キーが注視された際の顔の向きを計測することにより、眼球の光軸から、登録されたズレ角を用いて、視軸を算出することがより好ましい。顔の向きを計測することにより、眼球の視軸を精度良く計算できる。 In the personal authentication method of the present invention, it is more preferable to calculate the visual axis from the optical axis of the eyeball by measuring the orientation of the face when the input key is gazed, using the registered deviation angle. By measuring the orientation of the face, the visual axis of the eyeball can be calculated accurately.
本発明の個人認証方法において、入力キーが表示パネルに表示される際、ユーザと表示パネルの距離に応じて、入力キーのサイズ又は形状を変化させることが好ましい。また、入力キーの視角サイズは、カメラ計測の誤差の範囲より大きく、ズレ角に関して予め設定されたバラツキの範囲よりも小さいことが好ましい。キーの大きさが、視線計測においてバラツキが生ずる範囲より小さいと、キャリブレーションしていても本人の認証精度が悪くなってしまう、すなわち本人拒否率が高くなる。一方で、キーの大きさが、ズレ角に関して予め設定されたバラツキの範囲を超えると、何らかの方法でパスコードを他人に盗まれた場合、他人がなりすますことが可能になってしまう。そこで、上記範囲に設けられるのである。 In the personal authentication method of the present invention, when the input key is displayed on the display panel, it is preferable to change the size or shape of the input key according to the distance between the user and the display panel. Further, it is preferable that the viewing angle size of the input key is larger than the error range of the camera measurement and smaller than the preset variation range of the deviation angle. If the size of the key is smaller than the range in which the line-of-sight measurement causes variation, the authentication accuracy of the person will deteriorate even if the calibration is performed, that is, the false rejection rate will increase. On the other hand, if the size of the key exceeds the preset range of variation regarding the deviation angle, if the passcode is stolen by another person in some way, it becomes possible for another person to impersonate. Therefore, it is provided in the above range.
視線計測における計測値のバラツキは、1〜2°とすることが可能であり、一方、ズレ値のユーザ間のバラツキの範囲は5〜7°であるというため、キーの大きさは、視線情報である立体角が、3〜4°であることを前提に、決定されることが好ましい。これにより、パスコードが盗まれにくく、認証精度が高く、たとえパスコードを盗まれてもなりすましされにくい認証方法が実現できる。 The variation of the measured value in the line-of-sight measurement can be 1 to 2 °, while the range of the variation of the deviation value between users is 5 to 7 °. Therefore, the size of the key is the line-of-sight information. It is preferable that the solid angle is determined on the premise that the solid angle is 3 to 4 °. As a result, it is possible to realize an authentication method in which the passcode is not easily stolen, the authentication accuracy is high, and even if the passcode is stolen, it is difficult to be spoofed.
本発明の個人認証方法において、入力キーの配列の表示は、ランダム配置、前回表示の配置から回転させた配置、前回表示の配置とは異なる配置、前回表示の行列配置の行数と列数の少なくとも何れかを増加させた配置、或は、隣接キーの間隔を変化させた配置で表示パネルに表示することが好ましい。入力キーの配列の表示を変化させることにより、認証の安全性を向上できる。 In the personal authentication method of the present invention, the display of the input key array is as follows: random arrangement, arrangement rotated from the arrangement of the previous display, arrangement different from the arrangement of the previous display, number of rows and columns of the matrix arrangement of the previous display. It is preferable to display on the display panel in an arrangement in which at least one of them is increased, or an arrangement in which the spacing between adjacent keys is changed. Authentication security can be improved by changing the display of the input key array.
本発明の個人認証方法において、眼球の光軸と表示パネルの交点座標を算出する際は、注視開始から所定の経過時間における算出された座標分布の中央値の座標を算出することが好ましい。ここで、所定の経過時間とは1.5〜3秒、より好ましくは2秒である。人が何かに注視しているとき、眼球の光軸と視軸とのズレ角(κ角)は一定であるが、固視微動と呼ばれる眼球のブレが生じており、注視点は定まらない。固視微動にはいくつかの種類があるが、ある点を注視している場合でも、1/3°程度、数Hz/秒程度で眼球が回転している。したがって、ある1フレームにおけるカメラ画像を計測すると、κ角の計測に誤差が発生してしまう。1点を注視させた際の、眼球の光軸と表示パネルの交点座標のバラツキを統計的に調査した結果、長時間計測での平均値との誤差が、固視微動の振幅以下になるのは、注視開始から1.5〜3秒の範囲の何れかの経過時間において算出された座標分布の中央値の座標であることがわかった。 In the personal authentication method of the present invention, when calculating the coordinates of the intersection of the optical axis of the eyeball and the display panel, it is preferable to calculate the coordinates of the median value of the calculated coordinate distribution at a predetermined elapsed time from the start of gaze. Here, the predetermined elapsed time is 1.5 to 3 seconds, more preferably 2 seconds. When a person is gazing at something, the deviation angle (κ angle) between the optical axis of the eyeball and the visual axis is constant, but the eyeball blurring called fixation tremor occurs, and the gazing point cannot be determined. .. There are several types of fixation tremors, but even when gazing at a certain point, the eyeball rotates at about 1/3 ° and several Hz / sec. Therefore, when the camera image in a certain frame is measured, an error occurs in the measurement of the κ angle. As a result of statistically investigating the variation in the coordinates of the intersection between the optical axis of the eyeball and the display panel when gazing at one point, the error from the mean value in long-term measurement is less than the amplitude of fixation tremor. Was found to be the coordinates of the median value of the coordinate distribution calculated in any elapsed time in the range of 1.5 to 3 seconds from the start of gaze.
本発明の個人認証方法において、ユーザ識別情報は、ユーザID、指紋情報、掌紋情報、虹彩情報の少なくとも何れかである。ユーザの識別には、通常、ユーザIDを記憶したIDカードを用いるが、虹彩データ、指紋データ、掌紋データ、その他の個人を識別可能なデータと併用してもよい。 In the personal authentication method of the present invention, the user identification information is at least one of user ID, fingerprint information, palm print information, and iris information. An ID card storing a user ID is usually used for identifying a user, but iris data, fingerprint data, palm print data, and other personally identifiable data may be used in combination.
本発明の個人認証方法における上記の注視状態確定ステップは、具体的には、注視時間検出、確定動作検出、或は、確定意図検出により注視状態を確定する。ここで、注視時間検出とは、例えば表示パネル上のある1点を3秒間注視したことを検出することである。また、確定動作検出とは、ユーザ自身が特定の入力キーを注視したタイミングでボタン操作し、ボタン操作を検出して注視状態を確定させることや、タッチパネルでタッチ操作することや、カメラによる撮像データの画像処理によって、身体の一部の動作を検出して注視状態を確定させることなどである。また、確定意図検出は、例えば、脳波の計測により確定意思を検知することである。 In the above-mentioned gaze state determination step in the personal authentication method of the present invention, specifically, the gaze state is determined by gaze time detection, confirmation motion detection, or confirmation intention detection. Here, the gaze time detection is, for example, to detect that a certain point on the display panel is gazed for 3 seconds. In addition, confirmation motion detection means that the user operates a button at the timing when he / she gazes at a specific input key, detects the button operation to confirm the gaze state, touch-operates with a touch panel, and captures data by a camera. The image processing of the above is to detect the movement of a part of the body and determine the gaze state. Further, the definite intention detection is to detect the definite intention by measuring the brain wave, for example.
次に、本発明の個人認証システムについて説明する。
本発明の個人認証システムは、入力端末と認証サーバがネットワークで接続された認証システムにおいて、入力端末と認証サーバとが下記の技術特徴を有する。
1)認証サーバ
ユーザ毎に計測した眼球の光軸と視軸とのズレ角および設定されたパスコードが、ユーザ識別情報に関連付けして予め記憶されたデータベースを備える。
入力端末から受信したユーザ識別情報と、表示パネルのピクセル情報と、眼球の光軸の向きと表示パネルの空間的な3次元座標と、データベースに記憶されたズレ角とから、注視されたパスコードを算定し、前記データベースに記憶されたパスコードと照合し、照合結果を入力端末に送信する。
2)入力端末
ユーザ識別情報入力手段と、カメラ計測手段と、入力キーを表示する表示パネルとを備える。
ユーザ識別情報入力手段からユーザ識別情報を読み取り、認証サーバに送信する。
表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、計測された眼球の光軸の向きと表示パネルの空間的な3次元座標と、表示パネルのピクセル情報を認証サーバに送信する。
Next, the personal authentication system of the present invention will be described.
The personal authentication system of the present invention is an authentication system in which an input terminal and an authentication server are connected by a network, and the input terminal and the authentication server have the following technical features.
1) Authentication server A database is provided in which the deviation angle between the optical axis and the visual axis of the eyeball measured for each user and the set passcode are associated with the user identification information and stored in advance.
The passcode watched from the user identification information received from the input terminal, the pixel information of the display panel, the orientation of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the deviation angle stored in the database. Is calculated, collated with the passcode stored in the database, and the collation result is transmitted to the input terminal.
2) Input terminal A user identification information input means, a camera measuring means, and a display panel for displaying input keys are provided.
The user identification information is read from the user identification information input means and sent to the authentication server.
When the input key displayed on the display panel is gazed, the direction of the optical axis of the eyeball is measured by the camera, and the measured direction of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the display panel Send the pixel information to the authentication server.
本発明の個人認証システムにおいて、入力キーが注視された際の顔の向きを計測することにより、眼球の光軸からズレ角を用いて、視軸を算出することが好ましい。また、入力キーが表示パネルに表示される際、ユーザと表示パネルの距離に応じて、入力キーのサイズ又は形状を変化させることが好ましい。また、入力キーの視角サイズは、カメラ計測の誤差の範囲より大きく、ズレ角に関して予め設定されたバラツキの範囲よりも小さいことが好ましい。また、入力キーの配列の表示は、ランダム配置、前回表示の配置から回転させた配置、前回表示の配置とは異なる配置、前回表示の行列配置の行数と列数の少なくとも何れかを増加させた配置、或は、隣接キーの間隔を変化させた配置で表示パネルに表示することが好ましい。また、眼球の光軸と表示パネルの交点座標を算出する際は、注視開始から所定の経過時間における算出された座標分布の中央値の座標を算出することが好ましい。 In the personal authentication system of the present invention, it is preferable to calculate the visual axis by measuring the orientation of the face when the input key is gazed, and using the deviation angle from the optical axis of the eyeball. Further, when the input key is displayed on the display panel, it is preferable to change the size or shape of the input key according to the distance between the user and the display panel. Further, it is preferable that the viewing angle size of the input key is larger than the error range of the camera measurement and smaller than the preset variation range of the deviation angle. In addition, the display of the input key array increases at least one of the random arrangement, the arrangement rotated from the arrangement of the previous display, the arrangement different from the arrangement of the previous display, and the number of rows and columns of the matrix arrangement of the previous display. It is preferable to display on the display panel in a different arrangement or in an arrangement in which the spacing between adjacent keys is changed. Further, when calculating the coordinates of the intersection between the optical axis of the eyeball and the display panel, it is preferable to calculate the coordinates of the median value of the coordinate distribution calculated at a predetermined elapsed time from the start of gaze.
本発明の個人認証システムにおいて、ユーザ識別情報入力手段は、ユーザIDが記録されたカードの読み取り装置,指紋情報読み取り装置、掌紋情報読み取り装置、虹彩情報読み取り装置の少なくとも何れかである。
本発明の個人認証システムにおける入力端末には、注視時間検出手段、確定動作検出手段、確定意図検出手段の何れかの注視状態確定手段が更に設けられたことが好ましい。
In the personal authentication system of the present invention, the user identification information input means is at least one of a card reading device in which a user ID is recorded, a fingerprint information reading device, a palm print information reading device, and an iris information reading device.
It is preferable that the input terminal in the personal authentication system of the present invention is further provided with any of the gaze time detecting means, the definite motion detecting means, and the definite intention detecting means.
本発明の認証サーバに搭載されるプログラムは、認証サーバコンピュータを、本発明の個人認証システムにおけるユーザ識別情報受信手段、ズレ角読込み手段、座標受信手段、パスコード算定手段、パスコード照合手段、照合結果送信手段、として機能させるためのプログラムである。
本発明の入力端末に搭載されるプログラムは、入力端末コンピュータを、ユーザ識別情報送信手段、入力キー表示手段、入力キーが注視された状態を検知する手段、光軸計測手段、座標送信手段、照合結果出力手段、として機能させるためのプログラムである。
The program installed in the authentication server of the present invention uses the authentication server computer as a user identification information receiving means, a deviation angle reading means, a coordinate receiving means, a passcode calculating means, a passcode matching means, and a collation in the personal authentication system of the present invention. It is a program for functioning as a result transmission means.
The program mounted on the input terminal of the present invention makes the input terminal computer a user identification information transmitting means, an input key display means, a means for detecting a state in which the input key is gazed, an optical axis measuring means, a coordinate transmitting means, and a collation. It is a program for functioning as a result output means.
また、他の観点によれば、本発明の個人認証方法は、視線でパスコードを入力する個人認証方法において、ユーザ識別情報を入力し、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、表示パネルの空間的な3次元座標と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けて予め登録された眼球の光軸の向きに位置する表示パネル上の入力キーに対応するコードとを用いて認証する。
上記の方法では、眼球の光軸と視軸にズレ角が存在することに着目し、パスコードをシステム側で記憶することなく、眼球の光軸が指すコードをパスワードと擬制して、個人認証する。ユーザは自身で決めたパスコードに対応する入力キーを注視する(システム側ではパスコードはわからない)。眼球の光軸と視軸にズレ角が存在するため、ユーザが注視した入力キーと、眼球の光軸の向きに位置する入力キーが異なることになる。前提として、入力キーの視角サイズは、カメラ計測の誤差の範囲より大きく、眼球の光軸と視軸のズレ角に関して予め設定されたバラツキの範囲よりも小さいことが必要である。
眼球の光軸の向きに位置する入力キーに対応するコードは、システム側で認識可能であるので、これをユーザの決めたパスコードと擬制して、ユーザ識別情報に関連付けて予め登録しておくのである。
認証時は、同様に、入力キーが注視された際の眼球の光軸の向きに位置する入力キーに対応するコードを求め、ユーザ識別情報に関連付け登録されているコード(パスコードと擬制したコード)と照合し、個人認証するのである。
Further, according to another viewpoint, the personal authentication method of the present invention is a personal authentication method in which a passcode is input with a line of sight when user identification information is input and an input key displayed on a display panel is gazed at. , The orientation of the optical axis of the eyeball is measured by the camera, and the spatial three-dimensional coordinates of the display panel, the orientation of the optical axis of the eyeball, and the orientation of the optical axis of the eyeball registered in advance in association with the input user identification information. Authenticate using the code corresponding to the input key on the display panel located at.
In the above method, paying attention to the fact that there is a deviation angle between the optical axis of the eyeball and the visual axis, the code pointed to by the optical axis of the eyeball is imitated as a password without storing the passcode on the system side, and personal authentication is performed. To do. The user pays close attention to the input key corresponding to the passcode decided by the user (the system does not know the passcode). Since there is a deviation angle between the optical axis of the eyeball and the visual axis, the input key gazed by the user and the input key located in the direction of the optical axis of the eyeball are different. As a premise, the viewing angle size of the input key needs to be larger than the error range of the camera measurement and smaller than the preset variation range regarding the deviation angle between the optical axis and the visual axis of the eyeball.
Since the code corresponding to the input key located in the direction of the optical axis of the eyeball can be recognized by the system, it is imitated as a passcode determined by the user and registered in advance in association with the user identification information. It is.
At the time of authentication, similarly, the code corresponding to the input key located in the direction of the optical axis of the eyeball when the input key is gazed is obtained, and the code associated with the user identification information and registered (a code imitated as a passcode) is obtained. ) And personal authentication.
この方法では、眼球の位置とカメラ計測する装置と表示パネルとの位置関係が固定であることが前提条件とされる。また、表示パネルに表示される入力キーの配置も固定である必要がある。そのため、ユーザは認証時の立ち位置、顔の向きなどを毎回同じように振る舞う必要があるが、これらの振る舞いもパスコード同様、ユーザしか知り得ない情報であり、その意味でセキュリティレベルが向上すると言えよう。表示パネルに表示される入力キーの配置は固定であるが、例えば、表示パネルとユーザとの距離が計測し、距離に応じて入力キーのサイズを変更することにより、ユーザの立ち位置についてはある程度の自由度を持たせることでも構わない。
表示パネルとユーザとの距離が計測し、距離に応じて入力キーのサイズを変更することにより、ユーザの立ち位置についてはある程度の自由度を持たせることでも構わない。なお、表示パネルとユーザとの距離が30cmの場合における2種類のズレ角(3°と5°)を考えた場合、tan3°で1.5cmで、tan5°で2.6cmであり、仮にユーザの立ち位置が前後して距離が5cmほど変わったとしても、ズレ角による表示パネル上の眼球の光軸と表示パネルの交点座標のズレはそれほど変化しないことがわかる。但し、顔の向きは重要であり、表示パネルにミラーを設置するか、アプリケーションソフトウェアによりパネルの一部をミラー状のパネルにするか等により、ユーザ自身の顔の位置を確認しながら認証するのが好ましい。
なお、眼球の光軸の向きに位置する表示パネル上の入力キーに対応するコードと代替えとして、眼球の光軸と表示パネルの交点座標を登録しておき、認証時に得られる交点座標が、登録された交点座標から一定の距離内であるか否かで認証することも可能であろう。
In this method, it is a precondition that the positional relationship between the position of the eyeball, the device for measuring the camera, and the display panel is fixed. In addition, the arrangement of the input keys displayed on the display panel also needs to be fixed. Therefore, the user needs to behave in the same way each time, such as the standing position and face orientation at the time of authentication, but these behaviors are information that only the user can know like the passcode, and in that sense, if the security level is improved. I can say. The arrangement of the input keys displayed on the display panel is fixed, but for example, by measuring the distance between the display panel and the user and changing the size of the input keys according to the distance, the user's standing position can be determined to some extent. It is also possible to give the degree of freedom of.
By measuring the distance between the display panel and the user and changing the size of the input key according to the distance, the user's standing position may be given a certain degree of freedom. Considering the two types of deviation angles (3 ° and 5 °) when the distance between the display panel and the user is 30 cm, the tan 3 ° is 1.5 cm and the tan 5 ° is 2.6 cm. It can be seen that the deviation between the optical axis of the eyeball on the display panel and the coordinates of the intersection of the display panel due to the deviation angle does not change so much even if the standing position of the eye changes by about 5 cm. However, the orientation of the face is important, and authentication is performed while confirming the position of the user's own face by installing a mirror on the display panel or using application software to make a part of the panel a mirror-like panel. Is preferable.
As an alternative to the code corresponding to the input key on the display panel located in the direction of the optical axis of the eyeball, the intersection coordinates of the optical axis of the eyeball and the display panel are registered, and the intersection coordinates obtained at the time of authentication are registered. It would be possible to authenticate by whether or not it is within a certain distance from the coordinates of the intersection.
具体的に、他の観点の個人認証方法は、以下の登録ステップと認証ステップから成る。
登録ステップは、下記1)〜5)から構成される。
1)ユーザ毎にユーザ識別情報を設定するユーザ識別情報設定ステップ
2)ユーザ自身がパスコードを決定するパスコード決定ステップ
3)ユーザ毎に、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測する光軸事前計測ステップ
4)計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標事前算出ステップ
5)交点座標に位置する入力キーに対応するコードを、ユーザ識別情報に関連付けして登録する記憶ステップ
Specifically, the personal authentication method from another viewpoint consists of the following registration step and authentication step.
The registration step consists of the following 1) to 5).
1) User identification information setting for each user Step 2) Passcode determination step for the user to determine the passcode 3) When the input key displayed on the display panel is watched for each user , Optical axis pre-measurement to measure the direction of the optical axis of the eyeball with a camera Step 4) Calculate the intersection coordinates of the optical axis of the eyeball and the display panel from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel. Coordinate pre-calculation step 5) A storage step of registering a code corresponding to an input key located at an intersection coordinate in association with user identification information.
また、認証ステップは、下記6)〜12)から構成される。
6)ユーザ識別情報を入力するユーザ識別情報入力ステップ
7)入力キーを表示パネルに表示する入力キー表示ステップ
8)入力キーが注視された状態を確定する注視状態確定ステップ
9)入力キーが注視された際の眼球の光軸の向きをカメラ計測する光軸計測ステップ
10)計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標算出ステップ
11)表示パネルのピクセル情報と、上記の交点座標とから、眼球の光軸の向きに位置する入力キーに対応するコードを算定するコード算定ステップ
12)算定されたコードとユーザ識別情報に関連付けて登録されているコードとを照合するコード照合ステップ
The authentication step is composed of the following 6) to 12).
6) Input the user identification information User identification information input step 7) Display the input key on the display panel Input key display step 8) Confirm the state in which the input key is gazed Step 9) Gaze the input key Optical axis measurement step 10) Measuring the direction of the optical axis of the eyeball with a camera The intersection coordinate of the optical axis of the eyeball and the display panel from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel. Coordinates to be calculated Step 11) Code to calculate the code corresponding to the input key located in the direction of the optical axis of the eyeball from the pixel information of the display panel and the above intersection coordinates Step 12) Calculated code and user Code matching step to match the code registered in association with the identification information
また、他の観点によれば、本発明の個人認証システムは、入力端末と認証サーバがネットワークで接続された認証システムにおいて、入力端末と認証サーバとが下記の技術特徴を有する。
A)認証サーバ
ユーザ毎に計測した眼球の光軸と表示パネルの交点座標に位置する入力キーに対応するコードが、ユーザ識別情報に関連付けして予め記憶されたデータベースを備える。
入力端末から受信したユーザ識別情報と、表示パネルのピクセル情報と、眼球の光軸の向きと表示パネルの空間的な3次元座標とから、眼球の光軸の向きに位置する入力キーに対応するコードを算定し、データベースに記憶されたコードと照合し、照合結果を入力端末に送信する。
B)入力端末
ユーザ識別情報入力手段と、カメラ計測手段と、入力キーを表示する表示パネルとを備える。
ユーザ識別情報入力手段からユーザ識別情報を読み取り、認証サーバに送信する。
表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、計測された眼球の光軸の向きと表示パネルの空間的な3次元座標と、表示パネルのピクセル情報を認証サーバに送信する。
Further, from another viewpoint, the personal authentication system of the present invention is an authentication system in which an input terminal and an authentication server are connected by a network, and the input terminal and the authentication server have the following technical features.
A) Authentication server A database in which a code corresponding to an input key located at the intersection coordinate between the optical axis of the eyeball and the display panel measured for each user is stored in advance in association with the user identification information is provided.
From the user identification information received from the input terminal, the pixel information of the display panel, the orientation of the optical axis of the eyeball, and the spatial three-dimensional coordinates of the display panel, it corresponds to the input key located in the orientation of the optical axis of the eyeball. The code is calculated, collated with the code stored in the database, and the collation result is sent to the input terminal.
B) Input terminal A user identification information input means, a camera measuring means, and a display panel for displaying input keys are provided.
The user identification information is read from the user identification information input means and sent to the authentication server.
When the input key displayed on the display panel is gazed, the direction of the optical axis of the eyeball is measured by the camera, and the measured direction of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the display panel Send the pixel information to the authentication server.
本発明の個人認証方法および個人認証システムによれば、視線を用いて多数の対象者の中から個人認証が可能であり、パスコードの盗まれにくさと成りすましにくさを高め、パスコード認証の安全性を向上させるといった効果がある。 According to the personal authentication method and the personal authentication system of the present invention, personal authentication can be performed from a large number of target persons by using the line of sight, and the passcode is less likely to be stolen and spoofed. It has the effect of improving safety.
以下、本発明の実施形態の一例を、図面を参照しながら詳細に説明していく。なお、本発明の範囲は、以下の実施例や図示例に限定されるものではなく、幾多の変更及び変形が可能である。 Hereinafter, an example of the embodiment of the present invention will be described in detail with reference to the drawings. The scope of the present invention is not limited to the following examples and illustrated examples, and many modifications and modifications can be made.
人の視覚において、視軸(眼球と、視覚により知覚している対象の中心を結ぶ軸)と眼球の光軸(眼球を回転体としてとらえた場合の、幾何的な中心軸)の間には、約5°のズレがあることが知られている。これはκ角(眼球の光軸と視軸のズレ角)と呼ばれる。
視軸は、中心窩と呼ばれる、眼球の黄班の中心部に位置する錐体細胞が最も密に分布する部分、つまり最も視力のよい部分の位置に依存する。図15に示すように、中心窩の位置には個人差がある。なお、眼球の光軸は外部から計測可能であるのに対して、視軸は、人の知覚に依存しており、3次元モデルに基づく視線計測装置を用いない場合には、外部から計測しにくい。
In human vision, between the visual axis (the axis connecting the eyeball and the center of the object perceived by vision) and the optical axis of the eyeball (the geometric central axis when the eyeball is regarded as a rotating body). , It is known that there is a deviation of about 5 °. This is called the κ angle (the angle of deviation between the optical axis and the visual axis of the eyeball).
The axis of vision depends on the location of the most densely distributed cone cells, the part with the best vision, located in the center of the macula of the eye, called the fovea. As shown in FIG. 15, there are individual differences in the position of the fovea. The optical axis of the eyeball can be measured from the outside, whereas the visual axis depends on human perception, and when a line-of-sight measuring device based on a three-dimensional model is not used, it is measured from the outside. Hateful.
ちなみに、市販されている一般的な視線計測装置では、ディスプレイの2次元平面と、眼球を撮影したカメラの2次元平面を対応づけることで、人がどこを見ているかを計測している。
そのため、装置の使用前に、例えば、画面上の5点を見させ、その際のディスプレイ座標と、カメラで撮影した眼球の座標を対応づけるキャリブレーションを行う。なお、一般的には、キャリブレーションを行わない視線計測装置では、κ角に相当する約5°は校正されず、誤差として残る。
By the way, in a general line-of-sight measuring device on the market, where a person is looking is measured by associating the two-dimensional plane of the display with the two-dimensional plane of the camera in which the eyeball is photographed.
Therefore, before using the device, for example, five points on the screen are viewed, and calibration is performed to associate the display coordinates at that time with the coordinates of the eyeball photographed by the camera. In general, in a line-of-sight measuring device that does not perform calibration, about 5 ° corresponding to the κ angle is not calibrated and remains as an error.
本実施例においては、3次元モデルに基づく視線計測装置を用い、複数台のカメラや光源を用いることで、眼球の光軸を3次元ベクトルとして算出し、また、眼球の光軸と視軸のズレ、すなわちκ角を求め、校正することで、視軸の3次元ベクトルを求める。このベクトルと、対象物との交点が、注視点である。つまり、一般的な視線計測装置とは、キャリブレーションの内容が異なる。 In this embodiment, a line-of-sight measuring device based on a three-dimensional model is used, and by using a plurality of cameras and light sources, the optical axis of the eyeball is calculated as a three-dimensional vector, and the optical axis and the visual axis of the eyeball are calculated. The deviation, that is, the κ angle is obtained and calibrated to obtain the three-dimensional vector of the optical axis. The intersection of this vector with the object is the point of gaze. That is, the content of the calibration is different from that of a general line-of-sight measuring device.
一般的な視線計測装置では、キャリブレーションに用いられるパラメータがディスプレイやカメラ等の配置に依存しているのに対し、κ角は常に一定と考えてよい。
κ角は、身長等と同じように、個人差はあるものの、正規分布すると考えられ、同一の値をとる可能性もある。したがって、指紋や光彩のように、それそのものを特徴量として、個人を識別することはできない。ただし、身長は1次元の特徴量であるのに対し、κ角は、上下方向と左右方向の2次元の値をとる特徴量である。
また、κ角を計測した際の顔の向き、すなわち計測角度についても個人情報として記録される。かかる情報がなければ、正確な個人情報として利用できないからである。ここで、基準となる角度は水平と垂直である。
In a general line-of-sight measuring device, the parameters used for calibration depend on the arrangement of the display, the camera, and the like, whereas the κ angle can be considered to be always constant.
Like height, κ angle is considered to be normally distributed, although there are individual differences, and it is possible that it will take the same value. Therefore, it is not possible to identify an individual by using itself as a feature, such as a fingerprint or a glow. However, while height is a one-dimensional feature, κ angle is a feature that takes two-dimensional values in the vertical and horizontal directions.
In addition, the orientation of the face when the κ angle is measured, that is, the measurement angle is also recorded as personal information. This is because without such information, it cannot be used as accurate personal information. Here, the reference angles are horizontal and vertical.
図1は、実施例1の個人認証システムの概略図である。図1に示すように、個人認証システム1は、入力端末2、認証サーバ3およびネットワーク5から成り、入力端末2には、画面を表示する表示装置21、視線による入力を確定する確定装置22、眼球の光軸を計測する計測装置23および個人を識別するための識別装置24が設けられている。
ネットワーク5は、入力端末2と認証サーバ3の間のデータの送受信で用いる。本実施例とは異なり、ネットワーク5を設けず、入力端末2と認証サーバ3が直接繋がったスタンドアロン型の機器であってもよい。
認証サーバ3は、照合手段32において、データを蓄積するデータベース31と入力されたデータとを照合し、認証の可否を判断する。また、ネットワーク5を通じてその結果を入力端末2に伝える。
FIG. 1 is a schematic view of the personal authentication system of the first embodiment. As shown in FIG. 1, the personal authentication system 1 includes an input terminal 2, an authentication server 3, and a network 5, and the input terminal 2 includes a display device 21 for displaying a screen, a confirmation device 22 for confirming input by a line of sight, and the input terminal 2. A measuring device 23 for measuring the optical axis of the eyeball and an identification device 24 for identifying an individual are provided.
The network 5 is used for transmitting and receiving data between the input terminal 2 and the authentication server 3. Unlike this embodiment, it may be a stand-alone device in which the input terminal 2 and the authentication server 3 are directly connected without providing the network 5.
The authentication server 3 collates the input data with the database 31 that stores the data in the collation means 32, and determines whether or not the authentication is possible. In addition, the result is transmitted to the input terminal 2 through the network 5.
ズレ角(κ角)を計測するためには、眼球の光軸と表示パネルの交点座標(以下、「眼球の光軸座標」と称する)の正確な抽出が必要となる。
人が何かに注視しているとき、κ角は一定であるが、固視微動と呼ばれる、眼球のブレが生じており、注視点は定まらない。固視微動にはいくつかの種類があるが、ある点を注視している場合でも、1/3°程度、数Hz/秒程度で眼球が回転している。したがって、ある1フレームにおけるカメラ画像を計測すると、κ角の計測に誤差が発生してしまう。
In order to measure the deviation angle (κ angle), it is necessary to accurately extract the coordinates of the intersection of the optical axis of the eyeball and the display panel (hereinafter referred to as “optical axis coordinates of the eyeball”).
When a person is gazing at something, the κ angle is constant, but eye movements called fixation tremors occur, and the gazing point cannot be determined. There are several types of fixation tremors, but even when gazing at a certain point, the eyeball rotates at about 1/3 ° and several Hz / sec. Therefore, when the camera image in a certain frame is measured, an error occurs in the measurement of the κ angle.
図6はズレ角(κ角)の計測例を示している。この例では、横(x座標)1024ピクセル、縦(y座標)768ピクセルの15インチディスプレイを設置し、人との距離を50cmに固定して計測している。3次元モデルに基づく視線計測装置を用いて、一点を注視させた際の眼球の光軸のx座標の度数を集計している。(1)は、リラックス時の人の瞬きの間隔である3秒間注視させた場合の度数であり、(2)は、正確な注視のポイントを計測するために行った90秒間注視させた場合の度数を示している。図6(1)に示すように、短時間での視線計測では、注視する点の座標の出現座標は正規分布になっていない。これに対し、図6(2)に示すように、長時間計測では正規分布となっている。 FIG. 6 shows an example of measuring the deviation angle (κ angle). In this example, a 15-inch display having 1024 pixels in the horizontal direction (x coordinate) and 768 pixels in the vertical direction (y coordinate) is installed, and the distance to a person is fixed at 50 cm for measurement. Using a line-of-sight measuring device based on a three-dimensional model, the power of the x-coordinate of the optical axis of the eyeball when one point is gazed is totaled. (1) is the frequency when the person is gazed for 3 seconds, which is the interval between blinks of a person during relaxation, and (2) is the frequency when the person is gazed for 90 seconds, which is performed to measure an accurate gaze point. Shows the frequency. As shown in FIG. 6 (1), in the line-of-sight measurement in a short time, the appearance coordinates of the coordinates of the points to be watched do not have a normal distribution. On the other hand, as shown in FIG. 6 (2), it has a normal distribution in long-term measurement.
図7は、正規分布となった長時間計測での平均値を解とした場合の、短時間での計測における平均値、中央値および最頻値の関係図を示している。すなわち、どの程度のフレーム数で、眼球の光軸座標に対して収束していくかを示すものである。なお、本実施例の個人認証システムの処理速度は約15フレーム/秒である。
誤差は固視微動の振幅以下(本実験では10ピクセル以下)になればよいと考えられるので、図7に示すように、注視開始から2秒間の中央値をとることが,短時間で正確な眼球の光軸座標を求めるために最適があることが分かる。そこで、本実施例では、注視開始から2秒間の中央値をとり、使用している。
FIG. 7 shows a relationship diagram of the mean value, the median value, and the mode value in the short-time measurement when the average value in the long-time measurement having a normal distribution is used as the solution. That is, it indicates how many frames are required to converge with respect to the optical axis coordinates of the eyeball. The processing speed of the personal authentication system of this embodiment is about 15 frames / second.
Since it is considered that the error should be less than the amplitude of the fixation tremor (10 pixels or less in this experiment), it is accurate in a short time to take the median value for 2 seconds from the start of gaze as shown in FIG. It can be seen that there is an optimum for obtaining the optical axis coordinates of the eyeball. Therefore, in this embodiment, the median value for 2 seconds from the start of gaze is taken and used.
認証端末の表示装置に、どのような画面を表示すべきかについては、人の視覚特性に加えて、システムのロバスト性(=本人拒否率)、安全性(=他人受入率)に関係するため、これをどうデザインすべきか非常に重要である。 What kind of screen should be displayed on the display device of the authentication terminal is related to the robustness (= false rejection rate) and safety (= false acceptance rate) of the system in addition to the visual characteristics of the person. How to design this is very important.
図8は、ズレ角(κ角)の分布図である。κ角は、5°程度であるが、上下方向および左右方向の2次元座標に分布しており、実際には、図8に示すように正規分布すると考えられる。なお、人の視覚特性について考えると、左右の眼球の構造は完全に同一ではなく、中心窩の位置も必ずしも左右対称ではない。また、効き目が存在する。このような条件下で、視覚は、視神経からの情報が脳内で適切に処理されて、知覚されていることに注意する必要がある(=理論的に、視軸は外部から計測できない)。とくに、左目あるいは右目の、片目だけのκ角を計測した場合には、図8よりも分布が広くなる可能性が高い。なぜなら、左右の眼球の運動は一致しているため、片目で計測したκ角を用いて視線計測を行っても誤差は大きくならないものの、効き目でない側の眼球は、対象物とは異なる点を見ている可能性も高いからである。
いずれにせよ、κ角の分布から、キーの大きさを定めることができる。まず、最小のサイズは、個人のκ角の計測誤差に依存する。これは主に、前述の固視微動による誤差と、システムの計測誤差を加えた範囲になると考えられる。この長さをlminとする。
FIG. 8 is a distribution map of the deviation angle (κ angle). Although the κ angle is about 5 °, it is distributed in two-dimensional coordinates in the vertical and horizontal directions, and is actually considered to be normally distributed as shown in FIG. Considering the visual characteristics of human beings, the structures of the left and right eyeballs are not completely the same, and the positions of the fovea are not necessarily symmetrical. There is also an effect. Under such conditions, vision needs to be aware that information from the optic nerve is properly processed and perceived in the brain (= theoretically, the visual axis cannot be measured from the outside). In particular, when the κ angle of only one eye of the left or right eye is measured, the distribution is likely to be wider than that of FIG. This is because the movements of the left and right eyeballs are the same, so even if the line-of-sight measurement is performed using the κ angle measured with one eye, the error does not increase, but the eyeball on the non-effective side sees a point different from the object. This is because there is a high possibility that it is.
In any case, the size of the key can be determined from the distribution of the κ angle. First, the minimum size depends on the measurement error of the individual κ angle. This is considered to be mainly in the range of the above-mentioned error due to fixation tremor and the measurement error of the system. Let this length be l min .
次に、キーの最大サイズは、安全性に依存する。κ角の分布を度数に従い、n等分する。分割時の距離は、縦方向、横方向ともに、中央の長さが短く、周囲に広がるにつれて長くなるが、この中で、最小の長さをlmaxとする。縦方向、横方向ともにn等分しているので、あるユーザが他のユーザになりすまされる確率は、1/n2になる。このとき、サイズよりもキーが大きくなると、なりすまされる確率が上がる。一方で、nを大きくしすぎるとlminより小さくなってしまい、個人が識別できなくなる。図9は、nを3として、実際に計測した9人に対してサイズの割り当てを行った例である。計測人数が少ないため、各枠内に1人というわけではないが、人数が多くなると、枠内の人数が1/n2に一致していくと考えられる。 Second, the maximum key size depends on security. Divide the distribution of κ angles into n equal parts according to the frequency. The distance at the time of division is short in the center in both the vertical and horizontal directions and increases as it spreads to the periphery. Among them, the minimum length is l max . Since it is divided into n equal parts in both the vertical direction and the horizontal direction, the probability that a certain user is impersonated by another user is 1 / n 2 . At this time, if the key is larger than the size, the probability of being spoofed increases. On the other hand, if n is made too large, it becomes smaller than l min , and an individual cannot be identified. FIG. 9 shows an example in which the size is assigned to 9 actually measured persons, where n is 3. Since the number of people to be measured is small, it is not one person in each frame, but as the number of people increases, it is thought that the number of people in the frame will match 1 / n 2 .
本実施例では、システムの利用人数が多数であると想定し、なりすまされる確率を最も低くするように分布を分割している。家や車のカギなど、数人しか利用しない場合には、ユーザ達以外のκ角について拒否するように設定してもよい。 In this embodiment, it is assumed that the number of people using the system is large, and the distribution is divided so as to minimize the probability of being spoofed. When only a few people use it, such as the key to a house or a car, it may be set to reject κ angles other than the users.
以上より、キーの大きさ、すなわちキーの1辺の長さをlkeyとすると、前述のlmin、lmaxを用いると、画面表示におけるキーのサイズは、下記式1に示す範囲内であればよい。 From the above, assuming that the size of the key, that is, the length of one side of the key is l key , using the above-mentioned l min and l max , the size of the key on the screen display should be within the range shown in the following equation 1. Just do it.
(数1)
lmax>lkey>lmin ・・・ (式1)
(Number 1)
l max > l key > l min ... (Equation 1)
図10は、ズレ角(κ角)の分布範囲を規定した図を示している。これは、左目を角度0°で計測した場合で、図9の分布をすべて含む面である。ここでは、通常、上方向にズレがあることと、左目では、右方向のズレのほうが大きくなっている。 FIG. 10 shows a diagram defining the distribution range of the deviation angle (κ angle). This is the case where the left eye is measured at an angle of 0 °, and is a surface including all the distributions in FIG. Here, there is usually an upward deviation, and for the left eye, the right deviation is larger.
図11は、スクリーンに表示する画面サイズと、眼球の光軸を計測すべき範囲を示した図である。
スクリーンに表示する画面サイズを個人間分散幅6と仮定すると、左上に対して右下のズレ、右上に対して左下のズレ、左下に対して右上のズレ、右下に対して左上のズレの利用者でも計測可能にする必要があるので、全体として、眼球の光軸を計測すべき範囲は、視線計測対象範囲7に定まる。これに対しては、公知の方法で、カメラや光源を配置すればよい。
FIG. 11 is a diagram showing a screen size displayed on the screen and a range in which the optical axis of the eyeball should be measured.
Assuming that the screen size displayed on the screen is the inter-individual variance width 6, the deviation of the lower right with respect to the upper left, the deviation of the lower left with respect to the upper right, the deviation of the upper right with respect to the lower left, and the deviation of the upper left with respect to the lower right. Since it is necessary for the user to be able to measure the optical axis, the range in which the optical axis of the eyeball should be measured is determined to be the line-of-sight measurement target range 7. For this, a camera or a light source may be arranged by a known method.
キーは、上述の大きさおよび範囲のなかであれば、どのように表示してもよい。ただし、どのような配列にするかによって安全性が変化する。
図12は表示画面におけるキー配列例であり、(1)はテンキー方式、(2)はランダム方式を示している。図12(1)に示すように、テンキーを固定で表示している場合は、κ角が常に一定のため、1、2、3又は4などの入力からκ角を推定できるが、図12(2)に示すようなランダムキーを用いると、1と入力するのでも、異なる1を見て入力することもできるため、κ角の推定は難しくなる。なお、本実施例では、テンキー方式を採用している。
キー配列の画面を認証サーバから送信し、入力端末に表示させることで、キー入力の安全性を高めることができる。
The key may be displayed in any size and range described above. However, the safety changes depending on the arrangement.
FIG. 12 shows an example of the key layout on the display screen, (1) shows the numeric keypad method, and (2) shows the random method. As shown in FIG. 12 (1), when the numeric keypad is fixedly displayed, the κ angle can be estimated from inputs such as 1, 2, 3 or 4 because the κ angle is always constant. If a random key as shown in 2) is used, it is possible to input 1 by looking at a different 1 and input it, which makes it difficult to estimate the κ angle. In this embodiment, the numeric keypad method is adopted.
By sending the screen of the keyboard layout from the authentication server and displaying it on the input terminal, the security of key input can be enhanced.
以下、個人認証システム1の使用方法について説明する。
個人認証システム1の使用は、登録ステップと認証ステップに分けられる。
まず、登録ステップでは、事前に個人のIDを発行し、そのIDに対応したパスコードを、サービス提供者あるいは本人が決定する。加えて、κ角と、計測角度を利用する。ここで、3次元モデルを導入した視線計測装置を1度だけ利用し、キャリブレーションすることで、κ角と計測角度を求める。
Hereinafter, how to use the personal authentication system 1 will be described.
The use of the personal authentication system 1 is divided into a registration step and an authentication step.
First, in the registration step, an individual ID is issued in advance, and the service provider or the person himself / herself determines a passcode corresponding to the ID. In addition, the κ angle and the measurement angle are used. Here, the κ angle and the measurement angle are obtained by calibrating the line-of-sight measurement device that has introduced the three-dimensional model only once.
κ角と計測角度は、認証サーバのデータベースに記録され、パスコードの一部としても利用される。この場合、入力端末の側では、表示装置のピクセル情報と、眼球の光軸の座標を送れば、認証サーバの側でパスコードを復元することができるため、パスコードそのものは入力端末でも、ネットワークでも入力されていないので、安全にパスコード入力できる。
以上の方法で必要な情報を登録すれば、システムが利用可能になる。
The κ angle and measurement angle are recorded in the database of the authentication server and are also used as part of the passcode. In this case, if the pixel information of the display device and the coordinates of the optical axis of the eyeball are sent on the input terminal side, the passcode can be restored on the authentication server side, so the passcode itself can be used on the input terminal as well as on the network. But since it has not been entered, you can safely enter the passcode.
If you register the necessary information by the above method, the system can be used.
次に、認証ステップについて説明する。図2は、実施例1の認証ステップのイメージ図を示している。
図2に示すように、まず、識別装置24でユーザ4のIDを読み取り、どの個人であるかを特定する。個人IDは一般的には数字や文字からなる文字列であるが、生体情報をこれの代わりに利用することで、利便性を高めることができる。本実施例では、図2に示すように、指紋をIDとして用いている。このように、家や車の鍵の代わりに、指紋をIDとし、4桁のPINとκ角をパスコードとすることで、ロックを解除するようにすれば、PINが知られたとしても、他人ではなりすましづらい。なお、本実施例とは異なり、磁気カードや文字入力によってもよい。
Next, the authentication step will be described. FIG. 2 shows an image diagram of the authentication step of the first embodiment.
As shown in FIG. 2, first, the identification device 24 reads the ID of the user 4 to identify which individual the user is. The personal ID is generally a character string consisting of numbers and characters, but by using biometric information instead of this, convenience can be enhanced. In this embodiment, as shown in FIG. 2, a fingerprint is used as an ID. In this way, if you unlock by using a fingerprint as an ID and a 4-digit PIN and κ angle as a passcode instead of a house or car key, even if the PIN is known, It is difficult for others to impersonate. In addition, unlike this embodiment, a magnetic card or character input may be used.
次に、表示装置21の画面表示を見て、情報を入力する。ただし、視線による入力の場合、ミダスタッチ問題という問題がある。これは、例えば、ただ見ているだけで入力されてしまうといった、意図しない動作を引き起こすことをいう。そのため、数秒注視されたことを検出する、ボタンを押すなど、視線による入力を確定させる確定装置22が必要である。この際、計測装置23でユーザの眼球の光軸を計測しておく。こうして計測されたデータは、ネットワーク5を介して認証サーバ3に送られる。 Next, the information is input by looking at the screen display of the display device 21. However, in the case of input by the line of sight, there is a problem of the midas touch problem. This means that it causes an unintended operation, for example, it is input just by looking at it. Therefore, a confirmation device 22 for confirming the input by the line of sight, such as detecting that the person has been gazed for several seconds or pressing a button, is required. At this time, the measuring device 23 measures the optical axis of the user's eyeball. The data measured in this way is sent to the authentication server 3 via the network 5.
認証サーバ3では、送られてきたデータをもとに、パスコードを照合する。すなわち、表示装置のピクセル情報とκ角、計測角度の情報を利用して、認証サーバでパスコードを復元する。復元したパスコードと、登録ステップで入力されたパスコードと照合し、これが一致すれば認証が完了する。 The authentication server 3 collates the passcode based on the sent data. That is, the passcode is restored by the authentication server using the pixel information of the display device, the κ angle, and the measurement angle information. The restored passcode is collated with the passcode entered in the registration step, and if they match, authentication is complete.
図3は、インタラクティブパスワードの説明図を示している。ここで、インタラクティブパスワードとは、既に記録されているκ角と計測角度を利用して、インタラクティブにパスワードを入力させる仕組みのことをいい、本実施例では、かかる仕組みを使用している。また、「パスワード」とは、「パスコード」と同義で用いている。
図3に示すように、ユーザ4がPINを入力する前に、認証サーバ3から入力端末2に対して、表示装置21に表示する表示画像(21a,21b)が事前に送信されている。
FIG. 3 shows an explanatory diagram of the interactive password. Here, the interactive password refers to a mechanism for interactively inputting a password by using the already recorded κ angle and measurement angle, and in this embodiment, such a mechanism is used. Moreover, "password" is used synonymously with "passcode".
As shown in FIG. 3, before the user 4 inputs the PIN, the display images (21a, 21b) to be displayed on the display device 21 are transmitted in advance from the authentication server 3 to the input terminal 2.
図4は、ズレ角(κ角)が上にあるユーザにおける横並びのパスコード入力の説明図であり、(1)は入力キーの配置、(2)は視線(視軸)の動き、(3)は眼球の光軸と表示パネルの交点座標の動きを示している。図4(1)に示すように、表示画像21aでは、1〜9の数字は、左上から横に順に配置されている。ズレ角(κ角)が上にあるユーザであって、横並びのパスコード入力の場合、パスコードが1、2、3、4の順で有ると、視線(視軸)の動きは、図4(2)の矢印に示すように1、2、3、4の順に見ることになる。これに対して、眼球の光軸と表示パネルの交点座標の動きは、眼球の光軸と視軸のズレ角(κ角)の影響で、図4(3)の矢印に示すように、4、5、6、7の順に移動することになる。 FIG. 4 is an explanatory diagram of side-by-side passcode input for a user whose deviation angle (κ angle) is on the top, (1) is the arrangement of input keys, (2) is the movement of the line of sight (optical axis), and (3). ) Indicates the movement of the optical axis of the eyeball and the coordinates of the intersection of the display panel. As shown in FIG. 4 (1), in the display image 21a, the numbers 1 to 9 are arranged in order from the upper left to the horizontal. In the case of a user whose deviation angle (κ angle) is on the top and the passcodes are input side by side, if the passcodes are in the order of 1, 2, 3, 4, the movement of the line of sight (line of sight) is shown in FIG. As shown by the arrow in (2), they are viewed in the order of 1, 2, 3, and 4. On the other hand, the movement of the intersection coordinate between the optical axis of the eyeball and the display panel is affected by the deviation angle (κ angle) between the optical axis of the eyeball and the visual axis, and is 4 as shown by the arrow in FIG. 4 (3). It will move in the order of 5, 6 and 7.
図5は、ズレ角(κ角)が上にあるユーザにおける縦並びのパスコード入力の説明図であり、(1)は入力キーの配置、(2)は視線(視軸)の動き、(3)は眼球の光軸と表示パネルの交点座標の動きを示している。図5(1)に示すように、表示画像21bでは、1〜9の数字は、左上から縦に順に配置されている。ズレ角(κ角)が上にあるユーザであって、縦並びのパスコード入力の場合、パスコードが1、2、3、4の順で有ると、視線(視軸)の動きは、図5(2)の矢印に示すように1、2、3、4の順に見ることになる。これに対して、眼球の光軸と表示パネルの交点座標の動きは、図5(3)の矢印に示すように、2、3、欄外21e、5の順に移動することになる。
このように、同じ番号であっても、眼球の光軸と視軸のズレ角(κ角)の影響により、眼球の光軸と表示パネルの交点座標が変化するので、入力端末2において、ズレ角(κ角)を推定することが難しくなる。
FIG. 5 is an explanatory diagram of vertically arranged passcode input for a user whose deviation angle (κ angle) is on the top, (1) is the arrangement of input keys, (2) is the movement of the line of sight (optical axis), and ( 3) shows the movement of the optical axis of the eyeball and the coordinates of the intersection of the display panel. As shown in FIG. 5 (1), in the display image 21b, the numbers 1 to 9 are arranged in order from the upper left to the vertical. In the case of a user whose deviation angle (κ angle) is on the top and the passcodes are input vertically, if the passcodes are in the order of 1, 2, 3, 4, the movement of the line of sight (line of sight) is shown in the figure. As shown by the arrow in 5 (2), they are viewed in the order of 1, 2, 3, and 4. On the other hand, the movement of the intersection coordinate between the optical axis of the eyeball and the display panel moves in the order of 2, 3 and margins 21e and 5 as shown by the arrow in FIG. 5 (3).
In this way, even if the numbers are the same, the coordinates of the intersection between the optical axis of the eyeball and the display panel change due to the influence of the deviation angle (κ angle) between the optical axis of the eyeball and the visual axis. It becomes difficult to estimate the angle (κ angle).
本実施例の個人認証システム1を用いて、ズレ角(κ角)の分布を計測した。
まず、ボタンサイズ(ボタンの幅)を決定するために実験協力者10人の視軸の分散を抽出した。個人間の標準偏差はx軸方向に103.0971245、y軸方向に70.85036246、であるのに対し、個人内の標準偏差はx軸方向に45.03250907、y軸方向に35.66371922であったため、下記式2が成立することを確認した。
The distribution of the deviation angle (κ angle) was measured using the personal authentication system 1 of this example.
First, in order to determine the button size (button width), the variance of the visual axis of 10 experimental collaborators was extracted. The standard deviation between individuals is 103.0971245 in the x-axis direction and 70.85036246 in the y-axis direction, while the standard deviation within an individual is 45.0325907 in the x-axis direction and 35.66371922 in the y-axis direction. Therefore, it was confirmed that the following equation 2 holds.
(数2)
lmax>lmin ・・・ (式2)
(Number 2)
l max > l min ... (Equation 2)
図13は、ユーザ10人のκ角の分散を示した図である。κ角の分布を度数に従い、3等分を行っている。ピクセルにするとおよそ150px四方の閾値であったため、150px四方のボタンを設定した。また、この値はlmaxを9等分した値に等しいので、下記式3が成立している。 FIG. 13 is a diagram showing the variance of the κ angle of 10 users. The distribution of the κ angle is divided into three equal parts according to the frequency. Since the threshold value was about 150 px square in pixels, a button of 150 px square was set. Further, since this value is equal to the value obtained by dividing l max into nine equal parts, the following equation 3 holds.
(数3)
lmax>lkey ・・・ (式3)
(Number 3)
l max > l key ... (Equation 3)
本実施例の個人認証システム1を用いて、自己認証率と他者排他率を計測した。
まず、ユーザが自身のパスコード“3759”を設定し、10回の実証のもと100%システムに入ることができることを確認した。次に、パスコード“3759”が盗まれたと仮定し、ユーザ以外の人間がシステムに侵入できるかという試行を10回行った。結果は、侵入成功率0%であった。
The self-authentication rate and the exclusion rate of others were measured using the personal authentication system 1 of this embodiment.
First, it was confirmed that the user could set his own passcode "3759" and enter the system 100% after 10 demonstrations. Next, assuming that the passcode "3759" was stolen, 10 trials were made to see if a person other than the user could break into the system. The result was an intrusion success rate of 0%.
図16は、登録ステップ及び認証ステップの処理フローを示している。図16に示すように、登録ステップにおいては、まず、ユーザ毎にユーザ識別情報を設定する(S01)。ユーザ毎にパスコードを設定する(S02)。ユーザ毎に、眼球の光軸と視軸とのズレ角を計測する(S03)。記憶ステップにおいて、パスコードとズレ角を、ユーザ識別情報に関連付けして登録する(S04)。記憶ステップにおいて登録されたデータは、データベースに書き込まれる。 FIG. 16 shows the processing flow of the registration step and the authentication step. As shown in FIG. 16, in the registration step, first, user identification information is set for each user (S01). A passcode is set for each user (S02). For each user, the deviation angle between the optical axis and the visual axis of the eyeball is measured (S03). In the storage step, the passcode and the deviation angle are registered in association with the user identification information (S04). The data registered in the storage step is written to the database.
図16に示すように、認証ステップにおいては、まず、ユーザ識別情報を入力する(S11)。入力キーを表示パネルに表示する(S12)。入力キーが注視された状態を確定する(S13)。入力キーが注視された際の眼球の光軸の向きと計測角度をカメラ計測する(S14)。計測された眼球の光軸と表示パネルのワールド座標を算出する(S15)。表示パネルのピクセル情報と、眼球の光軸座標と、入力されたユーザ識別情報に関連付けされたズレ角と、計測角度とから、注視されたパスコードを算定する(S16)。予め設定したパスコードをデータベースから読込み、算定されたパスコードと予め設定したパスコードとを照合する(S17)。照合の結果、認証がエラーとなり、再度認証を試みるときは、もう一度認証ステップを行う(S11〜17)。 As shown in FIG. 16, in the authentication step, first, the user identification information is input (S11). The input key is displayed on the display panel (S12). The state in which the input key is gazed is confirmed (S13). The direction and measurement angle of the optical axis of the eyeball when the input key is gazed at are measured by the camera (S14). The measured optical axis of the eyeball and the world coordinates of the display panel are calculated (S15). The gazed passcode is calculated from the pixel information of the display panel, the optical axis coordinates of the eyeball, the deviation angle associated with the input user identification information, and the measurement angle (S16). The preset passcode is read from the database, and the calculated passcode is collated with the preset passcode (S17). As a result of the collation, if an authentication error occurs and the authentication is attempted again, the authentication step is performed again (S11 to 17).
図17は、個人認証システムのフローを示している。例えば、ユーザID等のユーザ識別情報を入力端末が読み込むと、入力端末から認証サーバへユーザ識別情報が送信される。認証サーバ側では、受信したユーザ識別情報を用いて、データベースからズレ角とパスコードを読込む。ユーザが表示パネルに表示された入力キーを注視すると(例えば、パスコードが4ケタの数字コードであれば、4つの数字を順に注視する)、表示パネルのピクセル情報、眼球の光軸座標(4ケタの数字コードを順に注視した際の4つの光軸座標)および計測角度が、入力端末から認証サーバへ送信される。データベースから読込んだズレ角を基に認証サーバにおいて算定パスコードを算出する。算定パスコードとデータベースから読込んだパスコードにつき、パスコードの照合を行う。照合結果が、認証サーバから入力端末へ送信される。
ここで、顔の向きの計測角度の計測について、顔は傾かないという条件下で認証を行うのであれば、計測角度の計測は不要である。
FIG. 17 shows the flow of the personal authentication system. For example, when the input terminal reads the user identification information such as the user ID, the user identification information is transmitted from the input terminal to the authentication server. On the authentication server side, the deviation angle and passcode are read from the database using the received user identification information. When the user gazes at the input key displayed on the display panel (for example, if the passcode is a 4-digit number code, gaze at the four numbers in order), the pixel information of the display panel and the optical axis coordinates of the eyeball (4). The four optical axis coordinates when gazing at the digit code in order) and the measurement angle are transmitted from the input terminal to the authentication server. The calculation passcode is calculated on the authentication server based on the deviation angle read from the database. The passcode is collated with the calculated passcode and the passcode read from the database. The collation result is transmitted from the authentication server to the input terminal.
Here, regarding the measurement of the measurement angle of the face orientation, if the authentication is performed under the condition that the face does not tilt, the measurement of the measurement angle is unnecessary.
図18は、データベースのテーブルの一例を示している。図18に示すように、個人IDが“10012345”の場合においては、パスコードは“468”、ズレ角は“(2°,1°)”と登録されている。また、個人IDが“10013501”の場合においては、パスコードは“7531”、ズレ角は“(1°,3°)”と登録されている。 FIG. 18 shows an example of a database table. As shown in FIG. 18, when the personal ID is "10012345", the passcode is registered as "468" and the deviation angle is registered as "(2 °, 1 °)". Further, when the personal ID is "101351", the passcode is registered as "7531" and the deviation angle is registered as "(1 °, 3 °)".
図19は、個人認証システムの機能ブロック図を示している。図19に示すように、認証サーバ、入力端末およびネットワークから成る。
認証サーバは、データベース、個人識別情報受信手段、ズレ角・ズレ角計測角度の読込み手段、座標受信手段、パスコード算定手段、パスコード照合手段および照合結果送信手段から成る。
認証サーバにおいては、ネットワークを介して個人識別情報受信手段により取得した個人識別情報がデータベースに保存される。データベースからは、ズレ角に関する情報がズレ角・ズレ角計測角度の読込み手段へ送られ、パスコードがパスコード照合手段へと送られる。ネットワークを介して座標・計測角度に関する情報が座標受信手段へと送られ、パスコード算定手段へと送られる。算定パスコードは、パスコード算定手段からパスコード照合手段へ送られる。照合結果は、パスコード照合手段から照合結果送信手段へ送られる。
FIG. 19 shows a functional block diagram of the personal authentication system. As shown in FIG. 19, it consists of an authentication server, an input terminal and a network.
The authentication server includes a database, a personal identification information receiving means, a deviation angle / deviation angle measuring angle reading means, a coordinate receiving means, a passcode calculating means, a passcode collating means, and a collating result transmitting means.
In the authentication server, the personal identification information acquired by the personal identification information receiving means via the network is stored in the database. From the database, information on the deviation angle is sent to the deviation angle / deviation angle measurement angle reading means, and the passcode is sent to the passcode collation means. Information on coordinates and measurement angles is sent to the coordinate receiving means and sent to the passcode calculating means via the network. The calculation passcode is sent from the passcode calculation means to the passcode collation means. The collation result is sent from the passcode collation means to the collation result transmission means.
入力端末は、ユーザ識別情報入力手段と、ユーザ識別情報送信手段、カメラ計測手段、注視状態確定手段、光軸計測手段、座標送信手段、入力キー表示手段、表示パネル、照合結果出力手段から成る。
入力端末においては、入力キー表示手段により入力キーが表示パネルに表示される。ユーザ識別情報入力手段により入力されたユーザ識別情報は、ユーザ識別情報送信手段により、ネットワークを介して認証サーバへと送られる。カメラ計測手段および注視状態確定手段において得られた情報は、光軸計測手段へ送られる。座標・計測角度に関する情報は、座標送信手段により、ネットワークを介して、認証サーバへと送られる。また、認証サーバから受信した照合結果は、照合結果出力手段によって出力される。
The input terminal includes a user identification information input means, a user identification information transmission means, a camera measurement means, a gaze state determination means, an optical axis measurement means, a coordinate transmission means, an input key display means, a display panel, and a collation result output means.
In the input terminal, the input key is displayed on the display panel by the input key display means. The user identification information input by the user identification information input means is sent to the authentication server via the network by the user identification information transmission means. The information obtained by the camera measuring means and the gaze state determining means is sent to the optical axis measuring means. Information on the coordinates / measurement angle is sent to the authentication server via the network by the coordinate transmission means. Further, the collation result received from the authentication server is output by the collation result output means.
図14は、表示画面におけるキーの大きさを変化させた例を示している。図14に示すように、キーの大きさを計測ごとに変更すると、同じ番号を見ている場合にも、注視点の座標は変化する。ただし、正確には、視野角は頭部の位置と画面表示の双方に依存するため、同じ表示であっても頭部の位置により視野角は変化する。
以上のような配列、移動、拡大縮小、回転に加えて、配置の間隔を変化させたり、形状を変化させたりすることで、ロバスト性、安全性を向上させられる。その場合、入力端末の側で解析しにくい画像を用いることが好ましい。
FIG. 14 shows an example in which the size of the key on the display screen is changed. As shown in FIG. 14, when the size of the key is changed for each measurement, the coordinates of the gazing point change even when the same number is viewed. However, to be precise, since the viewing angle depends on both the position of the head and the screen display, the viewing angle changes depending on the position of the head even if the display is the same.
Robustness and safety can be improved by changing the arrangement interval and the shape in addition to the above arrangement, movement, enlargement / reduction, and rotation. In that case, it is preferable to use an image that is difficult to analyze on the input terminal side.
実施例3の個人認証方法は、視線でパスコードを入力する個人認証方法において、ユーザ識別情報を入力し、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、表示パネルの空間的な3次元座標と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けて予め登録された眼球の光軸の向きに位置する表示パネル上の入力キーに対応するコードとを用いて認証する方法である。 The personal authentication method of the third embodiment is a personal authentication method in which a passcode is input by the line of sight. When the user identification information is input and the input key displayed on the display panel is gazed at, the direction of the optical axis of the eyeball is determined. Input on the display panel located in the spatial three-dimensional coordinates of the display panel measured by the camera, the direction of the optical axis of the eyeball, and the direction of the optical axis of the eyeball registered in advance in association with the input user identification information. This is a method of authenticating using a code corresponding to the key.
例えば、ユーザは自身パスコードを1,2,3,4と決定し、それを覚えているとする。表示パネルに表示された入力キーが、図4(1)に示すような場合に、ユーザが、1,2,3,4を順に注視したとすると、図4(2)に示す矢印のように視線(視軸)と表示パネルの交点座標が動くことになる。一方、眼球の光軸と表示パネルの交点座標は、眼球の光軸と視軸のズレ角(κ角)の影響により、図4(3)に示す矢印のように、4,5,6,7の順に動くことになる。システム側では、この4,5,6,7の順をユーザのパスワードと擬制してユーザ識別情報に関連付けて記憶するのである。 For example, suppose a user decides his / her passcode as 1,2,3,4 and remembers it. If the input keys displayed on the display panel are as shown in FIG. 4 (1) and the user gazes at 1, 2, 3, and 4 in order, as shown by the arrows in FIG. 4 (2). The coordinates of the intersection of the line of sight (line of sight) and the display panel will move. On the other hand, the coordinates of the intersection between the optical axis of the eyeball and the display panel are 4, 5, 6, as shown by the arrows shown in FIG. 4 (3) due to the influence of the deviation angle (κ angle) between the optical axis of the eyeball and the visual axis. It will move in the order of 7. On the system side, the order of 4, 5, 6 and 7 is imitated as a user password and stored in association with the user identification information.
ユーザは、表示パネルに表示された入力キーを見る立ち位置をいつも同じにして、自身パスコードとして覚えている1,2,3,4を順に注視することにより、システム側では、眼球の光軸と表示パネルの交点座標が4,5,6,7のであることから、認証されることになる。
このように、実施例3の個人認証方法の場合、システム側では、眼球の光軸と視軸のズレ角(κ角)を計算する必要がない。さらに、ユーザは、パスコード以外に立ち位置を覚えておかなければいけないことから、これがユーザしか知り得ない情報となり、より強力なパスコードになるかもしれないであろう。例えば、表示パネルに表示される入力キーのサイズが固定である場合、ユーザが正しい立ち位置から後ろにさがると、1を注視したときには眼球の光軸と表示パネルの交点座標はズレ角の影響が更に大きく現れ、7となってしまう。一方、正しい立ち位置から表示パネルに近づくと、1を注視したときには眼球の光軸と表示パネルの交点座標はズレ角の影響が小さくなって同じ1になってしまう。すなわち、立ち位置が変わることで、ユーザ識別情報に関連付けて記憶されているコード(パスコードと擬制したコード)と一致しなくなり、認証されないことになる。この点で、立ち位置も個人認証の要素になるのである。
The user always looks at the input keys displayed on the display panel in the same standing position, and by gazing at 1, 2, 3, and 4 that he remembers as his passcode in order, the optical axis of the eyeball on the system side. Since the intersection coordinates of the display panel are 4, 5, 6, and 7, the authentication is performed.
As described above, in the case of the personal authentication method of the third embodiment, it is not necessary to calculate the deviation angle (κ angle) between the optical axis and the visual axis of the eyeball on the system side. In addition, since the user has to remember the standing position other than the passcode, this will be information that only the user can know, and may become a stronger passcode. For example, if the size of the input key displayed on the display panel is fixed, if the user moves backward from the correct standing position, the optical axis of the eyeball and the intersection coordinates of the display panel will be affected by the deviation angle when gazing at 1. It appears even larger and becomes 7. On the other hand, when approaching the display panel from the correct standing position, when 1 is gazed at, the optical axis of the eyeball and the intersection coordinates of the display panel become the same 1 because the influence of the deviation angle becomes small. That is, when the standing position is changed, the code (a code imitated as a passcode) stored in association with the user identification information does not match, and the user is not authenticated. In this respect, standing position is also an element of personal authentication.
図20は、実施例3の個人認証方法における登録ステップ及び認証ステップの処理フローを示している。図20に示すように、登録ステップにおいては、まず、ユーザ毎にユーザ識別情報を設定する(S21)。ユーザは自身のパスコードを決定する(S22)。ここで、決定されたパスコードはユーザ自身が覚えていればよく、システム側に設定登録する必要はない。次に、ユーザ毎に、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測する(S23)。そして、計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する(S24)。そして、交点座標に位置する入力キーに対応するコードを、ユーザ識別情報に関連付けしてデータベースに登録する(S25)。 FIG. 20 shows the processing flow of the registration step and the authentication step in the personal authentication method of the third embodiment. As shown in FIG. 20, in the registration step, first, user identification information is set for each user (S21). The user determines his / her passcode (S22). Here, the determined passcode only needs to be remembered by the user himself, and there is no need to set and register it on the system side. Next, for each user, when the input key displayed on the display panel is gazed at, the direction of the optical axis of the eyeball is measured by the camera (S23). Then, the intersection coordinates of the optical axis of the eyeball and the display panel are calculated from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel (S24). Then, the code corresponding to the input key located at the intersection coordinate is registered in the database in association with the user identification information (S25).
図20に示すように、認証ステップにおいては、まず、ユーザ識別情報を入力する(S31)。入力キーを表示パネルに表示する(S32)。入力キーが注視された状態を確定する(S33)。入力キーが注視された際の眼球の光軸の向きと計測角度をカメラ計測する(S34)。計測された眼球の光軸と表示パネルのワールド座標を算出する(S35)。表示パネルのピクセル情報と、眼球の光軸座標とから、眼球の光軸の向きに位置する入力キーに対応するコードを算定する(S36)。そして、算定されたコードとユーザ識別情報に関連付けて登録されているコードとを照合する(S37)。照合の結果、認証がエラーとなり、再度認証を試みるときは、もう一度認証ステップを行う(S31〜37)。 As shown in FIG. 20, in the authentication step, first, the user identification information is input (S31). The input key is displayed on the display panel (S32). The state in which the input key is gazed is confirmed (S33). The direction and measurement angle of the optical axis of the eyeball when the input key is gazed at are measured by the camera (S34). The measured optical axis of the eyeball and the world coordinates of the display panel are calculated (S35). From the pixel information of the display panel and the optical axis coordinates of the eyeball, the code corresponding to the input key located in the direction of the optical axis of the eyeball is calculated (S36). Then, the calculated code is collated with the code registered in association with the user identification information (S37). As a result of the collation, if an authentication error occurs and the authentication is attempted again, the authentication step is performed again (S31 to 37).
図21は、実施例3の個人認証システムのフローを示している。例えば、ユーザID等のユーザ識別情報を入力端末が読み込むと、入力端末から認証サーバへユーザ識別情報が送信される。認証サーバ側では、受信したユーザ識別情報を用いて、データベースから登録されているコードを読込む。ユーザが表示パネルに表示された入力キーを注視すると(例えば、パスコードが3ケタの数字コードであれば、3つの数字を順に注視する)、表示パネルのピクセル情報および眼球の光軸座標(3ケタの数字コードを順に注視した際の3つの光軸座標)が、入力端末から認証サーバへ送信される。
認証サーバ側では、表示パネルのピクセル情報と光軸座標から、光軸の向きに位置するコードを算定し、これをデータベースから読込んだコードと照合し、照合結果が認証サーバから入力端末へ送信される。
FIG. 21 shows the flow of the personal authentication system of the third embodiment. For example, when the input terminal reads the user identification information such as the user ID, the user identification information is transmitted from the input terminal to the authentication server. On the authentication server side, the code registered from the database is read using the received user identification information. When the user gazes at the input key displayed on the display panel (for example, if the passcode is a three-digit number code, gaze at the three numbers in order), the pixel information of the display panel and the optical axis coordinates of the eyeball (3). The three optical axis coordinates when gazing at the digit code in order) are transmitted from the input terminal to the authentication server.
On the authentication server side, the code located in the direction of the optical axis is calculated from the pixel information on the display panel and the coordinates of the optical axis, and this is collated with the code read from the database, and the verification result is sent from the authentication server to the input terminal. Will be done.
本発明は、視線を用いた個人認証に有用である。 The present invention is useful for personal authentication using the line of sight.
1 個人認証システム
2 入力端末
3 認証サーバ
4 ユーザ
5 ネットワーク
6 個人間分散幅
7 視線計測対象範囲
8 眼球
9 中心窩
10 視軸
11 眼球の光軸
21 表示装置
21a〜21d 表示画面
21e 欄外
22 確定装置
23 計測装置
24 識別装置
31 データベース
32 照合手段
W ボタンサイズ
1 Personal authentication system 2 Input terminal 3 Authentication server 4 Users 5 Network 6 Interpersonal distribution width 7 Eye measurement target range 8 Eyeball 9 Fovea 10 Eye axis 11 Eyeball optical axis 21 Display device 21a to 21d Display screen 21e Extra 22 Confirmation device 23 Measuring device 24 Identification device 31 Database 32 Verification means W button size
Claims (10)
ユーザ識別情報を入力し、
視角サイズが、眼球の光軸の向きのカメラ計測の誤差の範囲より大きく、眼球の光軸と視軸のズレ角に関して予め設定されたバラツキの範囲よりも小さい入力キーであって、表示パネルに表示された前記入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、
表示パネルの空間的な3次元座標と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けて予め登録された前記ズレ角から、パスコードを算定して、登録されたパスコードと照合することを特徴とする個人認証方法。 In the personal authentication method of entering the passcode with the line of sight,
Enter the user identification information and
An input key whose viewing angle size is larger than the error range of camera measurement of the direction of the optical axis of the eyeball and smaller than the preset range of variation regarding the deviation angle between the optical axis of the eyeball and the visual axis, and is displayed on the display panel. When the displayed input key is gazed at, the direction of the optical axis of the eyeball is measured by the camera.
The passcode is calculated from the spatial three-dimensional coordinates of the display panel, the direction of the optical axis of the eyeball, and the deviation angle registered in advance in association with the input user identification information, and the registered passcode is used. A personal authentication method characterized by matching.
登録ステップは、
ユーザ毎にユーザ識別情報を設定するユーザ識別情報設定ステップと、
ユーザ毎にパスコードを設定するパスコード設定ステップと、
ユーザ毎に、眼球の光軸と視軸とのズレ角を計測するズレ角計測ステップと、
パスコードとズレ角を、ユーザ識別情報に関連付けして登録する記憶ステップ、
から成り、
認証ステップは、
ユーザ識別情報を入力するユーザ識別情報入力ステップと、
前記入力キーを表示パネルに表示する入力キー表示ステップと、
前記入力キーが注視された状態を確定する注視状態確定ステップと、
前記入力キーが注視された際の眼球の光軸の向きをカメラ計測する光軸計測ステップと、
計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標算出ステップと、
表示パネルのピクセル情報と、前記交点座標と、入力されたユーザ識別情報に関連付けされたズレ角とから、注視されたパスコードを算定するパスコード算定ステップと、
算定されたパスコードと予め設定したパスコードとを照合するパスコード照合ステップ、
から成ることを特徴とする請求項1に記載の個人認証方法。 The personal authentication method consists of a registration step and an authentication step.
The registration step is
A user identification information setting step that sets user identification information for each user, and
Passcode setting step to set passcode for each user,
A deviation angle measurement step for measuring the deviation angle between the optical axis and the visual axis of the eyeball for each user,
A storage step that registers the passcode and the deviation angle in association with the user identification information,
Consists of
The authentication step is
User identification information input step to input user identification information,
An input key display step for displaying the input key on the display panel, and
A gaze state determination step for determining the state in which the input key is gazed, and
An optical axis measurement step for measuring the direction of the optical axis of the eyeball when the input key is gazed at by a camera, and
A coordinate calculation step that calculates the intersection coordinates of the optical axis of the eyeball and the display panel from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel.
A passcode calculation step for calculating the gazed passcode from the pixel information of the display panel, the intersection coordinates, and the deviation angle associated with the input user identification information.
A passcode collation step that collates the calculated passcode with a preset passcode,
The personal authentication method according to claim 1, wherein the personal authentication method comprises.
1)認証サーバは、
ユーザ毎に計測した眼球の光軸と視軸とのズレ角および設定されたパスコードが、ユーザ識別情報に関連付けして予め記憶されたデータベースを備え、
入力端末から受信したユーザ識別情報と、表示パネルのピクセル情報と、眼球の光軸の向きと表示パネルの空間的な3次元座標と、前記データベースに記憶されたズレ角とから、注視されたパスコードを算定し、前記データベースに記憶されたパスコードと照合し、照合結果を入力端末に送信する、
2)入力端末は、
ユーザ識別情報入力手段と、カメラ計測手段と、視角サイズが眼球の光軸の向きのカメラ計測の誤差の範囲より大きく、前記ズレ角に関して予め設定されたバラツキの範囲よりも小さい入力キーを表示する表示パネルとを備え、
ユーザ識別情報入力手段からユーザ識別情報を読み取り、認証サーバに送信し、
表示パネルに表示された前記入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、計測された眼球の光軸の向きと表示パネルの空間的な3次元座標と、表示パネルのピクセル情報を認証サーバに送信する、
ことを特徴とする個人認証システム。 In an authentication system in which the input terminal and the authentication server are connected via a network
1) The authentication server is
A database is provided in which the deviation angle between the optical axis and the visual axis of the eyeball measured for each user and the set passcode are stored in advance in association with the user identification information.
The path watched from the user identification information received from the input terminal, the pixel information of the display panel, the orientation of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the deviation angle stored in the database. Calculate the code, collate it with the passcode stored in the database, and send the collation result to the input terminal.
2) The input terminal is
The user identification information input means, the camera measurement means, and the input keys whose viewing angle size is larger than the error range of the camera measurement of the direction of the optical axis of the eyeball and smaller than the range of the preset variation regarding the deviation angle are displayed. Equipped with a display panel
The user identification information is read from the user identification information input means and sent to the authentication server.
When the input key displayed on the display panel is gazed at, the direction of the optical axis of the eyeball is measured by the camera, the measured direction of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the display panel. Send the pixel information of the to the authentication server,
A personal authentication system characterized by that.
前記ユーザ識別情報入力手段と、
前記カメラ計測手段と、
前記表示パネルと、
前記ユーザ識別情報入力手段から読み取ったユーザ識別情報を認証サーバに送信するユーザ識別情報送信手段と、
前記入力キーを表示パネルに表示する入力キー表示手段と、
前記入力キーが注視された状態を確定する注視状態確定手段と、
前記入力キーが注視された際に、眼球の光軸の向きをカメラ計測する光軸計測手段と、
表示パネルのピクセル情報と、眼球の光軸の向きと表示パネルの空間的な3次元座標とを認証サーバに送信する座標送信手段、
認証サーバから照合結果を受信し照合結果を出力する照合結果出力手段、
から構成される入力端末。 An input terminal in the personal authentication system of claim 5 .
The user identification information input means and
With the camera measuring means
With the display panel
A user identification information transmitting means for transmitting the user identification information read from the user identification information input means to the authentication server, and a user identification information transmitting means.
An input key display means for displaying the input key on the display panel,
Gaze state determining means for determining the state in which the input key is gazed, and
An optical axis measuring means that measures the direction of the optical axis of the eyeball with a camera when the input key is gazed at.
A coordinate transmission means that transmits the pixel information of the display panel, the orientation of the optical axis of the eyeball, and the spatial three-dimensional coordinates of the display panel to the authentication server.
Collation result output means that receives the collation result from the authentication server and outputs the collation result,
An input terminal consisting of.
コンピュータを、
前記ユーザ識別情報送信手段、
前記入力キー表示手段、
前記入力キーが注視された状態を検知する手段、
前記光軸計測手段、
前記座標送信手段、
前記照合結果出力手段、
として機能させるためのプログラム。 A program mounted on the input terminal of claim 6 .
Computer,
The user identification information transmitting means,
The input key display means,
A means for detecting a state in which the input key is gazed at,
The optical axis measuring means,
The coordinate transmitting means,
The collation result output means,
A program to function as.
ユーザ識別情報を入力し、表示パネルに表示された入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、表示パネルの空間的な3次元座標と、眼球の光軸の向きと、入力されたユーザ識別情報に関連付けて予め登録された前記光軸の向きに位置する表示パネル上の前記入力キーに対応するコードとを用いて認証を行うことを特徴とする個人認証方法。 In the personal authentication method of entering the passcode with the line of sight,
When the user identification information is input and the input key displayed on the display panel is gazed at, the direction of the optical axis of the eyeball is measured by the camera, and the spatial three-dimensional coordinates of the display panel and the direction of the optical axis of the eyeball are measured. A personal authentication method characterized by performing authentication using a code corresponding to the input key on a display panel located in the direction of the optical axis registered in advance in association with the input user identification information.
登録ステップは、
ユーザ毎にユーザ識別情報を設定するユーザ識別情報設定ステップと、
ユーザ自身がパスコードを決定するパスコード決定ステップと、
ユーザ毎に、表示パネルに表示された前記入力キーが注視された際に、眼球の光軸の向きをカメラ計測する光軸事前計測ステップと、
計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標事前算出ステップと、
前記交点座標に位置する前記入力キーに対応するコードを、ユーザ識別情報に関連付けして登録する記憶ステップ、
から成り、
認証ステップは、
ユーザ識別情報を入力するユーザ識別情報入力ステップと、
前記入力キーを表示パネルに表示する入力キー表示ステップと、
前記入力キーが注視された状態を確定する注視状態確定ステップと、
前記入力キーが注視された際の眼球の光軸の向きをカメラ計測する光軸計測ステップと、
計測された眼球の光軸の向きと表示パネルの空間的な3次元座標から眼球の光軸と表示パネルの交点座標を算出する座標算出ステップと、
表示パネルのピクセル情報と、前記交点座標とから、眼球の光軸の向きに位置する前記入力キーに対応するコードを算定するコード算定ステップと、
算定されたコードとユーザ識別情報に関連付けて登録されているコードとを照合するコード照合ステップ、
から成ることを特徴とする請求項8に記載の個人認証方法。 The personal authentication method consists of a registration step and an authentication step.
The registration step is
A user identification information setting step that sets user identification information for each user, and
The passcode determination step, in which the user himself determines the passcode,
For each user, an optical axis pre-measurement step of measuring the direction of the optical axis of the eyeball with a camera when the input key displayed on the display panel is gazed at.
A coordinate pre-calculation step that calculates the intersection coordinates of the optical axis of the eyeball and the display panel from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel.
A storage step of registering a code corresponding to the input key located at the intersection coordinates in association with the user identification information.
Consists of
The authentication step is
User identification information input step to input user identification information,
An input key display step for displaying the input key on the display panel, and
A gaze state determination step for determining the state in which the input key is gazed, and
An optical axis measurement step for measuring the direction of the optical axis of the eyeball when the input key is gazed at by a camera, and
A coordinate calculation step that calculates the intersection coordinates of the optical axis of the eyeball and the display panel from the measured orientation of the optical axis of the eyeball and the spatial three-dimensional coordinates of the display panel.
A code calculation step for calculating a code corresponding to the input key located in the direction of the optical axis of the eyeball from the pixel information of the display panel and the intersection coordinates.
A code matching step that matches the calculated code with the code registered in association with the user identification information,
The personal authentication method according to claim 8 , wherein the personal authentication method comprises.
1)認証サーバは、
ユーザ毎に計測した眼球の光軸と表示パネルの交点座標に位置する入力キーに対応するコードが、ユーザ識別情報に関連付けして予め記憶されたデータベースを備え、
入力端末から受信したユーザ識別情報と、表示パネルのピクセル情報と、眼球の光軸の向きと表示パネルの空間的な3次元座標とから、眼球の光軸の向きに位置する前記入力キーに対応するコードを算定し、前記データベースに記憶されたコードと照合し、照合結果を入力端末に送信する、
前記入力端末は、
ユーザ識別情報入力手段と、カメラ計測手段と、前記入力キーを表示する表示パネルとを備え、
ユーザ識別情報入力手段からユーザ識別情報を読み取り、認証サーバに送信し、
表示パネルに表示された前記入力キーが注視された際に、眼球の光軸の向きをカメラ計測し、計測された眼球の光軸の向きと表示パネルの空間的な3次元座標と、表示パネルのピクセル情報を認証サーバに送信する、
ことを特徴とする個人認証システム。
In an authentication system in which the input terminal and the authentication server are connected via a network
1) The authentication server is
The code corresponding to the input key located at the intersection coordinate of the optical axis of the eyeball and the display panel measured for each user is provided with a database stored in advance in association with the user identification information.
Corresponds to the input key located in the direction of the optical axis of the eyeball from the user identification information received from the input terminal, the pixel information of the display panel, the orientation of the optical axis of the eyeball, and the spatial three-dimensional coordinates of the display panel. Calculate the code to be used, collate it with the code stored in the database, and send the collation result to the input terminal.
The input terminal is
It is provided with a user identification information input means, a camera measurement means, and a display panel for displaying the input key.
The user identification information is read from the user identification information input means and sent to the authentication server.
When the input key displayed on the display panel is gazed at, the direction of the optical axis of the eyeball is measured by the camera, the measured direction of the optical axis of the eyeball, the spatial three-dimensional coordinates of the display panel, and the display panel. Send pixel information to the authentication server,
A personal authentication system characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049053A JP6793363B2 (en) | 2016-03-13 | 2016-03-13 | Personal authentication method and personal authentication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049053A JP6793363B2 (en) | 2016-03-13 | 2016-03-13 | Personal authentication method and personal authentication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017162420A JP2017162420A (en) | 2017-09-14 |
JP6793363B2 true JP6793363B2 (en) | 2020-12-02 |
Family
ID=59857140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016049053A Active JP6793363B2 (en) | 2016-03-13 | 2016-03-13 | Personal authentication method and personal authentication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6793363B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310512B (en) * | 2018-12-11 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | User identity authentication method and device |
US11507248B2 (en) | 2019-12-16 | 2022-11-22 | Element Inc. | Methods, systems, and media for anti-spoofing using eye-tracking |
JP7428242B2 (en) * | 2020-04-28 | 2024-02-06 | 日本電気株式会社 | Authentication device, authentication system, authentication method and authentication program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7986816B1 (en) * | 2006-09-27 | 2011-07-26 | University Of Alaska | Methods and systems for multiple factor authentication using gaze tracking and iris scanning |
JP5371051B2 (en) * | 2010-02-25 | 2013-12-18 | 国立大学法人神戸大学 | Gaze measurement apparatus, method, and program |
JP5755012B2 (en) * | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | Information processing apparatus, processing method thereof, program, and imaging apparatus |
-
2016
- 2016-03-13 JP JP2016049053A patent/JP6793363B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017162420A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102441716B1 (en) | Facial recognition authentication system including path parameters | |
US20240211567A1 (en) | Facial recognition authentication system and method | |
US10869620B2 (en) | Biometric identification by garments having a plurality of sensors | |
JP6762380B2 (en) | Identification method and equipment | |
US10635795B2 (en) | Dynamic graphic eye-movement authentication system and method using face authentication or hand authentication | |
US7630524B2 (en) | Biometric identification and authentication method | |
CN104541277B (en) | User authen method and customer certification system | |
KR20170138475A (en) | Identification and / or authentication of the user using gaze information | |
US9646147B2 (en) | Method and apparatus of three-type or form authentication with ergonomic positioning | |
JP6793363B2 (en) | Personal authentication method and personal authentication system | |
KR20190095141A (en) | Face authentication method | |
US20150007290A1 (en) | Stimuli-Response-Driven Authentication Mechanism | |
US20230073410A1 (en) | Facial recognition and/or authentication system with monitored and/or controlled camera cycling | |
CN116962014A (en) | Method, device, equipment and medium for identifying identity in VR | |
TW201535138A (en) | An authorization method and system based on eye movement behavior | |
TWM483471U (en) | An authorization system based on eye movement behavior | |
CA2910929A1 (en) | Systems and methods for authenticating user identity based on user-defined image data | |
JP2017091276A (en) | Operation permission determination device, operation permission determination system, operation permission determination method, and operation permission determination program | |
KR20160028705A (en) | User identification method using mobile communication terminal and apparatus performing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200824 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20200824 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200901 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20200902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6793363 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |