JP6377545B2 - Personal identification method, personal identification device, program - Google Patents

Personal identification method, personal identification device, program Download PDF

Info

Publication number
JP6377545B2
JP6377545B2 JP2015028390A JP2015028390A JP6377545B2 JP 6377545 B2 JP6377545 B2 JP 6377545B2 JP 2015028390 A JP2015028390 A JP 2015028390A JP 2015028390 A JP2015028390 A JP 2015028390A JP 6377545 B2 JP6377545 B2 JP 6377545B2
Authority
JP
Japan
Prior art keywords
personal identification
feature amount
personal
representative
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015028390A
Other languages
Japanese (ja)
Other versions
JP2016151849A (en
Inventor
惇 米家
惇 米家
茂人 古川
茂人 古川
牧夫 柏野
牧夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015028390A priority Critical patent/JP6377545B2/en
Publication of JP2016151849A publication Critical patent/JP2016151849A/en
Application granted granted Critical
Publication of JP6377545B2 publication Critical patent/JP6377545B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、眼球運動に基づいて個人を識別する個人識別方法、個人識別装置、プログラムに関する。   The present invention relates to a personal identification method, a personal identification device, and a program for identifying an individual based on eye movements.

従来、文字や図形を視線で追跡する実験において、注視時間やサッカードの発生頻度、振幅などといった眼球運動の性質(EmBP: Eye-movement Behavior Profiles)が個人毎に異なっており、注意能力に関連しているという知見が知られている(非特許文献1参照)。   Conventionally, in experiments that track characters and figures with gaze, eye movement behavior profiles (EmBP: Eye-movement Behavior Profiles) such as gaze time, saccade frequency, and amplitude differ from person to person and are related to attention ability. The knowledge that it is doing is known (refer nonpatent literature 1).

William Poynter, Megan Barber, Jason Inman, Coral Wiggins, "Individuals exhibit idiosyncratic eye-movement behavior profiles across tasks", Vision Research, 2013, Volume 89, Pages 32-38.William Poynter, Megan Barber, Jason Inman, Coral Wiggins, "Individuals exhibit idiosyncratic eye-movement behavior profiles across tasks", Vision Research, 2013, Volume 89, Pages 32-38.

上述のように、EmBPに個人差があることは知られているものの、EmBPを含む眼球運動の特徴量に基づいて個人を識別する方法は知られていない。また、EmBPは特定の視線追跡課題を課した条件下で計算される指標であり、比較的大きな眼球運動であるサッカード眼球運動が存在することが前提である。従ってEmBPは安静、注視状態などにある人に対して必ずしも適用可能な指標とはいえず、個人を識別するために用いる指標として適しているかどうかも明らかでなかった。   As described above, although it is known that there is an individual difference in EmBP, a method for identifying an individual based on a feature amount of eye movement including EmBP is not known. In addition, EmBP is an index calculated under a specific eye tracking task, and it is assumed that there is a saccade eye movement that is a relatively large eye movement. Therefore, EmBP is not necessarily an index that can be applied to a person in a resting state or a gaze state, and it is not clear whether it is suitable as an index used to identify an individual.

そこで本発明では、眼球運動に基づいて個人を識別することができる個人識別方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a personal identification method capable of identifying an individual based on eye movement.

本発明の個人識別方法は個人識別装置が実行する方法であって、眼球運動取得ステップと、特徴量抽出ステップと、個人識別ステップを含む。   The personal identification method of the present invention is a method executed by the personal identification device, and includes an eye movement acquisition step, a feature amount extraction step, and a personal identification step.

眼球運動取得ステップは、識別対象者の眼球の動きに関する情報を取得する。特徴量抽出ステップは、眼球の動きに基づく特徴量を一つ以上含む代表特徴量を抽出する。個人識別ステップは、代表特徴量に基づいて識別対象者を識別する。   The eye movement acquisition step acquires information related to the movement of the eyeball of the person to be identified. The feature amount extraction step extracts a representative feature amount including one or more feature amounts based on the movement of the eyeball. In the individual identification step, the person to be identified is identified based on the representative feature amount.

本発明の個人識別方法によれば、眼球運動に基づいて個人を識別することができる。   According to the personal identification method of the present invention, an individual can be identified based on eye movement.

マイクロサッカードを説明する図。The figure explaining microsaccade. 第一実施形態の個人識別装置の構成を示すブロック図。The block diagram which shows the structure of the personal identification device of 1st embodiment. 第一実施形態の個人識別装置の動作を示すフローチャート。The flowchart which shows operation | movement of the personal identification device of 1st embodiment. マイクロサッカードの特徴量について説明する図。The figure explaining the feature-value of microsaccade. 瞳孔の大きさの変化を表す図。The figure showing the change of the magnitude | size of a pupil. 第二実施形態の個人識別装置の構成を示すブロック図。The block diagram which shows the structure of the personal identification device of 2nd embodiment. 第二実施形態の個人識別装置の動作を示すフローチャート。The flowchart which shows operation | movement of the personal identification device of 2nd embodiment. 第二個人識別モデルによる推定精度を示す図。The figure which shows the estimation precision by a 2nd personal identification model. 第一個人識別モデルによる本人受入率を示す図。The figure which shows the person acceptance rate by a 1st personal identification model. 第一個人識別モデルによる他者拒否率を示す図。The figure which shows the other person rejection rate by a 1st personal identification model. 様々な条件下での第一個人識別モデルによる推定精度を示す図。The figure which shows the estimation precision by the 1st personal identification model on various conditions.

以下、本発明の実施の形態について説明する。なお以下の説明、および図面では同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を付し、説明が重複する場合にはこれを省略する。   Embodiments of the present invention will be described below. In the following description and drawings, components having the same function and steps performing the same process are denoted by the same reference numerals, and the description thereof will be omitted when the description is repeated.

[第一実施形態]
以下、第一実施形態の個人識別装置について説明する。本実施形態の個人識別装置は、人の眼球の動きに表れる微細な跳躍性眼球運動(以下、マイクロサッカード、microsaccadeともいう)に基づいて、個人を識別する。まず、マイクロサッカードについて説明する。人がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift,trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図1はマイクロサッカードを説明する図であって、横軸を時間[秒]、縦軸を視野角[度]として注視状態の眼球運動の例を示すグラフである。マイクロサッカードの例であるマイクロサッカード101、102、103を太線で強調して示す。図1に示すように、マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いたが、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や後述する眼球運動取得部11において水平方向と定義された方向を含む概念である。
[First embodiment]
Hereinafter, the personal identification device of the first embodiment will be described. The personal identification device of this embodiment identifies an individual based on minute jumping eye movements (hereinafter also referred to as microsaccades) that appear in the movement of the human eyeball. First, microsaccade will be described. When a person is gazing at a certain point, the eyeball does not stop moving completely, but three types of eye movement called fixation and tremor (drift, trend), trema, Micro saccade (may be called flick). Drift is a small smooth movement, trema is a very small high-frequency vibration, and microsaccade is a small jumping movement. FIG. 1 is a diagram illustrating a microsaccade, and is a graph showing an example of eye movement in a gaze state with the horizontal axis representing time [seconds] and the vertical axis representing a viewing angle [degree]. Microsaccades 101, 102, and 103, which are examples of microsaccades, are shown with bold lines. As shown in FIG. 1, the microsaccade is a movement of the eyeball that appears (involuntarily) regardless of the individual's intention once in 1 to 2 seconds in a state where a single point is being watched. It is a small jumping movement. Microsaccades can be obtained from either the horizontal or vertical component of motion. In this embodiment, based on the property that the microsaccade is deflected in the horizontal direction, only the horizontal component is used for simplicity. However, the microsaccade direction component that can be used in the present invention is not limited to the horizontal direction. . The “horizontal direction” is not limited to a direction parallel to the ground, but is a horizontal direction with respect to the face (an eyeball arrangement direction, which may be referred to as a horizontal direction or a width direction) or will be described later. This is a concept including a direction defined as a horizontal direction in the eye movement acquisition unit 11.

以下、図2、図3を参照して本実施形態の個人識別装置の構成、および動作について説明する。図2は、本実施形態の個人識別装置10の構成を示すブロック図である。図3は、本実施形態の個人識別装置10の動作を示すフローチャートである。図2に示すように、本実施形態の個人識別装置10は、眼球運動取得部11、特徴量抽出部12、個人識別部13、モデル記憶部14を含む。モデル記憶部14に記憶される情報は、外部装置などに記憶されていてもよく、モデル記憶部14は適宜省略可能である。よってモデル記憶部14を破線で表現した。   Hereinafter, the configuration and operation of the personal identification device according to the present embodiment will be described with reference to FIGS. FIG. 2 is a block diagram showing the configuration of the personal identification device 10 of this embodiment. FIG. 3 is a flowchart showing the operation of the personal identification device 10 of the present embodiment. As shown in FIG. 2, the personal identification device 10 of the present embodiment includes an eye movement acquisition unit 11, a feature amount extraction unit 12, a personal identification unit 13, and a model storage unit 14. Information stored in the model storage unit 14 may be stored in an external device or the like, and the model storage unit 14 may be omitted as appropriate. Therefore, the model storage unit 14 is represented by a broken line.

<眼球運動取得部11>
眼球運動取得部11は、所定の時間区間である第一時間区間における、識別対象者9の眼球の動きに関する情報(眼球位置の経時変化に関する情報)を取得する(S11)。眼球運動取得部11は、取得した眼球の動きに関する情報を特徴量抽出部12へ出力する。本実施例では、眼球の動きに基づく特徴量として、後述するマイクロサッカードに関する特徴量、瞬目に関する特徴量を含むものとする。前述の所定の時間区間(第一時間区間)の中には一つ以上のマイクロサッカード、瞬目が含まれるように、その長さが設定されるものとする。第一時間区間の長さは、数秒から数十秒程度とすることが望ましい。
<Eyeball movement acquisition unit 11>
The eye movement acquisition unit 11 acquires information on the movement of the eyeball of the identification target person 9 (information on the temporal change of the eyeball position) in the first time section that is a predetermined time section (S11). The eye movement acquisition unit 11 outputs information about the acquired eye movement to the feature amount extraction unit 12. In the present embodiment, the feature amount based on the movement of the eyeball includes a feature amount related to microsaccade and a feature amount related to blinking which will be described later. The length is set so that one or more microsaccades and blinks are included in the predetermined time interval (first time interval). The length of the first time interval is preferably about several seconds to several tens of seconds.

例えば、識別対象者9にはある1点を注視してもらうようにし、その時の眼球の動きを赤外線カメラで撮像する。眼球運動取得部11は、撮像結果を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の眼球の位置の時系列を眼球の動きに関する情報として取得することができる。この場合、眼球運動取得部11は、撮像装置(赤外線カメラ)と画像処理アルゴリズムを実行するコンピュータなどによって実現してもよいし、撮像装置(赤外線カメラ)を外部装置として、撮像装置から入力された画像を画像処理するアルゴリズムを実行するコンピュータなどによって実現されてもよい。また、眼球運動取得部11は、電極を用いた電位計測法を用いて眼球の動きを測定してもよい。この場合、眼球運動取得部11は、測定装置(電極を含む)と測定装置が測定した電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現してもよいし、測定装置を外部装置として、測定装置から入力された電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよい。なお、眼球運動取得部11は左右両方の眼球の動きに関する情報を取得してもよいし、何れか一方の眼球の動きに関する情報のみを取得してもよい。本実施形態では、眼球運動取得部11は、一方の眼球の動きに関する情報のみを取得するものとする。   For example, the identification target person 9 is allowed to gaze at a certain point, and the movement of the eyeball at that time is imaged with an infrared camera. The eye movement acquisition unit 11 can acquire the time series of the positions of the eyeballs for each frame (for example, at a sampling interval of 1000 Hz) as information related to the movement of the eyeballs by performing image processing on the imaging results. In this case, the eye movement acquisition unit 11 may be realized by an imaging device (infrared camera) and a computer that executes an image processing algorithm, or input from the imaging device using the imaging device (infrared camera) as an external device. It may be realized by a computer or the like that executes an algorithm for image processing of an image. Further, the eye movement acquisition unit 11 may measure the movement of the eye using an electric potential measurement method using electrodes. In this case, the eye movement acquisition unit 11 may be realized by a measurement device (including electrodes) and a computer that executes an algorithm for calculating the position of the eyeball based on the potential measured by the measurement device. The external device may be realized by a computer that executes an algorithm for calculating the position of the eyeball based on the potential input from the measurement device. Note that the eye movement acquisition unit 11 may acquire information regarding the movement of both the left and right eyeballs, or may acquire only information regarding the movement of either one of the eyeballs. In the present embodiment, the eye movement acquisition unit 11 acquires only information related to the movement of one eyeball.

マイクロサッカードが水平方向に偏向する性質に基づき、本実施形態では、取得された眼球の動きに関する情報のうち水平方向の成分のみを用いる。   Based on the property that the microsaccade is deflected in the horizontal direction, in the present embodiment, only the component in the horizontal direction is used in the acquired information on the movement of the eyeball.

<特徴量抽出部12>
特徴量抽出部12は、眼球の動きに基づく特徴量を一つ以上含む代表特徴量を抽出する(S12)。例えば、特徴量抽出部12は、第一時間区間に対応する眼球の動きに関する情報を受け取り、第一時間区間においてマイクロサッカードおよび瞬目を検出し、マイクロサッカード、または瞬目に関する特徴量を一つ以上含む代表特徴量を抽出する(S12)。特徴量抽出部12は、抽出した代表特徴量を個人識別部13に出力する。なお、特徴量抽出部12は、第一時間区間においてマイクロサッカードのみを検出することとし、瞬目の検出を省略してもよい。この場合、特徴量抽出部12はマイクロサッカードの特徴量を一つ以上含む代表特徴量を抽出することになる。
<Feature Extraction Unit 12>
The feature amount extraction unit 12 extracts a representative feature amount including one or more feature amounts based on the movement of the eyeball (S12). For example, the feature amount extraction unit 12 receives information related to the movement of the eyeball corresponding to the first time interval, detects microsaccades and blinks in the first time interval, and calculates feature amounts related to the microsaccades or blinks. One or more representative feature values including one or more are extracted (S12). The feature amount extraction unit 12 outputs the extracted representative feature amount to the personal identification unit 13. Note that the feature amount extraction unit 12 may detect only microsaccades in the first time interval, and may omit detection of blinks. In this case, the feature quantity extraction unit 12 extracts a representative feature quantity including one or more feature quantities of the microsaccade.

特徴量抽出部12は、例えば眼球の位置情報の時系列について1次階差系列を計算し、1次階差系列の絶対値が所定の閾値を上回る時刻を、マイクロサッカードの起きた開始時刻として検出すればよい。ただし1次階差系列の絶対値が所定の閾値を上回る時間の長さが所定の値(通常3ms程度)以上持続しない場合は、検出から除外する。特徴量抽出部12は、取得された眼球の位置情報にノイズが多く含まれると判定した場合などには、1次階差系列の計算にあたって適当な範囲での移動平均値を用いても良い。検出に用いる閾値には、階差系列の標準偏差の6倍程度の値を用いることが好ましい。   For example, the feature amount extraction unit 12 calculates a primary difference series for the time series of the position information of the eyeball, and sets the time when the absolute value of the primary difference series exceeds a predetermined threshold as the start time when the microsaccade occurred. May be detected. However, if the length of time that the absolute value of the primary difference series exceeds the predetermined threshold does not last longer than the predetermined value (usually about 3 ms), it is excluded from detection. The feature amount extraction unit 12 may use a moving average value in an appropriate range in calculating the first-order difference series, for example, when it is determined that the acquired position information of the eyeball includes a lot of noise. The threshold used for detection is preferably a value about 6 times the standard deviation of the difference series.

特徴量抽出部12は、例えば、瞳孔が検出されていない時間区間(眼球の位置情報が正しく取得できていない時間区間)を、瞬目が起きている時間区間として検出すればよい。ただし、一般に瞬目の生じる時間の長さが最小で75msと考えられていることから、特徴量抽出部12は、検出された時間区間の長さが所定の閾値(たとえば、50ms)を下回る場合は、これをノイズとして瞬目から除外することが望ましい。   For example, the feature amount extraction unit 12 may detect a time interval in which no pupil is detected (a time interval in which the position information of the eyeball has not been acquired correctly) as a time interval in which a blink occurs. However, since it is generally considered that the length of time at which blinks occur is 75 ms at the minimum, the feature amount extraction unit 12 determines that the length of the detected time interval is below a predetermined threshold (for example, 50 ms). It is desirable to exclude this from blinking as noise.

第一時間区間に対応する代表特徴量は、第一時間区間において検出された全てのマイクロサッカードについて、後述する基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζ、固有角振動数ω、マイクロサッカードの単位時間(例えば1秒)あたりの発生回数Rmなどを、マイクロサッカードに関する特徴量として計算し、これらの特徴量それぞれの代表値を計算し、代表値をベクトル表現で並列したものを用いる。第一時間区間において複数のマイクロサッカードが検出された場合には、一つ一つのマイクロサッカードについて求めた特徴量それぞれの代表値を計算し、代表値をベクトル表現で並列したものを用いる。代表値とは、例えば平均値、最大値、最小値、最初のマイクロサッカードに対応する値などであり、特に平均値を用いることが好ましい。代表特徴量には、前述の特徴量それぞれの代表値に加えて、第一時間区間における瞬目の1秒あたりの発生回数Rb、第一時間区間における瞬目の持続時間の代表値Dbをベクトルの要素として加えてもよい。瞬目の持続時間Dbは、瞬目が起きている時間区間の長さである。代表特徴量は前述の全ての特徴量を要素として含むものに限定されず、このうち一部を用いて構成されても良い。 The representative feature amounts corresponding to the first time interval are the reference amplitude A, the maximum velocity V max , the duration D m , the overshoot amplitude A o , which will be described later, for all microsaccades detected in the first time interval, The overshoot speed V o , the rise time T p , the damping rate λ, the damping coefficient ζ, the natural angular frequency ω n , the number of occurrences R m per unit time (for example, 1 second) of the microsaccade, etc. The representative values of these feature amounts are calculated, and the representative values are used in parallel in vector representation. When a plurality of microsaccades are detected in the first time interval, a representative value of each feature value obtained for each microsaccade is calculated, and the representative values are used in parallel in a vector representation. The representative value is, for example, an average value, a maximum value, a minimum value, a value corresponding to the first microsaccade, and it is particularly preferable to use the average value. The representative feature amount includes, in addition to the representative value of each feature amount described above, the number of occurrences R b per second in the first time interval, and the representative value D b of the blink duration in the first time interval. May be added as a vector element. The blink duration D b is the length of the time interval in which the blink occurs. The representative feature amount is not limited to one including all the above-described feature amounts as elements, and may be configured using a part of them.

図4を参照して、マイクロサッカードの基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λについて説明する。図4は、マイクロサッカードの特徴量について説明する図である。
(1)基準振幅A:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅Aに戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅Aを超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅Aを超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A+オーバーシュートの振幅Aoから基準振幅Aに収束しようとする際の最大の速度である。
(6)立ち上がり時間Tp:基準振幅A+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅Aに対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、
With reference to FIG. 4, the microsaccade reference amplitude A, maximum velocity V max , duration D m , overshoot amplitude A o , overshoot velocity V o , rise time T p , and decay rate λ will be described. . FIG. 4 is a diagram for explaining the feature amount of the microsaccade.
(1) Reference amplitude A: A movement amount when the movement of the eyeball by the microsaccade converges.
(2) Maximum speed V max : Maximum speed until reaching the reference amplitude A + overshoot amplitude A o .
(3) Duration D m : the length of the time interval in which microsaccade is occurring. The start time of the microsaccade is a time when the absolute value of the first-order difference series exceeds a predetermined threshold, and the end time of the microsaccade is the time when the first return to the reference amplitude A is reached after reaching the overshoot amplitude. .
(4) Overshoot amplitude A o : The amount of the portion that exceeds (overshoots) the reference amplitude A by the microsaccade. The overshoot is a phenomenon in which the waveform protrudes beyond the reference amplitude A at the rising portion of the waveform, or the protruding waveform. In other words, the overshoot amplitude is the amount of the protruding portion.
(5) Overshoot speed V o : The maximum speed when attempting to converge to the reference amplitude A from the reference amplitude A + the overshoot amplitude A o .
(6) Rise time T p : Time required to reach (rise) the reference amplitude A + the overshoot amplitude A o . The reference amplitude A + overshoot amplitude A o time to reach of the same value as the time it takes from the maximum velocity V max reach speeds V o overshoot.
(7) Attenuation rate λ: ratio of overshoot amplitude A o to reference amplitude A It may be the ratio of overshoot speed V o to maximum speed V max ,

Figure 0006377545
Figure 0006377545

と表される。 It is expressed.

マイクロサッカードの減衰係数ζ、固有角振動数ωは、マイクロサッカードが起きている時間区間の眼球位置の時系列を位置制御系のステップ応答としてモデル化することで計算する。位置制御系のステップ応答は、 The attenuation coefficient ζ and the natural angular frequency ω n of the microsaccade are calculated by modeling the time series of the eyeball position in the time interval where the microsaccade is occurring as a step response of the position control system. The step response of the position control system is

Figure 0006377545
Figure 0006377545

と表される。ここでG(s)は伝達係数,y(t)は位置,y'(t)は速度を表す。これに基づいて、マイクロサッカードの減衰係数ζ、固有角振動数ωは、 It is expressed. Here, G (s) is a transfer coefficient, y (t) is a position, and y '(t) is a velocity. Based on this, the damping coefficient ζ and the natural angular frequency ω n of the microsaccade are

Figure 0006377545
Figure 0006377545

と表される。ただし、tは時刻を表すインデックスであり、sはラプラス変換によるパラメタ(複素数)である。固有角振動数ωはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。 It is expressed. Here, t is an index representing time, and s is a parameter (complex number) by Laplace transform. The natural angular frequency ω n corresponds to an index representing the response speed of the microsaccade, and the damping coefficient ζ corresponds to an index representing the convergence of the microsaccade response.

特徴量抽出部12は、マイクロサッカードの減衰係数ζ、固有角振動数ω、基準振幅Aを、マイクロサッカードが起きている間の眼球の位置を関数y(t)でフィッティングし、最小二乗法などによって最適化することで計算してもよい。 The feature extraction unit 12 fits the microsaccade damping coefficient ζ, the natural angular frequency ω n , and the reference amplitude A with the function y (t) of the position of the eyeball while the microsaccade is occurring. You may calculate by optimizing by the square method.

マイクロサッカードの減衰係数ζは、運動が左右方向に依存して値が変化する傾向があるため、特徴量抽出部12は、左方向のマイクロサッカードの減衰係数の代表値、右方向のマイクロサッカードの減衰係数の代表値を分けて計算しても良い。   Since the value of the attenuation coefficient ζ of the microsaccade tends to change depending on the left-right direction, the feature amount extraction unit 12 uses the representative value of the attenuation coefficient of the left-side microsaccade, the right-side microsac- tery. The representative value of the saccade attenuation coefficient may be calculated separately.

前述したようにマイクロサッカードの減衰係数ζは、マイクロサッカードを位置制御系のステップ応答としてみたときの、応答の収束性に対応する指標である。マイクロサッカードの応答の収束性は、瞳孔の虹彩に対する相対運動の程度に影響を受け、瞳孔の虹彩に対する相対運動の程度は水晶体を保持している毛様体の緊張の度合に影響されると考えられる。毛様体筋は加齢によって硬化し運動が鈍化することが知られており、毛様体の運動性質の違いが、個人毎のマイクロサッカードの収束性の違いとして観測されるものと考えられる。   As described above, the attenuation coefficient ζ of the microsaccade is an index corresponding to the convergence of the response when the microsaccade is viewed as a step response of the position control system. The convergence of the microsaccade response is affected by the degree of relative movement of the pupil relative to the iris, and the degree of relative movement of the pupil iris is influenced by the degree of tension of the ciliary body holding the lens. Conceivable. Ciliary muscles are known to harden and slow down with age, and it is thought that differences in ciliary movement properties are observed as differences in convergence of microsaccades among individuals. .

<モデル記憶部14>
モデル記憶部14は、代表特徴量と所定の個人ラベルを入力として、代表特徴量が所定の個人ラベルの識別対象者から取得されたかどうかを推定することができる第一個人識別モデルと、代表特徴量のみを入力として、代表特徴量に対応する識別対象者の個人ラベルを推定することができる第二個人識別モデルを予め記憶している。
<Model storage unit 14>
The model storage unit 14 receives a representative feature quantity and a predetermined personal label as input, and first representative identification model that can estimate whether the representative feature quantity has been acquired from the identification target person of the predetermined personal label, and the representative feature quantity The second personal identification model that can estimate the personal label of the person to be identified corresponding to the representative feature is stored in advance.

第一個人識別モデルおよび第二個人識別モデルは、予め1人以上の人について取得した代表特徴量と個人ラベルとの関係性を機械学習法により学習することで作成できる。つまり、第一個人識別モデルおよび第二個人識別モデルは、マイクロサッカードの特徴量などを含む代表特徴量と個人ラベルとの相関性を記述したモデルである。   The first personal identification model and the second personal identification model can be created by learning the relationship between the representative feature amount acquired in advance for one or more people and the personal label by a machine learning method. That is, the first personal identification model and the second personal identification model are models that describe the correlation between the representative feature quantity including the feature quantity of the microsaccade and the personal label.

まず、第一個人識別モデルと第二個人識別モデルで共通する部分について説明する。例えば、学習用にある人(識別対象者)の眼球の位置の時系列を取得し、取得した眼球の位置の時系列から代表特徴量を抽出する。ここで抽出する代表特徴量は、特徴量抽出部12で抽出する代表特徴量と同じとする。識別対象者から、複数の時間区間について同様の特徴量抽出を行い、抽出された代表特徴量それぞれに識別対象者の個人ラベルを対応づけたデータセットを学習用データとして用意する。学習用データは、複数人(すなわち、複数の個人ラベル)から取得したデータセットを蓄積したものを用いる。この学習用データを用いて、機械学習法により、代表特徴量と個人ラベルとの関係を学習する。例えば、機械学習法としてサポートベクターマシン(Support vector machine、以下SVMともいう)等がある。   First, a common part between the first personal identification model and the second personal identification model will be described. For example, a time series of eyeball positions of a person (identification target person) for learning is acquired, and representative feature amounts are extracted from the acquired time series of eyeball positions. The representative feature amount extracted here is the same as the representative feature amount extracted by the feature amount extraction unit 12. A similar feature amount is extracted from the identification target person for a plurality of time intervals, and a data set in which the extracted representative feature quantity is associated with the personal label of the identification target person is prepared as learning data. As learning data, data obtained by accumulating data sets obtained from a plurality of persons (that is, a plurality of individual labels) is used. Using this learning data, the machine learning method is used to learn the relationship between the representative feature amount and the personal label. For example, there is a support vector machine (hereinafter also referred to as SVM) as a machine learning method.

第一個人識別モデルでは、学習用データに含まれる全ての代表特徴量に対して、その識別対象者が入力された所定の個人ラベルLであれば1、所定の個人ラベルLでなければ0、のような2パターンの値(以下、識別ラベル)を付与し、特徴量の次元に対応する空間において、識別ラベルが1のときの特徴量ベクトルに対応する点群と、識別ラベルが0のときの特徴量ベクトルに対応する点群とを分離する超平面を求める。例えば、機械学習法として2クラスを分類するサポートベクターマシンを用いる。これにより、得られる第一個人識別モデルに、識別ラベルが未知の特徴量(特徴量抽出部12で得られた代表特徴量)を入力すると、その特徴量に対応する識別ラベルを推定することができる。すなわち、未知の特徴量が所定の個人ラベルLの識別対象者9から取得されたものか、そうでないかを推定することができる。   In the first personal identification model, for all representative feature amounts included in the learning data, 1 is the predetermined personal label L to which the person to be identified is input, and 0 is not the predetermined personal label L. Two patterns of values (hereinafter referred to as identification labels) are assigned, and in a space corresponding to the dimension of the feature amount, a point group corresponding to the feature vector when the identification label is 1 and a point when the identification label is 0 A hyperplane that separates the point cloud corresponding to the feature vector is obtained. For example, a support vector machine that classifies two classes is used as a machine learning method. Thus, when a feature quantity whose identification label is unknown (a representative feature quantity obtained by the feature quantity extraction unit 12) is input to the obtained first personal identification model, an identification label corresponding to the feature quantity can be estimated. . That is, it can be estimated whether the unknown feature amount is acquired from the identification target person 9 of the predetermined personal label L or not.

第二個人識別モデルでは、学習用データに含まれる全ての代表特徴量に対応する個人ラベルを扱い、複数クラス(個人ラベルに対応するクラス)に分類するようにSVMを構成する。あるいは、複数クラス(個人ラベルに対応するクラス)に識別分類するような機械学習法であれば、SVMに限らず他の機械学習法を用いてもよい。   In the second personal identification model, the SVM is configured to handle personal labels corresponding to all representative feature amounts included in the learning data and classify them into a plurality of classes (classes corresponding to personal labels). Alternatively, other machine learning methods may be used as long as the machine learning method identifies and classifies into a plurality of classes (classes corresponding to individual labels).

<個人識別部13>
個人識別部13は、代表特徴量に基づいて識別対象者9を識別する(S13)。例えば、個人識別部13は、特徴量抽出部12で抽出した代表特徴量と、所定の個人ラベルとを、モデル記憶部14に記憶された第一個人識別モデルに入力することにより、代表特徴量が所定の個人ラベルの識別対象者9から取得されたか否かを推定する(S13)。
<Personal identification unit 13>
The personal identification unit 13 identifies the person to be identified 9 based on the representative feature amount (S13). For example, the personal identification unit 13 inputs the representative feature amount extracted by the feature amount extraction unit 12 and a predetermined personal label into the first personal identification model stored in the model storage unit 14, thereby obtaining the representative feature amount. It is estimated whether or not a predetermined personal label has been acquired from the identification target person 9 (S13).

あるいは個人識別部13は、特徴量抽出部12で抽出した代表特徴量のみを、モデル記憶部14に記憶された第二個人識別モデルに入力することにより、個人ラベルを推定する(S13)。個人識別部13が、第一個人識別モデルを用いるか第二個人識別モデルを用いるかは、事前に指定することができるものとする。   Alternatively, the personal identification unit 13 estimates the personal label by inputting only the representative feature amount extracted by the feature amount extraction unit 12 to the second personal identification model stored in the model storage unit 14 (S13). It can be specified in advance whether the personal identification unit 13 uses the first personal identification model or the second personal identification model.

<効果>
本実施形態の個人識別装置10によれば、上述の構成により、マイクロサッカードの特徴量などに基づいて、識別対象者9の個人ラベルを推定することができる。眼球運動のカメラ計測はノイズが少なく、マイクロサッカードの特徴量は単一試行で精度よく推定できるため、個人識別の精度が計測誤差に左右されにくいという利点を持つ。眼球のカメラ計測は、小さな規模で識別対象者9を拘束することなく行うことができ、個人識別の際に識別対象者9の心理的抵抗感を低減する効果がある。マイクロサッカードは無意識で生じる微小な眼球運動であり、減衰係数などの特徴量を識別対象者9が意図的に制御することは困難である。したがって、指紋や虹彩の個人認証に比べて、サンプルの偽造が困難であるという利点を持つ。
<Effect>
According to the personal identification device 10 of the present embodiment, the personal label of the person to be identified 9 can be estimated based on the feature amount of the microsaccade and the like with the above-described configuration. The camera measurement of eye movement has less noise and the feature quantity of microsaccade can be estimated accurately with a single trial, so that the accuracy of personal identification is less susceptible to measurement errors. The camera measurement of the eyeball can be performed on a small scale without restraining the identification target person 9, and has an effect of reducing the psychological resistance of the identification target person 9 during personal identification. Microsaccades are minute eye movements that occur unconsciously, and it is difficult for the person to be identified 9 to intentionally control a feature quantity such as an attenuation coefficient. Therefore, it has an advantage that it is difficult to forge a sample as compared with personal authentication of fingerprints and irises.

[第二実施形態]
以下、第二実施形態の個人識別装置について、第一実施形態と異なる部分を中心に説明する。本実施形態では、瞳孔の大きさの変化と、マイクロサッカードの双方に基づいて、個人を識別する。まず、図5を参照して瞳孔の大きさの変化について説明する。人がある一点を注視しているとき、瞳孔の大きさは一定ではなく、変化している。図5は注視状態における瞳孔の大きさの変化を表す図であり、横軸は時間[秒]を、縦軸は瞳孔の大きさ[z-score]を表す。
[Second Embodiment]
Hereinafter, the personal identification device according to the second embodiment will be described focusing on differences from the first embodiment. In the present embodiment, an individual is identified based on both the change in the size of the pupil and the microsaccade. First, changes in the size of the pupil will be described with reference to FIG. When a person is gazing at a point, the size of the pupil is not constant but is changing. FIG. 5 is a diagram showing changes in pupil size in a gaze state, where the horizontal axis represents time [seconds] and the vertical axis represents pupil size [z-score].

瞳孔の大きさは交感神経系の支配を受けた瞳孔散大筋によって拡大(散瞳)し、副交感神経系の支配を受けた瞳孔括約筋によって収縮(縮瞳)する。図5において、二重線部分は縮瞳を表し、破線部分は散瞳を表す。瞳孔の大きさの変化は主に対光反射、輻輳反射、感情による変化の3つに区別される。対光反射は、網膜に入射する光量を制御するために瞳孔の大きさが変化する反応のことで、強い光に対しては縮瞳、暗所では散瞳が生じる。輻輳反射は、焦点を合わせる際に両眼が内転あるいは外転する運動(輻輳運動)に伴って瞳孔径が変化する反応のことで、近くを見るときには縮瞳、遠くを見るときには散瞳が生じる。感情による変化は、上記のいずれにもよらず外界のストレスに対して生じる反応のことで、怒りや驚き、活発な活動に伴って交感神経が優位となる際には散瞳が生じ、リラックスして副交感神経が優位となる際には縮瞳が生じる。   The size of the pupil is enlarged (mydriasis) by the pupil dilator that is controlled by the sympathetic nervous system, and contracted (miosis) by the pupil sphincter that is controlled by the parasympathetic nervous system. In FIG. 5, the double line portion represents the miosis, and the broken line portion represents the mydriasis. Changes in the size of the pupil are mainly classified into three types: light reflection, convergence reflection, and emotional changes. The light reflection is a reaction in which the size of the pupil changes in order to control the amount of light incident on the retina. A miosis occurs for strong light, and a mydriasis occurs in a dark place. Convergence reflex is a reaction in which the pupil diameter changes with the movement of both eyes inward or outward (convergence movement) when focusing. Arise. The emotional change is a reaction that occurs to the external stress regardless of any of the above. When my sympathetic nerve is dominant due to anger, surprise, or active activity, mydriasis occurs and relaxes. When the parasympathetic nerve dominates, miosis occurs.

以下、図6、図7を参照して本実施形態の個人識別装置の構成、および動作について説明する。図6は、本実施形態の個人識別装置20の構成を示すブロック図である。図7は、本実施形態の個人識別装置20の動作を示すフローチャートである。図6に示すように、本実施形態の個人識別装置20は、瞳孔情報取得部21、眼球運動取得部11、特徴量抽出部22、個人識別部23及びモデル記憶部24を含む。眼球運動取得部11の動作は、第一実施形態と同じである。モデル記憶部24は、第一実施形態と同様の理由で省略可能であるため、破線で表現した。   The configuration and operation of the personal identification device according to this embodiment will be described below with reference to FIGS. FIG. 6 is a block diagram showing the configuration of the personal identification device 20 of this embodiment. FIG. 7 is a flowchart showing the operation of the personal identification device 20 of the present embodiment. As shown in FIG. 6, the personal identification device 20 of the present embodiment includes a pupil information acquisition unit 21, an eye movement acquisition unit 11, a feature amount extraction unit 22, a personal identification unit 23, and a model storage unit 24. The operation of the eye movement acquisition unit 11 is the same as that in the first embodiment. Since the model storage unit 24 can be omitted for the same reason as in the first embodiment, it is represented by a broken line.

<瞳孔情報取得部21>
瞳孔情報取得部21は、所定の時間区間である第一時間区間における、識別対象者9の瞳孔の大きさの経時変化に関する情報を取得する(S21)。瞳孔情報取得部21は、取得した瞳孔の大きさの経時変化に関する情報を特徴量抽出部22へ出力する。例えば、瞳孔の大きさとして、瞳孔径(瞳孔の半径)を用いる場合には、瞳孔径は、赤外線カメラを用いた画像処理法で計測できる。前述の所定の時間区間(第一時間区間)の中に一つ以上の縮瞳および散瞳が含まれるよう、その長さが設定されるものとする。第一時間区間は、数秒から数十秒程度とすることが望ましい。
<Pupil information acquisition unit 21>
The pupil information acquisition unit 21 acquires information related to the temporal change in the size of the pupil of the identification target person 9 in the first time interval which is a predetermined time interval (S21). The pupil information acquisition unit 21 outputs information regarding the acquired change in the size of the pupil over time to the feature amount extraction unit 22. For example, when the pupil diameter (pupil radius) is used as the pupil size, the pupil diameter can be measured by an image processing method using an infrared camera. It is assumed that the length is set so that one or more miosis and mydriasis are included in the predetermined time interval (first time interval). The first time interval is preferably about several seconds to several tens of seconds.

例えば、識別対象者9にはある1点を注視してもらうようにし、その時の瞳孔が赤外線カメラで撮像されるものとする。瞳孔情報取得部21は、撮像結果を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の瞳孔の大きさの時系列を取得することができる。瞳孔情報取得部21は、例えば瞳孔を撮影した画像に対して、瞳孔に円をフィッティングし、当該フィッティングした円の半径を瞳孔径として用いることができる。瞳孔径は微細に変動するため、瞳孔情報取得部21は、所定の時間区間ごとにスムージング(平滑化)した瞳孔径の値を用いれば好適である。ここで、図5に示した瞳孔の大きさは、各時刻について取得した瞳孔径の全データの平均を0、標準偏差を1としたときのz-scoreを用いて表したものであり、約150ms間隔でスムージングしたものである。ただし、瞳孔情報取得部21が取得する瞳孔径はz-scoreでなくてもよく、瞳孔径の値そのものであっても良いし、瞳孔の面積や直径など、瞳孔の大きさに対応する値であれば何でも良い。瞳孔の面積や直径を用いる場合も、時間の経過とともに瞳孔の面積または直径が大きくなる区間が散瞳に対応し、時間の経過とともに瞳孔の面積または直径が小さくなる区間が縮瞳に対応する。すなわち、時間の経過とともに瞳孔の大きさが大きくなる区間が散瞳に対応し、時間の経過とともに瞳孔の大きさが小さくなる区間が縮瞳に対応する。   For example, it is assumed that the identification target person 9 gazes at a certain point, and the pupil at that time is imaged by an infrared camera. The pupil information acquisition unit 21 can acquire a time series of pupil sizes for each frame (for example, a sampling interval of 1000 Hz) by performing image processing on the imaging result. For example, the pupil information acquisition unit 21 can fit a circle to the pupil of an image obtained by photographing the pupil and use the radius of the fitted circle as the pupil diameter. Since the pupil diameter varies minutely, it is preferable that the pupil information acquisition unit 21 uses the value of the pupil diameter smoothed (smoothed) for each predetermined time interval. Here, the size of the pupil shown in FIG. 5 is expressed using z-score, where the average of all the pupil diameter data acquired at each time is 0 and the standard deviation is 1. Smoothed at intervals of 150ms. However, the pupil diameter acquired by the pupil information acquisition unit 21 may not be a z-score, may be a pupil diameter value itself, or a value corresponding to the size of the pupil, such as the area or diameter of the pupil. Anything is fine. Even when the area or diameter of the pupil is used, a section in which the area or diameter of the pupil increases with the passage of time corresponds to mydriasis, and a section in which the area or diameter of the pupil decreases with the passage of time corresponds to miosis. That is, a section in which the size of the pupil increases with the passage of time corresponds to the mydriasis, and a section in which the size of the pupil decreases with the passage of time corresponds to the miosis.

なお、一般に、対光反射に伴う瞳孔の大きさの変化量は、感情による変化量と比較して数倍程度の大きさとなり、瞳孔の大きさの変化量全体に対する大きな要因となる。対光反射による変化を抑えるために、瞳孔径を取得するときの識別対象者9は急激に環境光の照度が変化しない状況下にあることが望ましい。   In general, the amount of change in the size of the pupil due to the reflection of light is several times larger than the amount of change due to emotion, which is a major factor for the entire amount of change in pupil size. In order to suppress changes due to light reflection, it is desirable that the person 9 to be identified when acquiring the pupil diameter is in a state where the illuminance of the ambient light does not change abruptly.

なお、瞳孔情報取得部21は左右両方の瞳孔の大きさの経時変化に関する情報を取得してもよいし、何れか一方の瞳孔の大きさの経時変化に関する情報のみを取得してもよい。本実施形態では、瞳孔情報取得部21は一方の瞳孔の大きさの経時変化に関する情報のみを取得するものとする。   Note that the pupil information acquisition unit 21 may acquire information related to temporal changes in the sizes of both the left and right pupils, or may acquire only information related to temporal changes in the size of one of the pupils. In the present embodiment, it is assumed that the pupil information acquisition unit 21 acquires only information related to the temporal change in the size of one pupil.

<特徴量抽出部22>
特徴量抽出部22は、実施例1で述べた眼球の動きに基づく特徴量を一つ以上含み、瞳孔の大きさの経時変化に基づく特徴量を一つ以上含む代表特徴量を抽出する(S22)。例えば、特徴量抽出部22は、第一時間区間に対応する眼球の動きに関する情報および瞳孔の大きさの時系列を受け取り、第一時間区間においてマイクロサッカード、瞬目、縮瞳および散瞳を検出し、マイクロサッカード、瞬目、縮瞳および散瞳に関する特徴量を一つ以上を含む代表特徴量を抽出する(S22)。特徴量抽出部22は、抽出された代表特徴量を個人識別部23に出力する。特徴量抽出部22はマイクロサッカードおよび瞬目の検出を、特徴量抽出部12と同様に行う。
<Feature Extraction Unit 22>
The feature amount extraction unit 22 extracts one or more feature amounts based on eyeball movements described in the first embodiment and one or more feature amounts based on temporal changes in pupil size (S22). ). For example, the feature amount extraction unit 22 receives information on eye movements corresponding to the first time interval and a time series of pupil sizes, and performs microsaccade, blink, miosis, and mydriasis in the first time interval. A representative feature amount including one or more feature amounts related to microsaccade, blink, miosis, and mydriasis is extracted (S22). The feature amount extraction unit 22 outputs the extracted representative feature amount to the personal identification unit 23. The feature quantity extraction unit 22 performs microsaccade and blink detection in the same manner as the feature quantity extraction unit 12.

特徴量抽出部22は、縮瞳の開始する時刻(以下、縮瞳開始点)を、瞳孔径の時系列から極大点を抽出することによって検出する。縮瞳の終了する時刻(以下、縮瞳終了点)は、縮瞳開始以降初めて散瞳が開始した点、または縮瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。縮瞳の振幅Acは、縮瞳開始点から縮瞳終了点までの瞳孔径の差である。縮瞳の持続時間Dcは、縮瞳開始点から縮瞳終了点までの時間差である。縮瞳の平均速度Vcは、(振幅Ac)/(持続時間Dc)である。 The feature amount extraction unit 22 detects the time at which the miosis starts (hereinafter referred to as the miosis start point) by extracting the maximum point from the time series of the pupil diameter. The time at which the miosis ends (hereinafter referred to as the miosis end point) is the earlier of the point at which the mydriasis start for the first time after the start of miosis or the point at which the blinks start for the first time after the start of miosis. Amplitude A c of miosis is the difference in the pupil diameter from the miosis start point to miosis end point. The miosis duration D c is the time difference from the miosis start point to the miosis end point. The average speed V c of miosis is (amplitude A c ) / (duration D c ).

特徴量抽出部22は、散瞳の開始する時刻(以下、散瞳開始点)を、瞳孔径の時系列から極小点を抽出することによって検出する。散瞳の終了する時刻(以下、散瞳終了点)は、散瞳開始以降初めて縮瞳が開始した点、または散瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。散瞳の振幅Adは、散瞳開始点から散瞳終了点までの瞳孔径の差である。散瞳の持続時間Ddは、散瞳開始点から散瞳終了点までの時間差である。散瞳の平均速度Vdは、(振幅Ad)/(持続時間Dd)である。 The feature quantity extraction unit 22 detects the time at which the mydriatic starts (hereinafter, mydriatic start point) by extracting a local minimum point from the time series of the pupil diameter. The time at which the mydriatic ends (hereinafter referred to as the mydriatic end point) is the earlier of the time when the miosis starts for the first time after the start of mydriasis or the time when the blink starts for the first time after the start of mydriasis. Amplitude A d mydriatic is the difference between the pupil diameter from mydriasis start point to mydriasis end point. The mydriatic duration D d is the time difference from the mydriatic start point to the mydriatic end point. The average speed V d of the mydriasis is (amplitude A d ) / (duration D d ).

ノイズによる誤検出を防ぐために、縮瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは縮瞳の振幅が所定の閾値以下の場合は、特徴量抽出部22は、その縮瞳を検出から除外するとよい。同様に、散瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは散瞳の振幅が所定の閾値以下の場合は、特徴量抽出部22は、その散瞳を検出から除外するとよい。   In order to prevent erroneous detection due to noise, when the duration of the miosis is a predetermined threshold (for example, 10 ms) or less, or when the amplitude of the miosis is less than the predetermined threshold, the feature amount extraction unit 22 performs the miosis. Should be excluded from detection. Similarly, if the duration of the mydriasis is a predetermined threshold (for example, 10 ms) or less, or if the amplitude of the mydriasis is a predetermined threshold or less, the feature amount extraction unit 22 excludes the mydriatic from detection. Good.

第一時間区間に対応する代表特徴量は、第一時間区間において検出された全てのマイクロサッカードの基準振幅A、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間Tp、減衰率λ、減衰係数ζおよび固有角振動数ω、第一時間区間におけるマイクロサッカードの単位時間あたりの発生回数Rmと、第一時間区間において検出された全ての縮瞳の振幅Ac、縮瞳の持続時間Dc、縮瞳の平均速度Vcと、第一時間区間において検出された全ての散瞳の振幅Ad、散瞳の持続時間Dd、散瞳の平均速度Vdとをそれぞれ計算し、第一時間区間において生じた全てのマイクロサッカードと縮瞳と散瞳とについて前述の特徴量それぞれの代表値を求め、前述の特徴量それぞれの代表値をベクトル表現で並列したものを用いる。代表値とは、例えば平均値、最大値、最小値に対応する値などであり、特に平均値を用いることが好ましい。代表特徴量には、前述の特徴量それぞれの代表値に加えて、第一時間区間における瞬目の1秒あたりの発生回数Rb、第一時間区間における瞬目の持続時間の代表値Db、第一時間区間における縮瞳の1秒あたりの発生回数Rc、第一時間区間における散瞳の1秒あたりの発生回数Rdをベクトルの要素として加えてもよい。代表特徴量は前述の全ての特徴量を要素として含むものに限定されず、このうち一部を用いて構成されても良い。 The representative features corresponding to the first time interval are the reference amplitude A, the maximum velocity V max , the duration D m , the overshoot amplitude A o , and the overshoot amplitude of all the microsaccades detected in the first time interval. V o , rise time T p , damping rate λ, damping coefficient ζ and natural angular frequency ω n , number of occurrences of microsaccade per unit time R m in the first time interval, and detected in the first time interval The amplitude A c of all the miosis, the duration D c of the miosis, the average velocity V c of the miosis, the amplitude A d of all the mydriasis detected in the first time interval, and the duration D of the mydriasis d and average mydriatic velocity V d are calculated respectively, and representative values of the above-described feature values are obtained for all microsaccades, miosis, and mydriasis generated in the first time interval, and the above-described feature values are obtained. Parallel each representative value in vector representation Were the ones used. The representative value is, for example, a value corresponding to an average value, a maximum value, or a minimum value, and it is particularly preferable to use an average value. The representative feature amount includes, in addition to the representative value of each feature amount described above, the number of occurrences R b per second in the first time interval, and the representative value D b of the blink duration in the first time interval. Alternatively, the number of occurrences of miosis per second R c in the first time interval and the number of occurrences R d of mydriatic per second in the first time interval may be added as vector elements. The representative feature amount is not limited to one including all the above-described feature amounts as elements, and may be configured using a part of them.

<個人識別部23>
個人識別部23は、特徴量抽出部22で抽出した代表特徴量と、所定の個人ラベルとを、モデル記憶部24に記憶された第一個人識別モデルに入力することにより、代表特徴量が所定の個人ラベルの識別対象者9から取得されたか否かを推定する(S23)。
<Personal identification unit 23>
The personal identification unit 23 inputs the representative feature amount extracted by the feature amount extraction unit 22 and a predetermined personal label into the first personal identification model stored in the model storage unit 24, whereby the representative feature amount is predetermined. It is estimated whether or not the personal label has been acquired from the person to be identified 9 (S23).

あるいは個人識別部23は、特徴量抽出部22で抽出した代表特徴量のみを、モデル記憶部24に記憶された第二個人識別モデルに入力することにより、個人ラベルを推定する(S23)。個人識別部23が、第一個人識別モデルを用いるか第二個人識別モデルを用いるかは、事前に指定することができるものとする。   Alternatively, the personal identification unit 23 estimates the personal label by inputting only the representative feature amount extracted by the feature amount extraction unit 22 to the second personal identification model stored in the model storage unit 24 (S23). It can be specified in advance whether the personal identification unit 23 uses the first personal identification model or the second personal identification model.

<モデル記憶部24>
モデル記憶部24は、モデル記憶部14と同様である。つまり、代表特徴量と所定の個人ラベルを入力として、代表特徴量が所定の個人ラベルの識別対象者9から取得されたかどうかを推定するような第一個人識別モデルと、代表特徴量のみを入力として、代表特徴量を取得した識別対象者9の個人ラベルを推定するような第二個人識別モデルと、が予め記録されている。ただし、モデルに入力される代表特徴量に縮瞳あるいは散瞳の特徴量が含まれる点が異なる。
<Model storage unit 24>
The model storage unit 24 is the same as the model storage unit 14. In other words, the first personal identification model that estimates whether or not the representative feature quantity and the predetermined personal label are acquired from the identification target person 9 of the predetermined personal label, and only the representative feature quantity are input. The second personal identification model that estimates the personal label of the person to be identified 9 who has acquired the representative feature amount is recorded in advance. However, the difference is that the representative feature quantity input to the model includes the feature quantity of miosis or mydriasis.

<効果>
本実施形態の個人識別装置20によれば、第一実施形態と同様の効果に加え、瞳孔の大きさの経時変化に関連するパラメータを代表特徴量に加えることにより、さらに高精度な個人識別を実現できる。
<Effect>
According to the personal identification device 20 of the present embodiment, in addition to the same effects as those of the first embodiment, by adding a parameter related to the temporal change in the size of the pupil to the representative feature amount, further accurate personal identification can be performed. realizable.

<その他の変形例>
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
<Other variations>
The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. In addition, the processing described in the above embodiment may be executed not only in time series according to the order of description but also in parallel or individually as required by the processing capability of the apparatus that executes the processing. .

以下、図8〜図11を参照して本発明の実施例とその結果を示す。本実施例では、被験者23名を対象として、近赤外線カメラを用いて眼球運動および瞳孔径変化を1000Hzのサンプリングで記録した。各人15回ずつの記録を行い、一回の計測は90秒間の長さとした。   Examples of the present invention and the results thereof will be described below with reference to FIGS. In this example, eye movements and pupil diameter changes were recorded at a sampling rate of 1000 Hz using a near-infrared camera for 23 subjects. Each person recorded 15 times, and each measurement was 90 seconds long.

計測時間の長さによる推定精度の違いを検証するため、各サンプル(90秒)のうち一部の時間区間(10秒、20秒、40秒、80秒)を切り取った4つの条件について、個別に以下の検討を行った。   In order to verify the difference in estimation accuracy due to the length of measurement time, four conditions obtained by cutting out some time sections (10 seconds, 20 seconds, 40 seconds, 80 seconds) of each sample (90 seconds) were individually The following examination was conducted.

瞬目の検出は眼球運動データに基づいて行い、30ms以下の持続時間のものは排除した。マイクロサッカードの検出には眼球運動データの速度次元を用い、閾値は標準偏差の8倍とした。散瞳及び縮瞳の検出では、瞳孔径変化の時系列データを用い、150msの時間窓で平滑化を行ったのちに極小点及び極大点を抽出し、持続時間が5ms以下とみなされた縮瞳及び散瞳は排除した。   Blink detection was based on eye movement data, and those with a duration of 30 ms or less were excluded. The velocity dimension of eye movement data was used for microsaccade detection, and the threshold was set to 8 times the standard deviation. In the detection of mydriasis and miosis, time series data of pupil diameter changes is used, and after smoothing in a 150 ms time window, the minimum and maximum points are extracted, and the reduction is considered to be 5 ms or less in duration. Pupil and mydriatic were excluded.

各サンプルの代表特徴量には、マイクロサッカードの発生頻度・振幅・最大速度・持続時間・オーバーシュートの速度・左方向の減衰係数・右方向の減衰係数・固有角振動数、瞬目の頻度・持続時間、散瞳の発生頻度・振幅・平均速度・持続時間、縮瞳の発生頻度・振幅・平均速度・持続時間を計算し、各サンプルの時間内での平均値をとったものを用いた。   The representative features of each sample include microsaccade frequency, amplitude, maximum speed, duration, overshoot speed, leftward damping coefficient, rightward damping coefficient, natural angular frequency, blink frequency・ Calculate duration, mydriatic frequency, amplitude, average velocity, duration, miosis frequency, amplitude, average velocity, duration, and use the average value of each sample in time It was.

図8は、第二個人識別モデル(代表特徴量を入力とし、識別対象者の個人ラベルを識別するためのモデル)による推定精度を示す。具体的には、N人(2人から23人まで)の個人ラベルと、N人の一人あたり14サンプルの代表特徴量とを入力とし、SVMを用いて代表特徴量とN通りの個人ラベルとを関連づける学習モデルを生成した。学習モデルに基づいて、学習に用いられなかった一人あたり1サンプルの代表特徴量から、個人ラベルを推定し、実際の個人ラベルと一致しているか検証した。同様の学習と推定を、人の組み合わせを無作為に変えて25回繰り返し、平均の推定精度を求めた。推定の結果、対象人数が7人以下の場合では20秒のサンプル長であれば90%超、対象人数が23人の場合でも、80秒のサンプル長があれば90%超で個人ラベルを正しく推定することができた。   FIG. 8 shows the estimation accuracy according to the second individual identification model (a model for identifying the individual label of the person to be identified with the representative feature quantity as an input). Specifically, N individual (from 2 to 23) personal labels and representative feature values of 14 samples per N person are input, and using SVM, representative feature values and N different personal labels A learning model that associates Based on the learning model, the personal label was estimated from the representative feature quantity of one sample per person that was not used for learning, and it was verified whether it matched the actual personal label. Similar learning and estimation were repeated 25 times with random combinations of people, and the average estimation accuracy was obtained. As a result of estimation, if the target number is 7 or less, the personal label is correctly over 90% if the sample length is 20 seconds, and if the target number is 23, the personal label is correctly over 90% if the sample length is 80 seconds. I was able to estimate.

図9と図10は、第一個人識別モデル(代表特徴量と所定の個人ラベルを入力とし、代表特徴量が所定の個人ラベルの識別対象者から取得されたかどうかを識別するためのモデル)による本人受入率、他者拒否率を示す。具体的には、N人(2人から23人まで)が所定の個人ラベル(以下、個人ラベルL)であるか否かを表す値(個人ラベルLであれば1、個人ラベルLでなければ0。以下、識別ラベル)と、N人の一人あたり14サンプルの代表特徴量とを入力とし、SVMを用いて代表特徴量と識別ラベルとを関連づける学習モデルを生成した。学習モデルに基づいて、学習に用いられなかった一人あたり1サンプルの代表特徴量から、識別ラベルを推定し、実際の識別ラベルと一致しているか検証した。同様の学習と推定を、個人ラベルLをN通りに変えて繰り返し、さらに人の組み合わせを無作為に変えて5回繰り返し、平均の推定精度を求めた。このとき、実際の識別ラベルが1であるときに正しく識別ラベルを1と推定できた確率を本人受入率、実際の識別ラベルが1であるときに誤って識別ラベルを0と推定した確率を本人拒否率、実際の識別ラベルが0であるときに正しく識別ラベルを0と推定した確率を他者拒否率、実際の識別ラベルが0であるときに誤って識別ラベルを1と推定した確率を他者受入率ということができる。推定の結果、本人受入率は、対象人数が20人以下の場合では80秒のサンプル長であれば90%超、対象人数が23人の場合でも10秒のサンプル長があれば50%超となった(図9)。また、他者拒否率は対象人数が23人の場合でも、サンプル長によらず99%超であった(図10)。この結果によれば、本人以外のサンプルを本人として誤って認証する確率が非常に低いということができる。   FIG. 9 and FIG. 10 show the person according to the first personal identification model (a model for identifying whether or not the representative feature quantity is acquired from the identification target person of the predetermined personal label, with the representative feature quantity and the predetermined personal label as inputs). Shows the acceptance rate and other person rejection rate. Specifically, a value indicating whether or not N people (2 to 23 people) have a predetermined personal label (hereinafter, personal label L) (1 if personal label L, 1 if not personal label L) 0. Hereafter, an identification label) and representative features of 14 samples per N people were input, and a learning model was created that associates the representative features with the identification label using SVM. Based on the learning model, the identification label was estimated from the representative feature quantity of one sample per person that was not used for learning, and it was verified whether it matched the actual identification label. Similar learning and estimation were repeated by changing the personal label L in N ways, and further repeating the combination of people at random five times to obtain the average estimation accuracy. At this time, the probability of correctly estimating the identification label as 1 when the actual identification label is 1 is the person acceptance rate, and the probability of erroneously estimating the identification label as 0 when the actual identification label is 1 is The rejection rate, the probability of correctly estimating the identification label as 0 when the actual identification label is 0, the other person rejection rate, the probability of erroneously estimating the identification label as 1 when the actual identification label is 0, etc. It can be said that the acceptance rate. As a result of estimation, the acceptance rate is over 90% for a sample length of 80 seconds when the target number is 20 or less, and over 50% for a sample length of 10 seconds even when the target number is 23. (Fig. 9). In addition, the rejection rate of others was over 99% regardless of the sample length even when the target number was 23 (FIG. 10). According to this result, it can be said that the probability of erroneously authenticating a sample other than the principal as the principal is very low.

図11は、様々な条件下での第一個人識別モデルによる推定精度を示す図である。図11には、第一個人識別モデルによる上記と同様の推定を、代表特徴量に含まれる要素を変えて検証した結果を示した。具体的には、マイクロサッカードの基本特徴量(発生頻度・振幅・最大速度・持続時間)を用いた場合(薄く斜線ハッチングを施した棒グラフ)と、マイクロサッカードの全特徴量(発生頻度・振幅・最大速度・持続時間・オーバーシュートの速度・左方向の減衰係数・右方向の減衰係数・固有角振動数)を用いた場合(濃く斜線ハッチングを施した棒グラフ)と、全ての特徴量(マイクロサッカードの発生頻度・振幅・最大速度・持続時間・オーバーシュートの速度・左方向の減衰係数・右方向の減衰係数・固有角振動数、瞬目の頻度・持続時間、散瞳の発生頻度・振幅・平均速度・持続時間、縮瞳の発生頻度・振幅・平均速度・持続時間)を用いた場合(黒く塗りつぶした棒グラフ)の結果を表す。ただし、サンプル長は80秒、Nは23人とする。推定の結果、マイクロサッカードの基本特徴量のみを用いた場合では本人受容率は約57%、マイクロサッカードの全ての特徴量を用いた場合では本人受容率は約86%、全ての特徴量を用いた場合では本人受容率は約90%であり、いずれの場合でも他者拒否率は99%超であった。この結果によれば、本発明の特徴であるマイクロサッカードのオーバーシュート・減衰係数・固有角振動数を代表特徴量として用いることが推定精度の向上に大きく寄与しているということができる。   FIG. 11 is a diagram illustrating the estimation accuracy based on the first individual identification model under various conditions. FIG. 11 shows the result of verifying the same estimation as described above by the first individual identification model by changing the elements included in the representative feature amount. Specifically, when the basic features (occurrence frequency, amplitude, maximum speed, duration) of microsaccades are used (bar graph with thin hatching), all the features of microsaccades (occurrence frequency, When using amplitude (maximum speed, duration, overshoot speed, leftward damping coefficient, rightward damping coefficient, natural angular frequency) (bar graph with dark hatching), all features ( Microsaccade frequency, amplitude, maximum speed, duration, overshoot speed, left damping coefficient, right damping coefficient, natural angular frequency, blink frequency, duration, mydriatic frequency Amplitude / average speed / duration, miosis occurrence frequency / amplitude / average speed / duration) (black bar graph) results are shown. However, the sample length is 80 seconds and N is 23 people. As a result of the estimation, if only the basic features of microsaccade are used, the acceptance rate is about 57%, and if all the features of microsaccade are used, the acceptance rate is about 86%, and all features When using, the acceptance rate was about 90%, and in all cases the rejection rate was over 99%. According to this result, it can be said that the use of the microsaccade overshoot, the damping coefficient, and the natural angular frequency, which are features of the present invention, as the representative feature amount greatly contributes to the improvement of the estimation accuracy.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Supplementary note>
The apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Can be connected to a communication unit, a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged between the external storage devices. If necessary, the hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。   The external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。   In the hardware entity, each program stored in an external storage device (or ROM or the like) and data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate. . As a result, the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。   As described above, when the processing functions in the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, a hardware entity is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Claims (7)

個人識別装置が実行する個人識別方法であって、
安静もしくは注視状態における識別対象者の眼球の動きに関する情報を取得する眼球運動取得ステップと、
前記眼球の動きに基づいて、所定時間区間内の各マイクロサッカードに関する特徴量の統計量である代表値を代表特徴量として抽出する特徴量抽出ステップと、
前記代表特徴量に基づいて前記識別対象者を識別する個人識別ステップ
を含む個人識別方法。
A personal identification method executed by a personal identification device,
An eye movement acquisition step for acquiring information on the movement of the eyeball of the identification subject in a resting or gaze state ;
Based on the movement of the eye, a feature amount extraction step to extract the representative value as a representative feature quantity is a statistical quantity of feature parameters for each micro saccade in a predetermined time interval,
A personal identification method including a personal identification step of identifying the identification target person based on the representative feature amount.
請求項1に記載の個人識別方法であって
前記マイクロサッカードに関する特徴量の種別として、前記マイクロサッカードの基準振幅、最大速度、持続時間、オーバーシュートの振幅、オーバーシュートの速度、立ち上がり時間、減衰率、減衰係数、固有角振動数、単位時間あたりの発生回数のうち少なくとも何れかを含む
個人識別方法。
The personal identification method according to claim 1 ,
As the type of feature amount related to the microsaccade, the reference amplitude, maximum speed, duration, overshoot amplitude, overshoot speed, rise time, damping rate, damping coefficient, natural angular frequency, unit of the microsaccade A personal identification method including at least one of occurrences per hour.
請求項1または2に記載の個人識別方法であって、  The personal identification method according to claim 1 or 2,
前記個人識別ステップは、  The personal identification step includes
前記代表特徴量を入力として、当該代表特徴量が予め定めた個人ラベルの識別対象者から取得されたものか否かの識別結果を出力するよう学習された第一個人識別モデルに基づいて、前記特徴量抽出ステップで抽出した代表特徴量が所定の個人ラベルの識別対象者から取得されたものであるか否かを識別する  Based on the first personal identification model learned to output the identification result as to whether or not the representative feature is acquired from the identification target person of the predetermined personal label, using the representative feature as an input It is identified whether or not the representative feature amount extracted in the amount extraction step is obtained from an identification target person of a predetermined personal label.
個人識別方法。Personal identification method.
請求項1または2に記載の個人識別方法であって、  The personal identification method according to claim 1 or 2,
前記個人識別ステップは、  The personal identification step includes
前記代表特徴量を入力として、当該代表特徴量に対応する個人ラベルの推定結果を出力するよう学習された第二個人識別モデルに基づいて、前記特徴量抽出ステップで抽出した代表特徴量に対応する個人ラベルを推定する  Corresponding to the representative feature amount extracted in the feature amount extraction step based on the second personal identification model learned to output the estimation result of the personal label corresponding to the representative feature amount with the representative feature amount as an input Estimate personal labels
個人識別方法。Personal identification method.
請求項1から4の何れかに記載の個人識別方法であって、
前記識別対象者の瞳孔の大きさの経時変化に関する情報を取得する瞳孔情報取得ステップをさらに含み、
前記特徴量抽出ステップは、
前記眼球の動きに基づく特徴量を一つ以上含み、前記瞳孔の大きさの経時変化に基づく特徴量を一つ以上含む代表特徴量を抽出する
個人識別方法。
The personal identification method according to any one of claims 1 to 4,
Further including a pupil information acquisition step of acquiring information related to a temporal change in the size of the pupil of the identification target;
The feature amount extraction step includes:
A personal identification method for extracting a representative feature amount including at least one feature amount based on a movement of the eyeball and including at least one feature amount based on a temporal change in the size of the pupil.
安静もしくは注視状態における識別対象者の眼球の動きに関する情報を取得する眼球運動取得部と、
前記眼球の動きに基づいて、所定時間区間内の各マイクロサッカードに関する特徴量の統計量である代表値を代表特徴量として抽出する特徴量抽出部と、
前記代表特徴量に基づいて前記識別対象者を識別する個人識別部
を含む個人識別装置。
An eye movement acquisition unit for acquiring information on the movement of the eyeball of the identification target person in a resting or gaze state ;
Based on the movement of the eye, a feature amount extraction unit to extract a representative value as the representative feature quantity is a statistical quantity of feature parameters for each micro saccade in a predetermined time interval,
A personal identification device including a personal identification unit for identifying the identification target person based on the representative feature amount.
請求項1から5の何れかに記載された個人識別方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the personal identification method described in any one of Claim 1 to 5.
JP2015028390A 2015-02-17 2015-02-17 Personal identification method, personal identification device, program Active JP6377545B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015028390A JP6377545B2 (en) 2015-02-17 2015-02-17 Personal identification method, personal identification device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015028390A JP6377545B2 (en) 2015-02-17 2015-02-17 Personal identification method, personal identification device, program

Publications (2)

Publication Number Publication Date
JP2016151849A JP2016151849A (en) 2016-08-22
JP6377545B2 true JP6377545B2 (en) 2018-08-22

Family

ID=56696583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015028390A Active JP6377545B2 (en) 2015-02-17 2015-02-17 Personal identification method, personal identification device, program

Country Status (1)

Country Link
JP (1) JP6377545B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670384A (en) * 2017-10-16 2019-04-23 北京集联网络技术有限公司 A kind of quick biopsy method of iris
JP7214986B2 (en) * 2018-06-25 2023-01-31 日本電信電話株式会社 Reflectivity determination device, reflectivity determination method, and program
JPWO2022185550A1 (en) * 2021-03-05 2022-09-09

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001088857A1 (en) * 2000-05-16 2001-11-22 Swisscom Mobile Ag Biometric method for identification and authorisation
IL165586A0 (en) * 2004-12-06 2006-01-15 Daphna Palti Wasserman Multivariate dynamic biometrics system
US8790280B2 (en) * 2007-06-27 2014-07-29 Panasonic Corporation Human state estimating device and method
JP2013005018A (en) * 2011-06-13 2013-01-07 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and imaging method
JP6087171B2 (en) * 2013-03-01 2017-03-01 公立大学法人首都大学東京 Human state estimation device and transport equipment including the same

Also Published As

Publication number Publication date
JP2016151849A (en) 2016-08-22

Similar Documents

Publication Publication Date Title
EP3617815B1 (en) Work support device, work support method, and work support program
JP7070605B2 (en) Focus range estimator, its method and program
Tafaj et al. Bayesian online clustering of eye movement data
US20190392145A1 (en) Detection of print-based spoofing attacks
JP5718493B1 (en) Sound saliency estimating apparatus, method and program thereof
Arbel et al. On the utility of positive and negative feedback in a paired-associate learning task
JP6939533B2 (en) Attention level estimation device, attention level estimation model learning device, attention level estimation method, attention level estimation model learning method, and program
US20170071524A1 (en) Method of correcting distortion of psychological test using user&#39;s biometric data
JP6755839B2 (en) Exercise performance estimator, method, and program
JP6377545B2 (en) Personal identification method, personal identification device, program
WO2013147763A1 (en) Person identification using ocular biometrics
JP6479708B2 (en) Feature amount extraction apparatus, estimation apparatus, method thereof, and program
CN115329818A (en) Multi-modal fusion attention assessment method, system and storage medium based on VR
Naveed et al. Eye tracking system with blink detection
US11670423B2 (en) Method and system for early detection of neurodegeneration using progressive tracking of eye-markers
US11583214B2 (en) Adaptive psychological assessment tool
JP6509712B2 (en) Impression estimation device and program
JP7214986B2 (en) Reflectivity determination device, reflectivity determination method, and program
JP5718495B1 (en) Impression estimation device, method thereof, and program
Korda et al. Automatic identification of oculomotor behavior using pattern recognition techniques
JP2017202048A (en) Feature amount extraction device, estimation device, method for the same and program
Schweitzer et al. Definition, modeling, and detection of saccades in the face of post-saccadic oscillations
Punuganti Automatic detection of nystagmus in bedside VOG recordings from patients with vertigo
JP6445418B2 (en) Impression estimation device, impression estimation method, and program
Jayarathna et al. Rationale and architecture for incorporating human oculomotor plant features in user interest modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180725

R150 Certificate of patent or registration of utility model

Ref document number: 6377545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150