JP2017202048A - 特徴量抽出装置、推定装置、それらの方法、およびプログラム - Google Patents
特徴量抽出装置、推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP2017202048A JP2017202048A JP2016094388A JP2016094388A JP2017202048A JP 2017202048 A JP2017202048 A JP 2017202048A JP 2016094388 A JP2016094388 A JP 2016094388A JP 2016094388 A JP2016094388 A JP 2016094388A JP 2017202048 A JP2017202048 A JP 2017202048A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- feature
- eye
- subject
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【課題】両眼の関係に基づく新たな特徴量を用いた推定を行う。【解決手段】対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、当該対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を得る。【選択図】図1
Description
本発明は、眼の動的な変化から特徴量を抽出する技術に関する。
特許文献1,2には、眼球の動きや瞳孔の大きさの変化に基づいた特徴量を抽出する技術が開示されている。
しかし、特許文献1,2に開示された技術は、何れかの眼に関する特徴量を抽出するものである。両眼の特徴量が基本的に同一あるいは強く相関する事実に基づいているが、実際には特徴量の両眼差が存在することから、両眼の関係を用いた場合に比べ情報量が劣る。
本発明の課題は、両眼の関係に基づく新たな特徴量を用いた推定を行うことである。
対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、当該対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を得る。
これにより、両眼の関係に基づく新たな特徴量を用いた推定を行うことができる。
以下、本発明の実施形態を説明する。
[原理]
まず本形態の原理を説明する。各実施形態では、「対象者」の一方の眼の動的な変化に基づいて得られた「第1特徴量」と、当該「対象者」の他方の眼の動的な変化に基づいて得られた「第2特徴量」と、の相対量に応じた「第3特徴量」を得る。「第3特徴量」は、例えば「対象者」および/または「対象者」の属性および/または「対象者」の注意状態などを表す。「属性」の例は、性別、人種、出身地、年齢層、性格などである。「第3特徴量」を含む特徴量を用いることで、例えば、「対象者」および/または「対象者」の属性および/または「対象者」の注意状態の推定などを行うことができる。
[原理]
まず本形態の原理を説明する。各実施形態では、「対象者」の一方の眼の動的な変化に基づいて得られた「第1特徴量」と、当該「対象者」の他方の眼の動的な変化に基づいて得られた「第2特徴量」と、の相対量に応じた「第3特徴量」を得る。「第3特徴量」は、例えば「対象者」および/または「対象者」の属性および/または「対象者」の注意状態などを表す。「属性」の例は、性別、人種、出身地、年齢層、性格などである。「第3特徴量」を含む特徴量を用いることで、例えば、「対象者」および/または「対象者」の属性および/または「対象者」の注意状態の推定などを行うことができる。
「第1特徴量」および「第2特徴量」は、同一の「対象者」の両方の眼の動的な変化に基づいて得られた特徴量である。「眼の動的な変化」は、瞳孔の動き(瞳孔径の経時変化)であってもよいし、眼球自体の動き(眼球の位置の経時変化)であってもよい。「一方の眼」が「対象者」の右眼の場合には「他方の眼」は当該「対象者」の左眼であり、「一方の眼」が「対象者」の左眼の場合には「他方の眼」は当該「対象者」の右眼である。「対象者」は眼が動的に変化する動物であれば、ヒトであってもよいし、ヒト以外の動物であってもよい。「特徴量」はどのようなものであってもよく、スカラであってもよいし、ベクトルであってもよい。
例えば、「第1特徴量」が「一方の眼」の瞳孔の動きに基づいて得られた特徴量を含み、「第2特徴量」が「他方の眼」の瞳孔の動きに基づいて得られた特徴量を含んでもよい。例えば、「第1特徴量」が「一方の眼」の縮瞳および/または散瞳の発生タイミングに基づいて得られた特徴量を含み、「第2特徴量」が「他方の眼」の縮瞳および/または散瞳の発生タイミングに基づいて得られた特徴量を含んでもよい。例えば、「第1特徴量」が「一方の眼」の縮瞳および/または散瞳の振幅に基づいて得られた特徴量を含み、「第2特徴量」が「他方の眼」の縮瞳および/または散瞳の振幅に基づいて得られた特徴量を含んでもよい。「第1特徴量」が「一方の眼」の眼球自体の動きに基づいて得られた特徴量を含み、「第2特徴量」が「他方の眼」の眼球自体の動きに基づいて得られた特徴量を含んでもよい。例えば、「第1特徴量」が「一方の眼」のサッカードに基づく特徴量を含み、「第2特徴量」が「他方の眼」のサッカードに基づく特徴量を含んでもよい。「サッカード」はマイクロサッカード(micro saccade)であってもよいし、ラージサッカード(large saccade)であってもよい。「第1特徴量」および「第2特徴量」が眼球の運動方向に基づく特徴量を含んでもよいし、眼球運動の振幅の絶対値に基づく特徴量を含んでもよいし、眼球運動の減衰係数に基づく特徴量を含んでもよいし、眼球運動の固有角振動数に基づく特徴量を含んでもよいし、眼球のサッカードの発生タイミングに基づく特徴量を含んでもよい。ただし、「第1特徴量」と「第2特徴量」とは同じ種別の特徴量である。「特徴量」は時系列情報であってもよいし、時系列情報でなくてもよい。「特徴量」は時間(例えば、離散時間)に対応してもよいし、時間区間に対応してもよい。ただし「第1特徴量」に対応する時間や時間区間は、「第2特徴量」に対応する時間や時間区間に対応する。例えば、「第1特徴量」と「第2特徴量」とが同じ時間に対応してもよいし、「第1特徴量」と「第2特徴量」とが同じ時間区間に対応してもよい。
「αとβとの相対量」は、例えば、αとβとの差分、αからβを減じた値、βからαを減じた値、αをβで除した値、もしくはβをαで除した値、またはそれらの何れかの関数値である。「相対量に応じた第3特徴量」は、例えば、「相対値」もしくはその関数値、「相対値」もしくはその関数値を要素としたベクトル、または、それらの何れかの関数値である。
前述のように、「第3特徴量」は、「対象者」および/または「対象者」の属性および/または「対象者」の注意状態などを表す。そのため、少なくとも「第3特徴量」を含む特徴量を用いることで、「対象者」および/または「対象者」の属性および/または「対象者」の注意状態などを推定できる。この推定方法に特に制限はない。事前またはリアルタイムに得られた「第3特徴量」を含む特徴量を学習データとして教師ありまたは教師なしの機械学習を行って心理状態を表す値を推定するモデルを生成し、新たに得られた「第3特徴量」を含む特徴量をこのモデルに適用することで心理状態を表す値を推定してもよい。これには、例えば、重回帰分析、k-means、サポートベクターマシーン(SVM)、単純クラスタリング、隠れマルコフモデル、ニューラルネットワーク、ディープラーニングなどを利用できる。
[第1実施形態]
次に図面を用いて第1実施形態を説明する。
<構成および処理>
図1に例示するように、本形態のシステムは特徴量抽出装置11、および、推定装置12を含む。特徴量抽出装置11は、眼球情報取得部111、特徴量抽出部112a,112b、両眼対応部113、特徴量算出部114、および特量量整列部115を含み、推定装置12は推定部121を含む。特徴量抽出装置11および推定装置12のそれぞれは、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
次に図面を用いて第1実施形態を説明する。
<構成および処理>
図1に例示するように、本形態のシステムは特徴量抽出装置11、および、推定装置12を含む。特徴量抽出装置11は、眼球情報取得部111、特徴量抽出部112a,112b、両眼対応部113、特徴量算出部114、および特量量整列部115を含み、推定装置12は推定部121を含む。特徴量抽出装置11および推定装置12のそれぞれは、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
《眼球情報取得部111(図2:ステップS111)》
眼球情報取得部111は、対象者100の両眼の各離散時刻の「眼の動的な変化」に関する時系列情報を取得する。眼球情報取得部111は、取得した一方の眼(例えば、右眼)の動的な変化に関する時系列情報を特徴量抽出部112aへ出力し、取得した他方の眼(例えば、左眼)の動的な変化に関する時系列情報を特徴量抽出部112bへ出力する。取得される「眼の動的な変化」は、対象者100の瞳孔の動きであってもよいし、眼球自体の動きであってもよいし、それら両方であってもよい。
眼球情報取得部111は、対象者100の両眼の各離散時刻の「眼の動的な変化」に関する時系列情報を取得する。眼球情報取得部111は、取得した一方の眼(例えば、右眼)の動的な変化に関する時系列情報を特徴量抽出部112aへ出力し、取得した他方の眼(例えば、左眼)の動的な変化に関する時系列情報を特徴量抽出部112bへ出力する。取得される「眼の動的な変化」は、対象者100の瞳孔の動きであってもよいし、眼球自体の動きであってもよいし、それら両方であってもよい。
対象者100の「瞳孔の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者100の眼を撮影して得られた映像に基づいて得られる。例えば、対象者100にある1点を注視してもらうようにし、その時の瞳孔が赤外線カメラで撮像される。眼球情報取得部111は、撮影された映像を画像処理することで、フレーム毎(例えば、1000Hzのサンプリング間隔)の瞳孔の大きさの時系列を取得する。眼球情報取得部111は、例えば瞳孔を撮影した画像に対して、瞳孔に円をフィッティングし、当該フィッティングした円の半径を瞳孔径として用いることができる。瞳孔径は微細に変動するため、眼球情報取得部111は、所定の時間区間ごとにスムージング(平滑化)した瞳孔径の値を用いれば好適である。図3に右眼と左目の瞳孔の動き(瞳孔径の変化)を例示する。図3の横軸は時間[秒]を表し、縦軸は瞳孔径を表す。この瞳孔径は各時刻で取得した瞳孔径の全データの平均を0、標準偏差を1としたときのz-scoreで表現されている。ただし、眼球情報取得部111が取得する「瞳孔の動きに関する時系列情報」は、z-scoreで表現された瞳孔径の時系列でなくてもよく、瞳孔径の値そのものの時系列であってもよいし、瞳孔の面積や直径の時系列であってもよく、瞳孔の大きさに対応する値の時系列であればどのようなものであってもよい。
対象者100の「眼球自体の動き」に関する時系列情報は、撮像装置(例えば赤外線カメラ)で対象者100の眼を撮影して得られた映像に基づいて得られる。眼球情報取得部111は、例えば、撮影された映像を画像処理することで、所定の時間区間であるフレーム毎(例えば、1000Hzのサンプリング間隔)の眼球の位置の時系列を眼球の動きに関する時系列情報として取得する。眼球情報取得部111は、撮像装置と画像処理アルゴリズムを実行するコンピュータなどによって実現されてもよいし、撮像装置を外部装置として、撮像装置から入力された画像を画像処理するアルゴリズムを実行するコンピュータなどによって実現されてもよい。あるいは、眼球情報取得部111は、電極を用いた電位計測法を用いて眼球の動きを測定し、その測定結果に基づいて「眼球自体の動き」に関する時系列情報を取得してもよい。この場合、眼球情報取得部111は、測定装置(電極を含む)と測定装置が測定した電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよいし、測定装置を外部装置として、測定装置から入力された電位に基づいて眼球の位置を計算するアルゴリズムを実行するコンピュータなどによって実現されてもよい。図4に一方の眼球の動きを例示する。図4の横軸は時間[秒]を表し、縦軸は視野角[度]を表す。
《特徴量抽出部112a,112b(ステップS112)》
特徴量抽出部112aは、対象者100の一方の眼の動的な変化に関する時系列情報を入力とし、当該対象者100の一方の眼の動的な変化に基づく特徴量y1,n=(y1,n,1,…,y1,n,d)を得て出力する(n=1,2,…,Na)。特徴量抽出部112bは、対象者100の他方の眼の動的な変化に関する時系列情報を入力とし、当該対象者100の他方の眼の動的な変化に基づく特徴量y2,n’=(y2,n’,1,…,y2,n’,d)を得て出力する(n’=1,2,…,Nb)。本形態の特徴量抽出部112a,112bは、予め定められたイベントの種別ごとに特徴量y1,n,y2,n’を得て出力する。イベントの種別とは、例えば後述する「縮瞳」「散瞳」「マイクロサッカード」のいずれかである。ただし、n, n’はイベントの発生順を表すインデックス(整数)であり、nあるいはn’が大きいほど、新しいイベントに対応する。Naは特徴量抽出部112aで所定の測定区間内に検出されたイベントの総数であり、Nbは特徴量抽出部112bで当該所定の測定区間内に検出されたイベントの総数である。一般に、ノイズによる誤検出や閾値設定による検出漏れなどにより、NaとNbは異なる値をとる。dは特徴量の次元を表す正整数である。特徴量がスカラである場合にはd=1であり、特徴量がベクトルである場合にはdは2以上の整数である。ただし、n, n’, d, Na, Nbはいずれも「縮瞳」「散瞳」「マイクロサッカード」などのイベントの所定の種別ごとに定義されるものである。特徴量y1,n,y2,n’は、両眼対応部113に送られる。特徴量y1,nは、対象者100の一方の眼の瞳孔の動きに基づいて得られる特徴量であってもよいし、眼球自体の動きに基づいて得られる特徴量であってもよい。同様に、特徴量y2,n’は、対象者100の他方の眼の瞳孔の動きに基づいて得られる特徴量であってもよいし、眼球自体の動きに基づいて得られる特徴量であってもよい。
特徴量抽出部112aは、対象者100の一方の眼の動的な変化に関する時系列情報を入力とし、当該対象者100の一方の眼の動的な変化に基づく特徴量y1,n=(y1,n,1,…,y1,n,d)を得て出力する(n=1,2,…,Na)。特徴量抽出部112bは、対象者100の他方の眼の動的な変化に関する時系列情報を入力とし、当該対象者100の他方の眼の動的な変化に基づく特徴量y2,n’=(y2,n’,1,…,y2,n’,d)を得て出力する(n’=1,2,…,Nb)。本形態の特徴量抽出部112a,112bは、予め定められたイベントの種別ごとに特徴量y1,n,y2,n’を得て出力する。イベントの種別とは、例えば後述する「縮瞳」「散瞳」「マイクロサッカード」のいずれかである。ただし、n, n’はイベントの発生順を表すインデックス(整数)であり、nあるいはn’が大きいほど、新しいイベントに対応する。Naは特徴量抽出部112aで所定の測定区間内に検出されたイベントの総数であり、Nbは特徴量抽出部112bで当該所定の測定区間内に検出されたイベントの総数である。一般に、ノイズによる誤検出や閾値設定による検出漏れなどにより、NaとNbは異なる値をとる。dは特徴量の次元を表す正整数である。特徴量がスカラである場合にはd=1であり、特徴量がベクトルである場合にはdは2以上の整数である。ただし、n, n’, d, Na, Nbはいずれも「縮瞳」「散瞳」「マイクロサッカード」などのイベントの所定の種別ごとに定義されるものである。特徴量y1,n,y2,n’は、両眼対応部113に送られる。特徴量y1,nは、対象者100の一方の眼の瞳孔の動きに基づいて得られる特徴量であってもよいし、眼球自体の動きに基づいて得られる特徴量であってもよい。同様に、特徴量y2,n’は、対象者100の他方の眼の瞳孔の動きに基づいて得られる特徴量であってもよいし、眼球自体の動きに基づいて得られる特徴量であってもよい。
「瞳孔の動き」に基づく特徴量:
図3に例示したように、瞳孔の大きさは一定ではなく、変化している。瞳孔の大きさは交感神経系の支配を受けた瞳孔散大筋によって拡大(散瞳)し、副交感神経系の支配を受けた瞳孔括約筋によって収縮(縮瞳)する。瞳孔の大きさの変化は主に対光反射、輻輳反射、感情による変化の3つに区別される。対光反射は、網膜に入射する光量を制御するために瞳孔の大きさが変化する反応のことで、強い光に対しては縮瞳、暗所では散瞳が生じる。輻輳反射は、焦点を合わせる際に両眼が内転あるいは外転する運動(輻輳運動)に伴って瞳孔径が変化する反応のことで、近くを見るときには縮瞳、遠くを見るときには散瞳が生じる。感情による変化は、上記のいずれにもよらず外界のストレスに対して生じる反応のことで、怒りや驚き、活発な活動に伴って交感神経が優位となる際には散瞳が生じ、リラックスして副交感神経が優位となる際には縮瞳が生じる。「瞳孔の動き」に基づく特徴量としては、縮瞳および散瞳の少なくとも一方の特徴量を用いることができる。
図3に例示したように、瞳孔の大きさは一定ではなく、変化している。瞳孔の大きさは交感神経系の支配を受けた瞳孔散大筋によって拡大(散瞳)し、副交感神経系の支配を受けた瞳孔括約筋によって収縮(縮瞳)する。瞳孔の大きさの変化は主に対光反射、輻輳反射、感情による変化の3つに区別される。対光反射は、網膜に入射する光量を制御するために瞳孔の大きさが変化する反応のことで、強い光に対しては縮瞳、暗所では散瞳が生じる。輻輳反射は、焦点を合わせる際に両眼が内転あるいは外転する運動(輻輳運動)に伴って瞳孔径が変化する反応のことで、近くを見るときには縮瞳、遠くを見るときには散瞳が生じる。感情による変化は、上記のいずれにもよらず外界のストレスに対して生じる反応のことで、怒りや驚き、活発な活動に伴って交感神経が優位となる際には散瞳が生じ、リラックスして副交感神経が優位となる際には縮瞳が生じる。「瞳孔の動き」に基づく特徴量としては、縮瞳および散瞳の少なくとも一方の特徴量を用いることができる。
縮瞳の特徴量:
縮瞳の開始時刻(以下、縮瞳開始点)は、瞳孔の大きさの時系列から極大点を抽出することによって検出する。縮瞳の終了時刻(以下、縮瞳終了点)は、縮瞳開始以降初めて散瞳が開始した点、または縮瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。縮瞳の振幅Acは、縮瞳開始点から縮瞳終了点までの瞳孔径の差である。縮瞳の持続時間Dcは、縮瞳開始点から縮瞳終了点までの時間差である。平均縮瞳の速度Vcは、(振幅Ac)/(持続時間Dc)である。ノイズによる誤検出を防ぐために、縮瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは縮瞳の振幅が所定の閾値以下の場合は、その縮瞳を検出から除外してもよい。
縮瞳の開始時刻(以下、縮瞳開始点)は、瞳孔の大きさの時系列から極大点を抽出することによって検出する。縮瞳の終了時刻(以下、縮瞳終了点)は、縮瞳開始以降初めて散瞳が開始した点、または縮瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。縮瞳の振幅Acは、縮瞳開始点から縮瞳終了点までの瞳孔径の差である。縮瞳の持続時間Dcは、縮瞳開始点から縮瞳終了点までの時間差である。平均縮瞳の速度Vcは、(振幅Ac)/(持続時間Dc)である。ノイズによる誤検出を防ぐために、縮瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは縮瞳の振幅が所定の閾値以下の場合は、その縮瞳を検出から除外してもよい。
散瞳の特徴量:
散瞳の開始時刻(以下、散瞳開始点)は、瞳孔径の時系列から極小点を抽出することによって検出する。散瞳の終了時刻(以下、散瞳終了点)は、散瞳開始以降初めて縮瞳が開始した点、または散瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。散瞳の振幅Adは、散瞳開始点から散瞳終了点までの瞳孔径の差である。散瞳の持続時間Ddは、散瞳開始点から散瞳終了点までの時間差である。散瞳の平均速度Vdは、(振幅Ad)/(持続時間Dd)である。ノイズによる誤検出を防ぐために、散瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは散瞳の振幅が所定の閾値以下の場合は、その散瞳を検出から除外してもよい。
散瞳の開始時刻(以下、散瞳開始点)は、瞳孔径の時系列から極小点を抽出することによって検出する。散瞳の終了時刻(以下、散瞳終了点)は、散瞳開始以降初めて縮瞳が開始した点、または散瞳開始以降初めて瞬目が開始した点のうち、時間が早い方とする。散瞳の振幅Adは、散瞳開始点から散瞳終了点までの瞳孔径の差である。散瞳の持続時間Ddは、散瞳開始点から散瞳終了点までの時間差である。散瞳の平均速度Vdは、(振幅Ad)/(持続時間Dd)である。ノイズによる誤検出を防ぐために、散瞳の持続時間が所定の閾値(例えば、10ms)以下の場合、あるいは散瞳の振幅が所定の閾値以下の場合は、その散瞳を検出から除外してもよい。
「眼球自体の動き」に基づく特徴量:
「眼球自体の動き」に基づく特徴量としては、例えば「マイクロサッカード」や「ラージサッカード」の特徴量を例示できる。
「眼球自体の動き」に基づく特徴量としては、例えば「マイクロサッカード」や「ラージサッカード」の特徴量を例示できる。
マイクロサッカードの特徴量:
人間がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift、trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図4を用いてマイクロサッカードを例示する。図4ではマイクロサッカードMS1〜MS3を太線で強調して示す。マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いる。しかし、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、対象者100の顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や眼球情報取得部111において水平方向と定義された方向を含む概念である。
人間がある一点を注視しているとき、眼球は完全に動きを止めているわけではなく、固視微動と呼ばれる三種類の眼球運動であるドリフト(drift、trendといってもよい)、トレマ、マイクロサッカード(フリックといってもよい)を行っている。ドリフトは小さな滑らかな動き、トレマは非常に小さな高周波の振動、マイクロサッカードは小さな跳ぶような動きである。図4を用いてマイクロサッカードを例示する。図4ではマイクロサッカードMS1〜MS3を太線で強調して示す。マイクロサッカードはある一点を注視している状態において、1〜2秒の間に1回程度、個人の意思とは関係なく(不随意に)表れる眼球の動きであって、小さな跳ぶような動きのことである。マイクロサッカードは、動きの水平方向の成分、垂直方向の成分のどちらからでも取得することができる。本実施形態では、マイクロサッカードが水平方向に偏向する性質に基づき、簡単のため水平方向の成分のみを用いる。しかし、本発明で用いることができるマイクロサッカードの方向成分は水平方向に限定されない。なお、「水平方向」とは、地面と平行な方向に限定する意味ではなく、対象者100の顔に対しての水平方向(眼球の配列方向であり、横方向、幅方向といってもよい)や眼球情報取得部111において水平方向と定義された方向を含む概念である。
特徴量抽出部112a,112bは、例えば眼球の位置の時系列について1次階差系列を計算し、1次階差系列の絶対値が所定の第1閾値を上回った時刻を、マイクロサッカードの開始時刻(発生時刻)として検出すればよい。ただし1次階差系列の絶対値が所定の閾値を上回る時間の長さが所定の値(通常3ms程度)以上持続しない場合は、検出から除外する。また、後述の基準振幅A’が所定の閾値(通常視野角2°程度)以上の場合はラージサッカードとして、検出から除外する。特徴量抽出部112a,112bは、取得された眼球の位置情報にノイズが多く含まれると判定した場合などには、1次階差系列の計算にあたって適当な範囲での移動平均値を用いても良い。検出に用いる閾値には、階差系列の標準偏差の6倍程度の値を用いることが好ましい。
マイクロサッカードの特徴量としては、マイクロサッカードの発生時刻T、基準振幅A’の絶対値|A’|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωn、それらの少なくとも何れかの関数値などを例示できる。
図5を参照して、マイクロサッカードの基準振幅A’、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λについて説明する。
(1)基準振幅A’:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A’+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅A’に戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅A’を超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅A’を超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A’+オーバーシュートの振幅Aoから基準振幅A’に収束しようとする際の最大の速度である。
(6)立ち上がり時間K:基準振幅A’+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A’+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅A’に対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、
と表される。
(1)基準振幅A’:マイクロサッカードによる眼球の動きが収束したときの移動量である。
(2)最大速度Vmax:基準振幅A’+オーバーシュートの振幅Aoに達するまでの最大の速度である。
(3)持続時間Dm:マイクロサッカードが起きている時間区間の長さである。マイクロサッカードの開始時刻は1次階差系列の絶対値が所定の閾値を上回る時刻で、マイクロサッカードの終了時刻は、オーバーシュートの振幅に達したあとに初めて基準振幅A’に戻る時刻である。
(4)オーバーシュート(overshoot)の振幅Ao:マイクロサッカードによって基準振幅A’を超過した(行き過ぎた)部分の量である。オーバーシュートとは、波形の立ち上がり部分で、波形が基準振幅A’を超えて突出する現象、または、その突出した波形である。言い換えると、オーバーシュートの振幅とは、突出した部分の量である。
(5)オーバーシュートの速度Vo:基準振幅A’+オーバーシュートの振幅Aoから基準振幅A’に収束しようとする際の最大の速度である。
(6)立ち上がり時間K:基準振幅A’+オーバーシュートの振幅Aoに達する(立ち上がる)までにかかる時間である。なお、基準振幅A’+オーバーシュートの振幅Aoに達するまでにかかる時間は、最大速度Vmaxからオーバーシュートの速度Voに達するまでにかかる時間と同じ値となる。
(7)減衰率λ:基準振幅A’に対するオーバーシュートの振幅Aoの比である。最大速度Vmaxに対するオーバーシュートの速度Voの比としてもよく、
と表される。
マイクロサッカードの減衰係数ζ、固有角振動数ωnは、
と表される。固有角振動数ωnはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。
と表される。固有角振動数ωnはマイクロサッカードの応答の速さを表す指標に相当し、減衰係数ζはマイクロサッカードの応答の収束性を表す指標に相当する。
特徴量抽出部112a,112bは、マイクロサッカードの減衰係数ζ、固有角振動数ωn、基準振幅A’を、マイクロサッカードが起きている間の眼球の位置をフィッティングし、最小二乗法などによって最適化することで計算してもよい。
マイクロサッカードの減衰係数ζは、運動が左右方向に依存して値が変化する傾向があるため、特徴量抽出部112a,112bは、左方向のマイクロサッカードの減衰係数、右方向のマイクロサッカードの減衰係数を分けて計算しても良い。
ラージサッカードの特徴量:
「ラージサッカード」とは、マイクロサッカードよりも振幅の大きな跳躍性眼球運動をいい、一般に振幅が視野角2度以上の場合をラージサッカード、2度未満のものをマイクロサッカードとする。特徴量抽出部112a,112bは、前述の基準振幅A’が所定の閾値以上となった時刻を、ラージサッカードの起きた開始時刻として検出すればよい。ラージサッカードの特徴量の例は、ラージサッカードの発生時刻T、基準振幅A’、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωnなどである。これらの具体例は、前述したマイクロサッカードの特徴量の例の「マイクロサッカード」を「ラージサッカード」に置換したものである。
「ラージサッカード」とは、マイクロサッカードよりも振幅の大きな跳躍性眼球運動をいい、一般に振幅が視野角2度以上の場合をラージサッカード、2度未満のものをマイクロサッカードとする。特徴量抽出部112a,112bは、前述の基準振幅A’が所定の閾値以上となった時刻を、ラージサッカードの起きた開始時刻として検出すればよい。ラージサッカードの特徴量の例は、ラージサッカードの発生時刻T、基準振幅A’、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Ao、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωnなどである。これらの具体例は、前述したマイクロサッカードの特徴量の例の「マイクロサッカード」を「ラージサッカード」に置換したものである。
《両眼対応部113(ステップS113)》
両眼対応部113は、特徴量y1,n=(y1,n,1,…,y1,n,d),y2,n’=(y2,n’,1,…,y2,n’,d)を入力とし、両眼で同時に発生したイベントのみを抽出した特徴量yA,m=(yA,m,1,…,yA,m,d)(第1特徴量),yB,m=(yB,m,1,…,yB,m,d)(第2特徴量)を出力する。特徴量y1,n=(y1,n,1,…,y1,n,d),y2,n’=(y2,n’,1,…,y2,n’,d)は両眼対応部113に送られる。両眼対応部113では、まず両眼それぞれで計測されたイベントについて、同時に生じたと判断されるペアを対応づける。
両眼対応部113は、特徴量y1,n=(y1,n,1,…,y1,n,d),y2,n’=(y2,n’,1,…,y2,n’,d)を入力とし、両眼で同時に発生したイベントのみを抽出した特徴量yA,m=(yA,m,1,…,yA,m,d)(第1特徴量),yB,m=(yB,m,1,…,yB,m,d)(第2特徴量)を出力する。特徴量y1,n=(y1,n,1,…,y1,n,d),y2,n’=(y2,n’,1,…,y2,n’,d)は両眼対応部113に送られる。両眼対応部113では、まず両眼それぞれで計測されたイベントについて、同時に生じたと判断されるペアを対応づける。
以降では簡単のため、一方の眼を眼A、反対側の眼を眼Bとする。
はじめに、両眼対応部113は、眼Aから検出されたNa個のイベントについて、それぞれ最も発生時刻の近い眼Bのイベントのインデックスn’=1,2,…,Nbを対応づけることで、Na個の要素を持つベクトルIabを生成する。ベクトルIabのn=1,2,…,Na番目の要素は、インデックスnに対応する眼Aから検出されたイベントに最も発生時刻の近い眼Bのイベントのインデックスn’=1,2,…,Nbである。また、便宜的に、単純に1,2,3,…,Naと数字を並べたベクトルIaaを、Iabと対応する眼Aのイベントのインデックスとして定義する。ベクトルIaaのn=1,2,…,Na番目の要素はnそのものである。さらに、両眼対応部113は、Iabで指し示された眼Bのイベントの発生時刻と、Iaaで指し示された眼Aのイベントの発生時刻との時間差を記述した要素数Naのベクトルτaも計算する。ベクトルτaのn=1,2,…,Na番目の要素は、ベクトルIabのn番目の要素が示すインデックスに対応する眼Bから検出されたイベントの発生時刻と、Iaaのn番目の要素が示すインデックスに対応する眼Aから検出されたイベントの発生時刻との時間差である。
はじめに、両眼対応部113は、眼Aから検出されたNa個のイベントについて、それぞれ最も発生時刻の近い眼Bのイベントのインデックスn’=1,2,…,Nbを対応づけることで、Na個の要素を持つベクトルIabを生成する。ベクトルIabのn=1,2,…,Na番目の要素は、インデックスnに対応する眼Aから検出されたイベントに最も発生時刻の近い眼Bのイベントのインデックスn’=1,2,…,Nbである。また、便宜的に、単純に1,2,3,…,Naと数字を並べたベクトルIaaを、Iabと対応する眼Aのイベントのインデックスとして定義する。ベクトルIaaのn=1,2,…,Na番目の要素はnそのものである。さらに、両眼対応部113は、Iabで指し示された眼Bのイベントの発生時刻と、Iaaで指し示された眼Aのイベントの発生時刻との時間差を記述した要素数Naのベクトルτaも計算する。ベクトルτaのn=1,2,…,Na番目の要素は、ベクトルIabのn番目の要素が示すインデックスに対応する眼Bから検出されたイベントの発生時刻と、Iaaのn番目の要素が示すインデックスに対応する眼Aから検出されたイベントの発生時刻との時間差である。
同様に、両眼対応部113は、眼Bから検出されたNb個のイベントについて、それぞれ最も発生時刻の近い眼Aのイベントのインデックスn=1,2,…,Naを対応づけることで、Nb個の要素を持つベクトルIbaを生成する。ベクトルIbaのn’=1,2,…,Nb番目の要素は、インデックスn’に対応する眼Bから検出されたイベントに最も発生時刻の近い眼Aのイベントのインデックスn=1,2,…,Naである。また、便宜的に、単純に1,2,3,…,Nbと数字を並べたベクトルIbbを、Ibaと対応する眼Bのイベントのインデックスとして定義する。ベクトルIbbのn’=1,2,…,Nb番目の要素はn’そのものである。さらに、両眼対応部113は、Ibaで指し示された眼Aのイベントの発生時刻と、Ibbで指し示された眼Bのイベントの発生時刻との時間差を記述した要素数Nbのベクトルτbも計算する。ベクトルτbのn’=1,2,…,Nb番目の要素は、ベクトルIbaのn’番目の要素が示すインデックスに対応する眼Aから検出されたイベントの発生時刻と、Ibbのn’番目の要素が示すインデックスに対応する眼Bから検出されたイベントの発生時刻との時間差である。
次に、両眼対応部113は、下記の基準に従って、「両眼で同時に発生したイベントのペア」のみを抽出する。
ステップ(1):両眼対応部113は、ベクトルτaのn番目の要素が示す発生時刻の時間差が所定の閾値より大きい場合、対応するIaa,Iabおよびτaのn番目の要素を削除する。同様に、両眼対応部113は、ベクトルτbのn’番目の要素が示す発生時刻の時間差が所定の閾値より大きい場合、対応するIbb,Ibaおよびτbのn’番目の要素を削除する。削除の基準となる閾値は、マイクロサッカードの場合は10-20ms程度、ラージサッカードの場合は20-50ms程度、縮瞳及び散瞳の場合は100ms程度とすることが望ましい。両眼対応部113は、以上により選別された要素を並べたベクトルをそれぞれI’aa, I’abおよびI’bb, I’baとし、対応する発生時刻差のベクトルをそれぞれτ’aおよび τ’bとする。
ステップ(1):両眼対応部113は、ベクトルτaのn番目の要素が示す発生時刻の時間差が所定の閾値より大きい場合、対応するIaa,Iabおよびτaのn番目の要素を削除する。同様に、両眼対応部113は、ベクトルτbのn’番目の要素が示す発生時刻の時間差が所定の閾値より大きい場合、対応するIbb,Ibaおよびτbのn’番目の要素を削除する。削除の基準となる閾値は、マイクロサッカードの場合は10-20ms程度、ラージサッカードの場合は20-50ms程度、縮瞳及び散瞳の場合は100ms程度とすることが望ましい。両眼対応部113は、以上により選別された要素を並べたベクトルをそれぞれI’aa, I’abおよびI’bb, I’baとし、対応する発生時刻差のベクトルをそれぞれτ’aおよび τ’bとする。
ステップ(2):両眼対応部113は、ステップ(1)の基準に基づいて選択されたI’abについて、複数の要素が同じ眼Bのインデックスを指し示している(I’abの複数の要素が同じ値を持つ)場合、最も発生時刻の時間差の小さい(対応するτ’aの要素の値が小さい)要素のみ残し、他はすべて削除する。このとき、対応するτ’aおよびI’aaの要素も削除する。同様に、ステップ(1)の基準で選択されたI’baについて、複数の要素が同じ眼Aのインデックスを指し示している(I’baの複数の要素が同じ値を持つ)場合は、最も発生時刻の時間差の小さい(対応するτ’bの要素の値が小さい)要素のみ残し、他はすべて削除する。このとき、対応するτ’bおよびI’bbの要素も削除する。両眼対応部113は、以上により選別された要素を並べたベクトルをそれぞれI”aa, I”abおよびI”bb, I”baとし、対応する発生時刻差のベクトルをそれぞれτ”aおよび τ”bとする。また、両眼対応部113は、このステップで削除対象とされたI’aaの要素を並べたベクトルをΔaaとし、同様にこのステップ(2)で削除対象とされたI’bbの要素を並べたベクトルをΔbbとする。
ステップ(3):両眼対応部113は、I”abについて、ステップ(2)で削除されたΔbbのいずれかの要素と同じ値をもつ要素が存在する場合、その要素をI”abおよび対応するI”aa, τ”aからすべて削除する。同様に、両眼対応部113は、I”baについて、ステップ(2)で削除されたΔaaのいずれかの要素と同じ値をもつ要素が存在する場合、その要素をI”baおよび対応するI”bb, τ”bからすべて削除する。
ステップ(4):両眼対応部113は、ステップ(3)で削除対象とされたI”aaの要素を並べたベクトルを新たにΔaaとし、同様に削除対象とされたI”bbの要素を並べたベクトルを新たにΔaaとして設定する。以降、I”abおよびI”baの要素数が一致するまでステップ(3)(4)を繰り返し行う。
以上の処理により、眼Aおよび眼Bから抽出されるイベントの総数Nが一致したとき、両眼の特徴量をそれぞれ特徴量yA,m=(yA,m,1,…,yA,m,d),yB,m=(yB,m,1,…,yB,m,d)として出力する(m=1, 2, …, N)。ただし、Nは正整数である。
《特徴量算出部114(ステップS114)》
特徴量算出部114は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)を入力とし、それらの相対量に応じた両眼差に関する特徴量ym=(ym,1,…,ym,d)(第3特徴量)および両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)を得て出力する。「相対量」の例は前述の通りである。以下にym=(ym,1,…,ym,d)を例示する。
ym=(y1,m,1-y2,m,1,…,y1,m,d-y2,m,d) (1)
ym=(|y1,m,1-y2,m,1|,…,|y1,m,d-y2,m,d|) (2)
ym=(g(y1,m,1-y2,m,1),…,g(y1,m,d-y2,m,d)) (3)
ym=(y1,m,1/y2,m,1,…,y1,m,d/y2,m,d) (4)
ym=(g(y1,m,1/y2,m,1),…,g(y1,m,d/y2,m,d)) (5)
ym=(g(y1,m,1)-h(y2,m,1),…,g(y1,m,d)-h(y2,m,d)) (6)
ym=(g(y1,m,1)/h(y2,m,1),…,g(y1,m,d)/h(y2,m,d)) (7)
ただし、|・|は(・)の絶対値であり、gおよびhは所定の関数(例えば、逆関数や指数関数など)である。式(1)〜(7)のy1,m,1,…,y1,m,dとy2,m,1,…,y2,m,dとを入れ替えた演算によって特徴量ymが得られてもよいし、ymの要素が所定値以上(例えば、無限大)の場合に、その要素を特定の値(例えば、0)としてもよいし、そのような要素を含む特徴量ym自体を所定量(例えば、零ベクトル)としてもよい。両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)のそれぞれの要素について平均値をとった値を並べたベクトルとすることができる。
特徴量算出部114は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)を入力とし、それらの相対量に応じた両眼差に関する特徴量ym=(ym,1,…,ym,d)(第3特徴量)および両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)を得て出力する。「相対量」の例は前述の通りである。以下にym=(ym,1,…,ym,d)を例示する。
ym=(y1,m,1-y2,m,1,…,y1,m,d-y2,m,d) (1)
ym=(|y1,m,1-y2,m,1|,…,|y1,m,d-y2,m,d|) (2)
ym=(g(y1,m,1-y2,m,1),…,g(y1,m,d-y2,m,d)) (3)
ym=(y1,m,1/y2,m,1,…,y1,m,d/y2,m,d) (4)
ym=(g(y1,m,1/y2,m,1),…,g(y1,m,d/y2,m,d)) (5)
ym=(g(y1,m,1)-h(y2,m,1),…,g(y1,m,d)-h(y2,m,d)) (6)
ym=(g(y1,m,1)/h(y2,m,1),…,g(y1,m,d)/h(y2,m,d)) (7)
ただし、|・|は(・)の絶対値であり、gおよびhは所定の関数(例えば、逆関数や指数関数など)である。式(1)〜(7)のy1,m,1,…,y1,m,dとy2,m,1,…,y2,m,dとを入れ替えた演算によって特徴量ymが得られてもよいし、ymの要素が所定値以上(例えば、無限大)の場合に、その要素を特定の値(例えば、0)としてもよいし、そのような要素を含む特徴量ym自体を所定量(例えば、零ベクトル)としてもよい。両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)のそれぞれの要素について平均値をとった値を並べたベクトルとすることができる。
《特徴量整列部115(ステップS115)》
特徴量整列部115は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)および両眼差に関する特徴量ym=(ym,1,…,ym,d)、両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)を入力とし、所定の時間区間Ftごとに各イベントの特徴量yA,m,yB,m,ym,ym -それぞれの代表値を得、それらの代表値を統合した特徴量Yt=(Yt,1…,Yt,D)を得て出力する。特徴量Ytは行列形式で表現されていてもよいし、ベクトル形式で表現されていてもよいが、ここでは便宜上、Yt=(Yt,1…,Yt,D)と表記する。すなわち、特徴量整列部115は、縮瞳、散瞳、マイクロサッカード、ラージサッカードといったすべてのイベントについて個別に計算された特徴量yA,m,yB,mおよびym,ym -について、統合的に扱うものとする。言い換えると、特徴量整列部115は、イベントごとに時間区間Ftでの特徴量yA,m,yB,m,ym,ym -の代表値を得、得られた代表値からなる集合またはその部分集合を特徴量Yt=(Yt,1…,Yt,D)として出力する。特徴量整列部115は、所定の時間区間Ftごとに特徴量Ytを得て出力する。ただし、tは所定の時間区間Ftに対応する離散時間のインデックス(整数)であり、tが大きいほど、新しい離散時間に対応する。Dは特徴量の次元を表す正整数で、用いるすべての特徴量の総数である。各時間区間Ftの長さは互いに同一であってもよいし、同一でなくてもよい。
特徴量整列部115は、眼Aの特徴量yA,m=(yA,m,1,…,yA,m,d),眼Bの特徴量yB,m=(yB,m,1,…,yB,m,d)および両眼差に関する特徴量ym=(ym,1,…,ym,d)、両眼平均の特徴量ym -=(ym,1 -,…,ym,d -)を入力とし、所定の時間区間Ftごとに各イベントの特徴量yA,m,yB,m,ym,ym -それぞれの代表値を得、それらの代表値を統合した特徴量Yt=(Yt,1…,Yt,D)を得て出力する。特徴量Ytは行列形式で表現されていてもよいし、ベクトル形式で表現されていてもよいが、ここでは便宜上、Yt=(Yt,1…,Yt,D)と表記する。すなわち、特徴量整列部115は、縮瞳、散瞳、マイクロサッカード、ラージサッカードといったすべてのイベントについて個別に計算された特徴量yA,m,yB,mおよびym,ym -について、統合的に扱うものとする。言い換えると、特徴量整列部115は、イベントごとに時間区間Ftでの特徴量yA,m,yB,m,ym,ym -の代表値を得、得られた代表値からなる集合またはその部分集合を特徴量Yt=(Yt,1…,Yt,D)として出力する。特徴量整列部115は、所定の時間区間Ftごとに特徴量Ytを得て出力する。ただし、tは所定の時間区間Ftに対応する離散時間のインデックス(整数)であり、tが大きいほど、新しい離散時間に対応する。Dは特徴量の次元を表す正整数で、用いるすべての特徴量の総数である。各時間区間Ftの長さは互いに同一であってもよいし、同一でなくてもよい。
特徴量整列部115は、所定のイベント(縮瞳、散瞳、マイクロサッカード、ラージサッカードのいずれかまたは複数)に対応する特徴量yA,m,yB,mおよびym,ym -のうち、時間区間Ftの中で発生したインデックスのものの代表値をとる。ただし、時間区間Ftの中で発生したとは、眼Aの特徴量yA,m、眼Bの特徴量yB,m、両眼差の特徴量ymおよび両眼平均の特徴量ym -のいずれの場合であっても、両眼平均の発生時刻が時間区間Ftに含まれることを言う。すなわち、時間区間Ftに含まれるかどうかは、対応する両眼の特徴量ym -によって定義される発生時刻を基準とする。時間区間Ftにおいて所定のイベント(縮瞳、散瞳、マイクロサッカード、ラージサッカードのいずれか)が複数回発生していた場合(同一のイベントが複数回発生していた場合)、同一のイベントに関する特徴量(縮瞳であれば振幅Ac、持続時間Dc、平均速度Vc、発生回数、それらの両眼差に関する値、それらの少なくとも何れかの関数値などであり、散瞳であれば振幅Ad、持続時間Dd、平均速度Vd、発生回数、それらの両眼差に関する値、それらの少なくとも何れかの関数値などであり、マイクロサッカードまたはラージサッカードであれば、基準振幅Aの絶対値|A’|、最大速度Vmax、持続時間Dm、オーバーシュートの振幅Aoの絶対値|Ao|、オーバーシュートの速度Vo、立ち上がり時間K、減衰率λ、減衰係数ζ、固有角振動数ωn、マイクロサッカードの単位時間(例えば1秒)あたりの発生回数Rm、それらの両眼差に関する値、それらの少なくとも何れかの関数値など)のそれぞれについて時間区間Ftでの代表値を得、それぞれの代表値の全てまたはいずれかを特徴量Yt=(Yt,1…, Yt,D)のいずれかの要素としても良い。複数の値の代表値とは、例えばそれら複数の値の平均値、最大値、最小値、最初の値に対応する値などであり、特に平均値を用いることが好ましい。時間区間Ftにおいて所定のイベント(縮瞳、散瞳、マイクロサッカード、ラージサッカードのいずれか)が一度だけ発生した場合、その所定のイベントの代表値は発生したイベントの特徴量そのものである。時間区間Ftで所定のイベント(縮瞳、散瞳、マイクロサッカード、ラージサッカードのいずれか)が発生しなかった場合、時間区間Ftで発生しなかったイベントに関する特徴量を定数(例えば0)としてもよい。
《推定部121(ステップS121)》
特徴量Ytは推定装置の推定部121に送られる。推定部121は、少なくとも特徴量Ytを用い、対象者100および/または対象者100の属性および/または対象者100の注意状態の推定を行い、その推定結果を出力する。
特徴量Ytは推定装置の推定部121に送られる。推定部121は、少なくとも特徴量Ytを用い、対象者100および/または対象者100の属性および/または対象者100の注意状態の推定を行い、その推定結果を出力する。
これらの推定方法に限定はない。各tについて推定結果が得られてもよいし、複数のtに対応する複数個の特徴量Ytを用いて当該複数のtごとに推定結果が得られてもよい。例えば、特徴量Ytをサンプルとしてk-means等によってクラスタリングし、各tでの特徴量Ytが属するクラスタを表す情報を推定結果として出力してもよい。複数のtに対応する複数個の特徴量Ytの要素からなるベクトルをサンプルとしてクラスタリングし、複数個のtごとに当該ベクトルが属するクラスタを表す情報を推定結果として出力してもよい。特徴量Ytと前述した時間区間Ftでの「眼の動的な変化」に基づく特徴量の何れかとを要素とするベクトルVFtを用い、各tについて同様な推定結果が得られてもよい。その他、複数のtに対応する複数個のベクトルVFtの要素からなるベクトルを用い、複数個のtごとに同様な推定結果が得られてもよい。
[第2実施形態]
本形態は第1実施形態の変形例である。本形態では、少なくとも特徴量Ytを事前に学習された予測モデルに適用し、対象者100および/または対象者100の属性および/または対象者100の注意状態の推定を行い、その推定結果を出力する。
本形態は第1実施形態の変形例である。本形態では、少なくとも特徴量Ytを事前に学習された予測モデルに適用し、対象者100および/または対象者100の属性および/または対象者100の注意状態の推定を行い、その推定結果を出力する。
図1に例示するように、第2実施形態の第1実施形態との相違点は、システムが推定装置12に代えて推定装置22を有する点である。推定装置22は、推定部221、モデル生成部222、および記憶部223を有する。本形態では、事前処理の段階で、モデル生成部222が、過去の各t”(ただし、t>t”)で得られた特徴量Yt”を少なくとも含む特徴量(例えば、特徴量Yt”またはベクトルVFt”)を入力とし、tで得られた特徴量Ytを少なくとも含む特徴量(例えば、特徴量YtまたはベクトルVFt)から、対象者100および/または対象者100の属性および/または対象者100の注意状態の推定結果を出力する予測モデルを生成し、それを特定する情報(モデルパラメータ等)を記憶部223に格納しておく。この学習は特徴量Yt”を少なくとも含む特徴量と推定結果を表す正解ラベルとが関連付けられた学習データを用いた教師あり学習であってもよいし、特徴量Yt”を少なくとも含む特徴量のみを学習データとした教師なし学習であってもよい。ただし、学習データとして用いられる特徴量の種別とtで得られる特徴量の種別とは同一である。予測モデルとしては、例えば、サポートベクターマシーン、隠れマルコフモデル、ニューラルネットワーク、ディープラーニングなどを用いることができる。各tでの処理では、ステップS113の処理の後、推定部221が記憶部223から抽出した情報に基づいて設定される予測モデルに対し、tで得られた特徴量Ytを少なくとも含む特徴量を適用し、対象者100および/または対象者100の属性および/または対象者100の注意状態を表す推定結果を出力する(図2:ステップS221)。
[その他の変形例等]
なお、本発明は上述の実施形態に限定されるものではない。例えば、特徴量Ytが所定の時間区間Ftごとに得られるのではなく、所定の離散時間ごとに得られてもよい。例えば、少なくとも特徴量Ytを用い、注意状態以外の対象者100の心理状態、健康状態、精神状態などを推定してもよい。
なお、本発明は上述の実施形態に限定されるものではない。例えば、特徴量Ytが所定の時間区間Ftごとに得られるのではなく、所定の離散時間ごとに得られてもよい。例えば、少なくとも特徴量Ytを用い、注意状態以外の対象者100の心理状態、健康状態、精神状態などを推定してもよい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
11 特徴量抽出装置
12,22 推定装置
12,22 推定装置
Claims (10)
- 対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、前記対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を得る特徴量抽出装置。
- 請求項1の特徴量抽出装置であって、
前記第1特徴量は、前記一方の眼の瞳孔の動きに基づいて得られた特徴量を含み、
前記第2特徴量は、前記他方の眼の瞳孔の動きに基づいて得られた特徴量を含む、特徴量抽出装置。 - 請求項1または2の特徴量抽出装置であって、
前記第1特徴量は、前記一方の眼の縮瞳および/または散瞳の発生タイミングに基づいて得られた特徴量を含み、
前記第2特徴量は、前記他方の眼の縮瞳および/または散瞳の発生タイミングに基づいて得られた特徴量を含む、特徴量抽出装置。 - 請求項1から3の何れかの特徴量抽出装置であって、
前記第1特徴量は、前記一方の眼の縮瞳および/または散瞳の振幅に基づいて得られた特徴量を含み、
前記第2特徴量は、前記他方の眼の縮瞳および/または散瞳の振幅に基づいて得られた特徴量を含む、特徴量抽出装置。 - 請求項1から4の何れかの特徴量抽出装置であって、
前記相対量は差分である、特徴量抽出装置。 - 請求項1から5の何れかの特徴量抽出装置であって、
前記第3特徴量は、前記対象者および/または前記対象者の属性および/または前記対象者の注意状態を表す、特徴量抽出装置。 - 少なくとも、対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、前記対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を用い、少なくとも前記対象者、前記対象者の属性、および前記対象者の注意状態のいずれかを推定する推定装置。
- 対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、前記対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を得る特徴量抽出方法。
- 少なくとも、対象者の一方の眼の動的な変化に基づいて得られた第1特徴量と、前記対象者の他方の眼の動的な変化に基づいて得られた第2特徴量と、の相対量に応じた第3特徴量を用い、少なくとも前記対象者、前記対象者の属性、および前記対象者の注意状態のいずれかを推定する推定方法。
- 請求項1から6の何れかの特徴量抽出装置または請求項7の推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016094388A JP2017202048A (ja) | 2016-05-10 | 2016-05-10 | 特徴量抽出装置、推定装置、それらの方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016094388A JP2017202048A (ja) | 2016-05-10 | 2016-05-10 | 特徴量抽出装置、推定装置、それらの方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017202048A true JP2017202048A (ja) | 2017-11-16 |
Family
ID=60322681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016094388A Pending JP2017202048A (ja) | 2016-05-10 | 2016-05-10 | 特徴量抽出装置、推定装置、それらの方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017202048A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125322A (ja) * | 2018-01-19 | 2019-07-25 | Necソリューションイノベータ株式会社 | ストレージ管理装置、ストレージ管理方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001321342A (ja) * | 2000-05-17 | 2001-11-20 | New Opto Corp | 眼球画像解析システム |
JP2015131070A (ja) * | 2014-01-16 | 2015-07-23 | 日本電信電話株式会社 | 印象推定装置、その方法、及びプログラム |
JP2016220801A (ja) * | 2015-05-28 | 2016-12-28 | 浜松ホトニクス株式会社 | 両眼計測装置、両眼計測方法、及び両眼計測プログラム |
-
2016
- 2016-05-10 JP JP2016094388A patent/JP2017202048A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001321342A (ja) * | 2000-05-17 | 2001-11-20 | New Opto Corp | 眼球画像解析システム |
JP2015131070A (ja) * | 2014-01-16 | 2015-07-23 | 日本電信電話株式会社 | 印象推定装置、その方法、及びプログラム |
JP2016220801A (ja) * | 2015-05-28 | 2016-12-28 | 浜松ホトニクス株式会社 | 両眼計測装置、両眼計測方法、及び両眼計測プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019125322A (ja) * | 2018-01-19 | 2019-07-25 | Necソリューションイノベータ株式会社 | ストレージ管理装置、ストレージ管理方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
JP7070605B2 (ja) | 注目範囲推定装置、その方法およびプログラム | |
Tafaj et al. | Bayesian online clustering of eye movement data | |
US20200074380A1 (en) | Work support device, work support method, and work support program | |
JP5718493B1 (ja) | 音の顕著度推定装置、その方法、及びプログラム | |
JP6755839B2 (ja) | 運動パフォーマンス推定装置、その方法、およびプログラム | |
Rafiqi et al. | PupilWare: towards pervasive cognitive load measurement using commodity devices | |
JP6479708B2 (ja) | 特徴量抽出装置、推定装置、それらの方法、およびプログラム | |
JP2019111291A (ja) | 注意レベル推定装置、注意レベル推定モデル学習装置、注意レベル推定方法、注意レベル推定モデル学習方法、およびプログラム | |
JP5718494B1 (ja) | 印象推定装置、その方法、及びプログラム | |
US11670423B2 (en) | Method and system for early detection of neurodegeneration using progressive tracking of eye-markers | |
JP6377545B2 (ja) | 個人識別方法、個人識別装置、プログラム | |
JP6509712B2 (ja) | 印象推定装置およびプログラム | |
US11583214B2 (en) | Adaptive psychological assessment tool | |
JP5718495B1 (ja) | 印象推定装置、その方法、及びプログラム | |
JP7214986B2 (ja) | 反射性判定装置、反射性判定方法、プログラム | |
JP2017202048A (ja) | 特徴量抽出装置、推定装置、それらの方法、およびプログラム | |
Korda et al. | Automatic identification of oculomotor behavior using pattern recognition techniques | |
JP6445418B2 (ja) | 印象推定装置、印象推定方法、およびプログラム | |
KR20200015169A (ko) | Vr컨텐츠를 이용하는 사용자의 시각 기능 확인 방법 | |
JP6509778B2 (ja) | 学習装置、推定装置、それらの方法、およびプログラム | |
WO2022241554A1 (en) | Methods and apparatus for detecting brain disorders | |
JP2020203093A (ja) | 運動パフォーマンス推定装置、トレーニング装置、それらの方法、およびプログラム | |
Tong | A Review on Two Eye-Tracking Approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190611 |