JP6426105B2 - エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 - Google Patents
エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 Download PDFInfo
- Publication number
- JP6426105B2 JP6426105B2 JP2015547517A JP2015547517A JP6426105B2 JP 6426105 B2 JP6426105 B2 JP 6426105B2 JP 2015547517 A JP2015547517 A JP 2015547517A JP 2015547517 A JP2015547517 A JP 2015547517A JP 6426105 B2 JP6426105 B2 JP 6426105B2
- Authority
- JP
- Japan
- Prior art keywords
- blink
- data
- stimulus
- processor
- individual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
Description
deficit hyperactivity disorder)、発達障害、及び他の認知状態に関しての認知テスト及び挙動テストでは、閲覧者が特定のタイプの視覚的(又は聴覚的)コンテンツにどの程度エンゲージするかを測定することにより、疾患/障害の状態、疾患/障害の進行、及び/又は治療反応のバイオマーカーを提供することができる。例えば、一般集団内で10人に1人が罹患する発達障害を有する子供は、発話及び言語能力の取得の遅れを示す。スピーチキュー及び言語キューへの子供のエンゲージメントの測定値(例えば、言語取得の前兆である、話す顔又はコミュニケーションジェスチャへのエンゲージメントレベル)は、そのような障害の診断が従来通り行われるよりもはるかに早い年齢で、発達障害を有する子供の診断での識別を支援することができる。
の他の業界も、視覚刺激へのエンゲージメントのインジケータを測定することから恩恵を受け得る。
を抑制するが、ASDを有する幼児は瞬きを抑制しなかった。これらの測定値は、診断状態の評価及び症候の深刻さの測定に使用することができる情報を提供する。関連する実施形態として、例えば、再発のリスクを評価するために、環境トリガー(例えば、アルコールのイメージ、薬物のイメージ、又はそのような物質が通常、生産若しくは消費される場所のイメージ)を有する薬物中毒者の回復のエンゲージメントレベルを測定することに展開されうる。
一態様では、本方法は、比較目的で、瞬きデータをバイナリ形式に変換するステップと、複数の個人の瞬きデータを集計するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
と対照瞬きデータとの1つ又は複数の差を識別するステップと、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、個人の診断に関連して、受信した瞬きデータと対照瞬きデータ
との1つ又は複数の差に対応する1つ又は複数の時点での複数の固視ロケーションの表示を使用するステップ、及び/又はプロセッサ上で、受信した瞬きデータを刺激と同期させるステップ、及び/又は刺激に関連して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行することができる。
一態様では、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含む。別の態様では、エンゲージメントのマーカーは、動的視覚刺激の顕著部分に関連する。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを含む。別の態様では、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
ェアを介して、所定の人口統計パラメータに従って瞬きデータを分類するステップを更に含む。
一態様によれば、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含み、且つ/又は同期させることは、瞬きデータを刺激に時間ロック又は時間相関付けすることを含む。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを更に含む。一態様によれば、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
む。
一実施形態では、本開示は、刺激に関して個人が知覚する刺激顕著性を特定するための方法を含む。この実施形態は、刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、刺激に関する個人の目の動きを示す眼球運動データを受信するステップと、受信した瞬きデータ及び受信した眼球運動データを刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制期間を識別するステップと、同期した瞬きデータ内で識別される瞬き抑制期間中、刺激に関する個人の同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップとを含み、それにより、瞬き抑制期間及び少なくとも1つの空間固視ロケーションは、刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、特定を目的として、瞬きデータをバイナリ形式に変換するステップ及び/又は特定を目的として、眼球運動データを座標データに変換するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録
聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、個人の瞳孔サイズの変化率及び/又は個人の瞼閉鎖に対応する瞬きデータを含む。
一態様によれば、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一態様では、本方法は、時間値を含む瞬き抑制パターンのパラメータを含む。一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。別の態様では、本方法は、動的視覚刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。更に、一態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測
定値を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率での分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する事象データを含む。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。一態様では、本方法は、刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。別の態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に、別の態様では、本方法は、個人の平均瞬き率の分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、同期させるステップを更に含み、受信した瞬きデータを動的視覚刺激に時間ロック又は時間相関付けすることを含み、及び/又はプロセッサで実行中のソフトウェアを介して、識別を目的として、瞬きデータをバイナリ形式に変換するステップを含む。
一態様では、本方法は、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、複数の個人の瞬きデータを並べ替えることによって得られる複数の個人の平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、精神状態の重症度を示す対照瞬き抑制パターンを含む。
一実施形態では、本開示は、瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法を含む。この実施形態は、刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、刺激についての対照瞬き抑制パターンを検索するステップであって、対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、瞬きデータ内の瞬き抑制パターンを、対照瞬き抑制パターンと比較して、ユーザが予め定義されたユーザカテゴリ内にあるか否かを決定するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激を含む刺激を含む。一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、刺激に応答しての複数のユーザの平均瞬き率を含む対照瞬き抑制パターンを含む。一態様では、本方法は、複数のユーザの瞬きデータを並べ替えることによって得られる、複数のユーザの平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。
一態様では、本方法は、物理的事象又は感情的事象を含む動的刺激での事象を含む。
又は同様の要素を指すために、同じ参照符号が図面全体を通して使用される。
本明細書全体を通して、「備える」という用語又は「備えている」若しくは「備えた」等のその変形は、述べられた完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群の包含を暗示するものとして理解されるが、いかなる完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群も除外しない。
定義/用語集
M:データセット内の数値集合の平均又は平均値。
SD:標準偏差であり、関連するデータセットの平均又は平均値からの分散を示す。
r:ピアソンの積率相関係数であり、これは、通常は関連するデータセット内の2つの変数の線形関係の強度及び方向の基準である。
t:1つ又は2つのサンプルのt検定からの検定統計値。
P:幾つかのデータ点集合の割合/パーセンタイルの記号である。
ANOVA:分散の解析であり、群平均(平均値)と、群間のデータの関連付けられた分散との差の解析に使用される統計モデルの集まりである。
SE:標準誤差であり、統計のサンプリング分布の標準偏差である。
F:f検定であり、検定の統計が、帰無仮説下でF分布を有する統計学的検定であり、データセットに当てはまる統計学的モデルを比較する際に最も多く使用される。
z:帰無仮説下での検定統計の分布を、所与のデータセット内の正規分布で近似することができる統計学的検定であるz検定の結果。
本開示の原理の理解を促すために、これより、図面に示される実施形態を参照し、特定の用語を使用してこれを説明する。それにも関わらず、それによる本開示の範囲の限定が意図されず、説明されるか、又は示される実施形態の修正形態及び更なる変更形態並びにここに示される本開示の原理の任意の更なる応用形態が、本開示に関連する技術分野の当業者に通常想到されるものとして考えられることが理解されよう。範囲の全ての限定は、特許請求の範囲に従って、特許請求の範囲で表現されるように決定されるべきである。
以下の例示的な考察は、視覚刺激との閲覧者のエンゲージメントのインジケータとして、瞬き抑制を測定するために行われた実験に関連する。実験では、刺激の自然な閲覧中の幼児の瞬き抑制のタイミングを利用して、エンゲージメントのレベルに関連して様々な態様を評価する。関連付けられたデータ/パラメータと共に行われた実験の詳細、例示的な設定、実験からの関連付けられた結果、一般的な影響、及び代替の実施形態は、以下に更に詳細に提供される説明及び添付図でよりよく理解されよう。
際の視覚的顕著性(別の視覚的注目に関連するか、又は別の視覚的注目を背景にして目立つ所与の閲覧者の視覚的注目)をマッピングし解析するためのシステム及び方法に関する。特に、参考文献は一般に、個人若しくは分散個人群に関する視覚的顕著性を記録し、解析し、表示するか、又は個人若しくは選択された個人群の視覚的反応を既知の視覚反応集合と比較するメカニズムを提供する様々な方法を記述している。特定の実施形態では、監視装置(又は眼球追跡器)が一般に、視覚刺激と併用されて、人が見ている物理的ロケーションを測定する。更に、先の開示は、視覚的顕著性データを視覚刺激の特定の瞬間に調整するための方法を記載している。これは、テスト個人、テスト個人群、又は既知のデータと比較して、対照又は典型的な個人のデータが何を示唆するかに従って、診断情報を提供する。
び感情的事象は相互に排他的ではなかったが、最大情動のロケーションは、最大運動のロケーションから空間的に離散し、感情に満ちた顔の表情は、ドアの物理的ロケーションから分離されていた。
固視点を特定し、且つ/又は識別し得る。注視点(point of regard)(又は注視点(point−of−gase)又は固視ロケーション)は、個人の片目及び/又は両目が結像する点である。注視点は、空間内の座標(例えば、x、y、z)として、又は表面若しくは表面上に表現される視覚刺激上の二次元座標データ(例えば、x、y)として示し得る。注視点は更に、時間(t)で参照され得る。各注視点は、固視点又は時間長若しくは点への固定に関係なく、目が結像している任意の点を示し得る。
ディスプレイ140に提示し得る。
分布の好ましい表示を生成するために、エリアを結び付け、且つ/又は押し出して、図1Dgに示されるような、時間期間にわたる注目漏斗195を作成し得る。漏斗195は、視覚刺激及び表示に含まれる視覚刺激の部分(例えば、フレーム197)にマッピングして、最大顕著性エリアに対応する視覚刺激のエリアを示し得る。示されるように、収束がフレーム197において示され、男性俳優の両目への注目が高まるエリアを示す。図1Hdは、フレーム197と、収束まで繋がる2つの先行フレームとを示す。
(モノ)チャネルであった。元のオーディオサウンドトラックは、成人ナレーターの声のインスタンスを含んでおり、これをデジタル的に除去して、ビデオシーンを可能な限り自然にした。ビデオの持続時間は1分13.6秒であった。瞬き率及び瞬き持続時間の個人の測定値(図3及び図4参照)を、トライアル間の間隔中とは対照的に、ビデオ閲覧中に測定した。
pm)は、両群で実年齢と正の相関が認められた(ASDを有する幼児の場合、r=0.33、p<0.05及び典型的な幼児の場合、r=0.27、P<0.05)。この相関の強さ又は方向に、群間差はなかった(z=0.28、P>0.05)。
ム化された機会パターンと比較することが可能になり、それにより、瞬きのタイミングがシーンの内容に関連しないという帰無仮説をテストすることができた。
sであった。各感情的セグメントの開始時間及び終了時間を、10人の格付け者にわたって平均化して、8つの感情的事象を得た。物理的事象は、ワゴンのドアが動いている全時点として定義した(開始点及び終了点は、ドアの移動の開始及び停止によって設定される)。当業者に一般に理解されるように、事象を必ずしも感情的事象又は物理的事象として分類する必要はなく、そのような分類は単に、本実験及び本開示での例示を目的として使用される。更に、任意の種類の事象に関連して瞬き率変化を特定し測定するために、複数のメカニズムを利用し得る。
time histogram)を使用した。PSTHは、個々の時系列瞬きデータのセグメントを事象の開始に位置合わせし、次に、そこを囲む2000ms窓の33.3msビンで発生する個人の瞬きのカウントを計算する(図2のステップ208に示されるように)ことによって構築した。ビンカウントは、全事象にわたり各参加者について計算され、次に、全参加者にわって平均化され、群平均を得た。
激(図6D参照)を観察している2つの異なる閲覧者群(図6E参照)間の例示的な瞬き率比較の例示的な実施形態を示す。一実施形態では、閲覧者群A及び閲覧者群Bは、事象Aを見ている間、瞬き抑制を示さない。一態様によれば、図6Cに示されるように、両閲覧者群も事象Aにエンゲージする際、両群のbpmが毎分約9〜13回の瞬き数に留まるため、何れの群も瞬き率を抑制しなかった。
験は、PSTHを構築することにより、感情的事象(図8A及び図8G参照)、物理的事象(図8B及び図8H参照)、並びに非感情的/非物理的事象(図8C及び図8I参照)に関する瞬き及び瞬き抑制の時間ロックを測定した。PSTHは、並べ替え瞬きデータの平均に関するbpmでの割合変化を示す。破線横線は0.05及び0.95CIを記し、これらのレベルを超えるbpmの割合変化は、機会により予期されるよりも大きいbpm変化を表す(片側、P<0.05)。CIは、事象数と反比例する(非感情的非物理的カテゴリでの事象数が概ね2倍になると共に)。
数のインジケータについて評価される。一般に、これらのインジケータは、視覚刺激120に関して1つ又は複数の時点に同期される。集計され解析された瞬きデータを利用して、結果を評価し、瞬き抑制の様々なパターンを識別し(ステップ1016参照)、刺激データ及び他の所定の要因内の所定のインジケータと比較される(ステップ1018参照)。続けて、視覚刺激内の様々な事象に関連するために、閲覧者のエンゲージメントレベルに関して全体評価を行うことができる(ステップ1020参照)。例えば、違法物質スクリーニングに関して閲覧者をエンゲージする場合、薬物使用者は、違法物質を使用しない誰かと比較して、違法物質を見せられたときに、エンゲージメントレベル又は瞬きタイミングを変化させ得る。
を含み得る。
のエンゲージメントレベルは、視聴者又は個人の心を掴むことへの全体又は完全な視覚刺激の有効性を識別するのに役立ち得る。例えば、マーケティング企業は、エンゲージするキャンペーンの能力の表示として、マーケティングキャンペーンの試行テスト中、瞬きデータ測定値の捕捉を介して、エンゲージメントレベルの傾向を利用し得る。マーケティング企業は、瞬きデータを利用して、刺激Aが刺激Bよりも有効であるか否かを決定して、証明されていない/テストされていない理論を検証することもできる。
元エリア内にある特定の瞬間を表す。このデータ及び/又は表示は、同じ刺激の瞬きデータに重ねるか、又は時間ロックすることができ、それにより、診断確認方法等が可能になる。このメカニズムを利用して、収束の分布に従わない閲覧者を評価し、疾患/障害状態の評価を更に提供し得る。
本開示の幾つかの実施形態(特に、上述した実験)によれば、瞬き抑制のパターン及び固視の分布は、確立された群間差にマッピングされるが、また、刺激顕著性の主観的評価ではよりわずかな差を明らかにする。例えば、一態様によれば、データが、感情的内容が高まるシーンに時間的に位置合わせされる場合(図6A)、典型的な幼児は、ゼロ事象ラグ前にピークに達する永続的な瞬き抑制パターンを示した。逆に、ASDを有する幼児は、ゼロ事象ラグから0.5秒を超えた時間が過ぎた後に生じる瞬き抑制のピークを示した。
、ビデオシーン内の物理的物体をより多く見、物体が動くとき(すなわち、指定された物理的事象)、それらの物体への固視を選択的に増大させる。したがって、時間ロックされた瞬き抑制データ及び/又は固視データの利用は、様々な認知障害又は認知低下の診断支援に使用することができる。
ュータプログラムモジュールをいかに作成しいかに使用するかを伝えるために使用する他の技法によって反映され、示される。一般に、プログラムモジュールは、コンピュータ内で特定のタスクを実行するか、又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、構成要素、データ構造等を含む。コンピュータ実行可能命令、関連付けられたデータ構造、及びプログラムモジュールは、本明細書に開示されるための方法のステップを実行するプログラムコードの例を表す。そのような実行可能命令又は関連付けられたデータ構造の特定のシーケンスは、そのようなステップに記載される機能を実施する対応する動作の例を表す。
企業規模のコンピュータネットワーク、イントラネット、及びインターネットで一般的である。
Claims (131)
- 刺激に関する個人によるエンゲージメントの測定値を特定するための方法であって、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するステップと、を含み、
それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、方法。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するステップと、を更に含む、請求項1に記載の方法。 - 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項1又は2に記載の方法。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項1〜3の何れか一項に記載の方法。
- 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項3に記載の方法。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項1〜3の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜3の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜3の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項1〜3の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項1〜3の何れか一項に記載の方法。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項10に記載の方法。
- 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するステップを更に含む、請求項1〜11の何れか一項に記載の方法。
- 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項1〜12の何れか一項に記載の方法。
- 前記同期させるステップは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項1〜13の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項1〜14の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項1〜14の何れか一項に記載の方法。
- 比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項1〜16の何れか一項に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って前記瞬きデータを分類するステップを更に含む、請求項1〜16の何れか一項に記載の方法。
- 前記刺激は聴覚刺激である、請求項1〜4および6〜18の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項2〜4および6〜18の何れか一項に記載の方法。
- 前記刺激は静的視覚刺激である、請求項2〜4および6〜18の何れか一項に記載の方法。
- 刺激に関する個人によるエンゲージメントの測定値を特定するためのシステムであって、
プロセッサと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するために前記プロセッサで実行するソフトウェアと、を備え、
それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、システム。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項22に記載のシステム。 - 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項22又は23に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項24に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項22〜24の何れか一項に記載のシステム。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項31に記載のシステム。
- 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜32の何れか一項に記載のシステム。
- 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項22〜33の何れか一項に記載のシステム。
- 前記同期させるためのソフトウェアは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けするために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜34の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項22〜35の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項22〜35の何れか一項に記載のシステム。
- 比較を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜37の何れか一項に記載のシステム。
- 所定の人口統計パラメータに従って前記瞬きデータを分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜37の何れか一項に記載のシステム。
- 前記刺激は聴覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
- 刺激に対して個人が知覚する刺激顕著性を特定するための方法であって、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制期間を識別するステップであって、前記瞬き抑制期間は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップと、を含み、
それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、方法。 - 前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記瞬きデータをバイナリ形式に変換するステップと、
前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記眼球運動データを座標データに変換するステップと、を更に含む、請求項43に記載の方法。 - 前記同期した瞬きデータ内の前記瞬き抑制期間を識別する前記ステップは、
前記プロセッサで実行中のソフトウェアを介して、データベースから対照瞬きデータを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するステップと、を更に含み、
それにより、前記差は前記瞬き抑制期間に対応する、請求項43又は44に記載の方法。 - 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項45に記載の方法。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項45又は46に記載の方法。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項45に記載の方法。
- 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項43〜48の何れか一項に記載の方法。
- 刺激に対して個人が知覚する刺激顕著性を特定するためのシステムであって、
プロセッサと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制期間を識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制期間は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、を備え、
それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、システム。 - 特定を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアと、
特定を目的として、前記眼球運動データを座標データに変換するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項50に記載のシステム。 - 前記同期した瞬きデータ内の前記瞬き抑制期間を識別するための前記ソフトウェアは、
データベースから対照瞬きデータを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するために前記プロセッサで実行するソフトウェアと、を更に備え、
それにより、前記差は前記瞬き抑制期間に対応する、請求項50又は51に記載のシステム。 - 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項52に記載のシステム。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項52又は53に記載のシステム。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項52に記載のシステム。
- 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項50〜55の何れか一項に記載のシステム。
- 個人にエンゲージする刺激の能力を評価するための方法であって、
前記刺激を個人に提示するステップと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するステップであって、前記瞬き抑制測定値は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するステップと、を含み、
それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示す、方法。 - 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項57に記載の方法。
- 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項58に記載の方法。
- 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項57〜59の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項57〜59の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項57〜59の何れか一項に記載の方法。
- 個人にエンゲージする刺激の能力を評価するためのシステムであって、
プロセッサと、
前記刺激を個人に提示するために前記プロセッサで実行するソフトウェアと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制測定値は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するために前記プロセッサで実行するソフトウェアと、を備え
それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示す、システム。 - 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項63に記載のシステム。
- 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項64に記載のシステム。
- 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項63〜65の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項63〜65の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項63〜65の何れか一項に記載のシステム。
- 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするための方法であって、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を介して収集される、ステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから視覚刺激に関連する事象データを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するステップであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ステップと、を含む、方法。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するステップであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバの前記スキャンパスの収束を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するステップと、を更に含む、請求項69に記載の方法。 - 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項69又は70に記載の方法。
- 前記事象データの前記パラメータは時間値を含む、請求項69又は70に記載の方法。
- 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項69又は70に記載の方法。
- 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項69〜73の何れか一項に記載の方法。
- 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項69〜73の何れか一項に記載の方法。
- 前記事象データは、以下:視覚刺激内の物理的事象、視覚刺激内の感情的事象、視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項70〜75の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項69〜76の何れか一項に記載の方法。
- 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするためのシステムであって、
プロセッサと、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を介して収集される、ソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
データベースから視覚刺激に関連する事象データを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するために前記プロセッサで実行するソフトウェアであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ソフトウェアと、を備える、システム。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するために前記プロセッサで実行するソフトウェアであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ソフトウェアと、
前記対照群の前記メンバの前記スキャンパスの収束を識別するために前記プロセッサで実行するソフトウェアと、
前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項78に記載のシステム。 - 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項78又は79に記載のシステム。
- 前記事象データの前記パラメータは時間値を含む、請求項78又は79に記載のシステム。
- 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項78又は79に記載のシステム。
- 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項78〜82の何れか一項に記載のシステム。
- 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項78〜82の何れか一項に記載のシステム。
- 少なくとも1つの前記デルタパラメータに基づいて、前記個人に診断を提供するために前記プロセッサで実行するソフトウェアを更に備える、請求項78〜84の何れか一項に記載のシステム。
- 前記事象データは、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項79〜85の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項78〜86の何れか一項に記載のシステム。
- 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするための方法であって、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すステップと、を含む、方法。 - 精神状態は発達障害又は認知障害を含む、請求項88に記載の方法。
- 前記対照瞬き抑制パターンは、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項88又は89に記載の方法。
- 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項88又は89に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項91に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項91に記載の方法。
- 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項88〜93の何れか一項に記載の方法。
- 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするためのシステムであって、
プロセッサと、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すために前記プロセッサで実行するソフトウェアと、を備える、システム。 - 精神状態は発達障害又は認知障害を含む、請求項95に記載のシステム。
- 前記対照瞬き抑制パターンは、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項95又は96に記載のシステム。
- 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項95又は96に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項98に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項98に記載のシステム。
- 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項95〜100の何れか一項に記載のシステム。
- 瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法であって、
刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから、前記刺激についての対照瞬き抑制パターンを検索するステップであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するステップと、を含む、方法。 - 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項102に記載の方法。
- 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するステップと、を更に含む、請求項102又は103に記載の方法。 - 瞬き抑制に基づいて刺激へのユーザ反応を評価するためのシステムであって、
プロセッサと、
刺激へのユーザの瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
データベースから、前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ソフトウェアと、
前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するために前記プロセッサで実行するソフトウェアと、を備える、システム。 - 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項105に記載のシステム。
- 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項105又は106に記載のシステム。 - 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するための方法であって、
前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、データベースから機会確率瞬きデータを検索するステップであって、前記機会確率瞬きデータは、テストから導き出される前記複数の個人のそれぞれに関連付けられた瞬きの機会確率を識別する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記機会確率瞬きデータと比較して、前記受信した瞬きデータと前記機会確率瞬きデータとの1つ又は複数の差を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記機会確率瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、を含む、方法。 - 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するステップと、を更に含む、請求項108に記載の方法。 - 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項109に記載の方法。
- 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項109又は110に記載の方法。
- 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点座標データに対応する、請求項109又は110に記載の方法。
- 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項109〜112の何れか一項に記載の方法。
- 前記三次元スキャンパスの周囲に注目漏斗を表示するステップを更に含む、請求項113に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、前記複数の個人の前記瞬きデータ及び前記眼球運動データを集計するステップを更に含む、請求項109〜114の何れか一項に記載の方法。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項108〜115の何れか一項に記載の方法。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項108〜116の何れか一項に記載の方法。
- 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するステップを更に含む、請求項109に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激に同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、を更に含む、請求項108〜118の何れか一項に記載の方法。 - 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するためのシステムであって、
プロセッサと、
前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
データベースから機会確率瞬きデータを検索するために前記プロセッサで実行するソフトウェアであって、前記機会確率瞬きデータは、テストから導き出される前記複数の個人のそれぞれに関連付けられた瞬きの機会確率を識別する、ソフトウェアと、
前記受信した瞬きデータを前記機会確率瞬きデータと比較して、前記受信した瞬きデータと前記機会確率瞬きデータとの1つ又は複数の差を識別するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータと前記機会確率瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、を備える、システム。 - 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項120に記載のシステム。 - 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項121に記載のシステム。
- 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項121又は122に記載のシステム。
- 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点座標データに対応する、請求項121又は122に記載のシステム。
- 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項121〜124の何れか一項に記載のシステム。
- 前記三次元スキャンパスの周囲に注目漏斗を表示するために前記プロセッサで実行するソフトウェアを更に備える、請求項125に記載のシステム。
- 前記複数の個人の前記瞬きデータ及び前記眼球運動データを集計するために前記プロセッサで実行するソフトウェアを更に備える、請求項121〜126の何れか一項に記載のシステム。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項120〜127の何れか一項に記載のシステム。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項120〜128の何れか一項に記載のシステム。
- 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するために前記プロセッサで実行するソフトウェアを更に備える、請求項121に記載のシステム。
- 前記受信した瞬きデータを前記刺激に同期させるために前記プロセッサで実行するソフトウェアと、
前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項120〜130の何れか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261735865P | 2012-12-11 | 2012-12-11 | |
US61/735,865 | 2012-12-11 | ||
PCT/US2013/074487 WO2014093546A2 (en) | 2012-12-11 | 2013-12-11 | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016504089A JP2016504089A (ja) | 2016-02-12 |
JP2016504089A5 JP2016504089A5 (ja) | 2017-01-26 |
JP6426105B2 true JP6426105B2 (ja) | 2018-11-21 |
Family
ID=49958659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015547517A Expired - Fee Related JP6426105B2 (ja) | 2012-12-11 | 2013-12-11 | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
Country Status (15)
Country | Link |
---|---|
US (7) | US9510752B2 (ja) |
EP (1) | EP2931126B1 (ja) |
JP (1) | JP6426105B2 (ja) |
KR (1) | KR102181927B1 (ja) |
CN (1) | CN104968270B (ja) |
AU (2) | AU2013359304B2 (ja) |
BR (1) | BR112015013489A2 (ja) |
CA (1) | CA2894414C (ja) |
ES (1) | ES2751380T3 (ja) |
HK (1) | HK1212182A1 (ja) |
IL (1) | IL239363B (ja) |
MX (1) | MX359676B (ja) |
NZ (1) | NZ709258A (ja) |
SG (1) | SG11201504601XA (ja) |
WO (1) | WO2014093546A2 (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10607305B2 (en) * | 2005-03-05 | 2020-03-31 | Jeb C. Griebat | Method for questioning jurors |
US10482333B1 (en) * | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
US9723992B2 (en) * | 2010-06-07 | 2017-08-08 | Affectiva, Inc. | Mental state analysis using blink rate |
US10074024B2 (en) * | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
GB2511237A (en) * | 2011-12-05 | 2014-08-27 | Gautam Singh | Computer implemented system and method for statistically assessing co-scholastic skills of user |
KR102181927B1 (ko) * | 2012-12-11 | 2020-11-24 | 아미 클린 | 교감 및 지각된 자극 현저성의 표지로서 깜박임 억제를 검출하기 위한 시스템들 및 방법들 |
JP6797683B2 (ja) * | 2013-10-17 | 2020-12-09 | チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド | 乳児及び子供の発達をアイ・トラッキングによって評価するための方法 |
GB201319619D0 (en) * | 2013-11-06 | 2013-12-18 | Diamentech Ltd | System for assessing a mental health disorder |
US9357917B2 (en) * | 2014-07-28 | 2016-06-07 | Google Technology Holdings LLC | Method and apparatus for managing blinking |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
CN105100791B (zh) * | 2015-09-02 | 2017-04-05 | 中国科学院软件研究所 | 一种用于测量立体视觉舒适度的系统及方法 |
US11540009B2 (en) | 2016-01-06 | 2022-12-27 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
EP4080794A1 (en) | 2016-01-06 | 2022-10-26 | TVision Insights, Inc. | Systems and methods for assessing viewer engagement |
FR3048542A1 (fr) * | 2016-03-01 | 2017-09-08 | Valeo Comfort & Driving Assistance | Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile |
US10181078B1 (en) * | 2016-11-07 | 2019-01-15 | National Technology & Engineering Solutions Of Sandia, Llc | Analysis and categorization of eye tracking data describing scanpaths |
MA46910A (fr) | 2016-11-22 | 2019-10-02 | Janssen Pharmaceutica Nv | Méthodes d'identification de patients atteints de schizophrénie à risque de rechute |
JP2018093350A (ja) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | 注目度評価システム |
CN106681495B (zh) * | 2016-12-08 | 2018-09-14 | 华南理工大学 | 一种基于eog的异步字符输入方法及装置 |
US10497242B2 (en) | 2016-12-15 | 2019-12-03 | David H. Williams | Systems and methods for monitoring for and preempting pre-identified restriction violation-related behavior(s) of persons under restriction |
US11412353B2 (en) | 2016-12-15 | 2022-08-09 | Conquer Your Addiction Llc | Systems and methods for monitoring for and preempting the risk of a future occurrence of a quarantine violation |
US10853897B2 (en) | 2016-12-15 | 2020-12-01 | David H. Williams | Systems and methods for developing, monitoring, and enforcing agreements, understandings, and/or contracts |
US10555112B2 (en) | 2016-12-15 | 2020-02-04 | David H. Williams | Systems and methods for providing location-based security and/or privacy for restricting user access |
US11636941B2 (en) | 2016-12-15 | 2023-04-25 | Conquer Your Addiction Llc | Dynamic and adaptive systems and methods for rewarding and/or disincentivizing behaviors |
EP3613224A4 (en) | 2017-04-20 | 2020-12-30 | TVision Insights, Inc. | METHOD AND DEVICE FOR MULTI-TELEVISION MEASUREMENTS |
EP3461394A1 (en) * | 2017-10-02 | 2019-04-03 | Essilor International | Method and system for adapting the visual and/or visual-motor behaviour of a person |
US10841651B1 (en) * | 2017-10-10 | 2020-11-17 | Facebook, Inc. | Systems and methods for determining television consumption behavior |
JP6598141B2 (ja) * | 2017-11-16 | 2019-10-30 | マツダ株式会社 | 認知時機推定装置及び認知時機推定方法 |
WO2019181537A1 (ja) * | 2018-03-22 | 2019-09-26 | 国立研究開発法人科学技術振興機構 | 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム |
CN108932532A (zh) * | 2018-07-11 | 2018-12-04 | 杭州电子科技大学 | 一种针对视频显著性图预测所需的眼动数据数目建议方法 |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
CN109259775A (zh) * | 2018-08-30 | 2019-01-25 | 清华大学 | 一种人脸刺激范式生成方法及自闭症分析系统 |
CN110944232B (zh) * | 2018-09-21 | 2021-11-19 | 中国移动通信有限公司研究院 | 一种监测认知行为的方法、装置及机顶盒 |
EP3877898A4 (en) * | 2018-11-09 | 2022-08-17 | Akili Interactive Labs, Inc. | FACIAL EXPRESSION DETECTION FOR SCREENING AND TREATMENT OF MOOD DISORDERS |
JP7396681B2 (ja) | 2018-12-17 | 2023-12-12 | 株式会社夏目綜合研究所 | 脳疾患の診断装置 |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
EP3964130A1 (en) * | 2020-09-03 | 2022-03-09 | Tata Consultancy Services Limited | System and method for eye-blink based assessment of sustained visual attention of a target |
CN112891164A (zh) * | 2021-01-13 | 2021-06-04 | 浙江工业大学 | 一种虚拟现实环境下的弱视康复训练专注度评估方法 |
BE1029415B1 (fr) | 2021-05-19 | 2022-12-19 | P³Lab | Un système et un procédé de mesure de réactions d’un sujet, un programme d’ordinateur et un support lisible par ordinateur |
US20230095350A1 (en) * | 2021-09-17 | 2023-03-30 | Smart Science Technology, LLC | Focus group apparatus and system |
US11903711B2 (en) | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4889422A (en) | 1986-01-28 | 1989-12-26 | George Pavlidis | Method and means for detecting dyslexia |
US5035500A (en) | 1988-08-12 | 1991-07-30 | Rorabaugh Dale A | Automated ocular perimetry, particularly kinetic perimetry |
US5150716A (en) | 1991-01-28 | 1992-09-29 | Emile Franssen | System for diagnosis and staging of dementia by neurologic examination |
US5384593A (en) | 1993-08-05 | 1995-01-24 | Gell, Jr.; Harold A. | Method and apparatus for reflex blink reaction conditioning |
US5880812A (en) | 1997-03-13 | 1999-03-09 | Ramot-University Authority For Applied Research And Industrial Development, Ltd. | Method and apparatus for evaluating and mapping visual field |
WO1999018842A1 (en) | 1997-10-16 | 1999-04-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
CA2327249C (en) | 1998-04-10 | 2008-07-08 | Visual Resources, Inc. | Method and apparatus for training visual attention capabilities of a subject |
CA2298515A1 (en) | 1999-02-11 | 2001-08-10 | Queen's University At Kingston | Method and apparatus for detecting eye movement |
US6116736A (en) | 1999-04-23 | 2000-09-12 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection capability |
US6120461A (en) | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
NZ521952A (en) | 2000-04-17 | 2004-03-26 | Stuart Graham | Method and apparatus for electrophysiological assessment of visual function using a head-mounted stereo display |
US6601021B2 (en) | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
US6670963B2 (en) | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US6755527B1 (en) | 2001-12-14 | 2004-06-29 | Oracle International Corporation | Techniques for analyzing eye movements |
JP3625064B2 (ja) | 2002-06-28 | 2005-03-02 | 独立行政法人理化学研究所 | 眼底の立体表示および座標計測装置 |
US20040015098A1 (en) | 2002-07-19 | 2004-01-22 | Souvestre Philippe A. | Dynamic ocular visual monitoring system |
CN100438259C (zh) | 2003-08-05 | 2008-11-26 | 松下电器产业株式会社 | 直流电源和配备电源的电池供电电子装置 |
US20080039698A1 (en) * | 2003-08-21 | 2008-02-14 | Peter Geoffrey Burton | Cognitive Processing |
US7819818B2 (en) | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
US20050273017A1 (en) | 2004-03-26 | 2005-12-08 | Evian Gordon | Collective brain measurement system and method |
JP4586443B2 (ja) * | 2004-07-16 | 2010-11-24 | トヨタ自動車株式会社 | 情報提供装置 |
US7396129B2 (en) | 2004-11-22 | 2008-07-08 | Carestream Health, Inc. | Diagnostic system having gaze tracking |
US20060167670A1 (en) | 2005-01-26 | 2006-07-27 | Deering Michael F | Photon-based modeling of the human eye and visual perception |
US7922670B2 (en) * | 2005-02-24 | 2011-04-12 | Warren Jones | System and method for quantifying and mapping visual salience |
JP2007002630A (ja) | 2005-06-27 | 2007-01-11 | Fuji Electric Retail Systems Co Ltd | 扉ロック装置および自動販売機 |
US20070066916A1 (en) * | 2005-09-16 | 2007-03-22 | Imotions Emotion Technology Aps | System and method for determining human emotion by analyzing eye properties |
US7384145B2 (en) | 2006-02-16 | 2008-06-10 | The Board Of Trustees Of The University Of Illinois | Mapping retinal function using corneal electrode array |
EP2007271A2 (en) * | 2006-03-13 | 2008-12-31 | Imotions - Emotion Technology A/S | Visual attention and emotional response detection and display system |
CN101583313B (zh) * | 2007-01-19 | 2011-04-13 | 旭化成株式会社 | 觉醒状态判断模型生成装置、觉醒状态判断装置以及警告装置 |
US7824034B2 (en) | 2007-09-19 | 2010-11-02 | Utc Fire & Security Americas Corporation, Inc. | Iris imaging system and method for the same |
US7959578B2 (en) | 2008-02-01 | 2011-06-14 | Lonky Martin L | Methods and techniques to measure, map and correlate ocular micro-movement and ocular micro-tremor (OMT) signals with cognitive processing capabilities in ADD/ADHD individuals |
US20100010370A1 (en) * | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
NZ716924A (en) | 2008-12-09 | 2020-01-31 | Stephanie Fryar Williams | Biomarkers for the diagnosis and/or prediction of susceptibility to mental and neurodegenerative disorders |
US8808195B2 (en) | 2009-01-15 | 2014-08-19 | Po-He Tseng | Eye-tracking method and system for screening human diseases |
WO2011024134A1 (en) | 2009-08-26 | 2011-03-03 | Ecole Polytechnique Federale De Lausanne (Epfl) | Wearable systems for audio, visual and gaze monitoring |
CN101813976A (zh) * | 2010-03-09 | 2010-08-25 | 华南理工大学 | 基于soc的视线跟踪人机交互方法及装置 |
US8371693B2 (en) | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
WO2012061871A1 (en) | 2010-11-08 | 2012-05-18 | Optalert Australia Pty Ltd | Fitness for work test |
JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
GB201200122D0 (en) | 2012-01-05 | 2012-02-15 | Univ Aberdeen | An apparatus and a method for psychiatric evaluation |
US9314157B2 (en) | 2012-03-22 | 2016-04-19 | The Curators Of The University Of Missouri | Device to measure pupillary light reflex in infants and toddlers |
US8668337B2 (en) | 2012-04-18 | 2014-03-11 | TBI Diagnostics LLC | System for the physiological evaluation of brain function |
KR102181927B1 (ko) * | 2012-12-11 | 2020-11-24 | 아미 클린 | 교감 및 지각된 자극 현저성의 표지로서 깜박임 억제를 검출하기 위한 시스템들 및 방법들 |
-
2013
- 2013-12-11 KR KR1020157018671A patent/KR102181927B1/ko active IP Right Grant
- 2013-12-11 US US14/103,640 patent/US9510752B2/en active Active
- 2013-12-11 CN CN201380072486.3A patent/CN104968270B/zh active Active
- 2013-12-11 WO PCT/US2013/074487 patent/WO2014093546A2/en active Application Filing
- 2013-12-11 JP JP2015547517A patent/JP6426105B2/ja not_active Expired - Fee Related
- 2013-12-11 ES ES13821539T patent/ES2751380T3/es active Active
- 2013-12-11 US US14/651,424 patent/US10052057B2/en active Active
- 2013-12-11 EP EP13821539.7A patent/EP2931126B1/en active Active
- 2013-12-11 MX MX2015007409A patent/MX359676B/es active IP Right Grant
- 2013-12-11 CA CA2894414A patent/CA2894414C/en active Active
- 2013-12-11 AU AU2013359304A patent/AU2013359304B2/en active Active
- 2013-12-11 NZ NZ709258A patent/NZ709258A/en not_active IP Right Cessation
- 2013-12-11 BR BR112015013489A patent/BR112015013489A2/pt active Search and Examination
- 2013-12-11 SG SG11201504601XA patent/SG11201504601XA/en unknown
-
2015
- 2015-06-11 IL IL239363A patent/IL239363B/en active IP Right Grant
- 2015-12-31 HK HK15112918.7A patent/HK1212182A1/xx unknown
-
2016
- 2016-09-28 US US15/278,598 patent/US10016156B2/en active Active
- 2016-09-28 US US15/278,557 patent/US9861307B2/en active Active
-
2018
- 2018-07-16 US US16/036,322 patent/US10987043B2/en active Active
- 2018-08-28 AU AU2018222906A patent/AU2018222906B2/en active Active
-
2021
- 2021-03-22 US US17/208,177 patent/US11759135B2/en active Active
-
2023
- 2023-08-01 US US18/363,323 patent/US20240023859A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6426105B2 (ja) | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 | |
US20230056506A1 (en) | Systems and methods for assessing and improving sustained attention | |
Chen et al. | Are you really angry? Detecting emotion veracity as a proposed tool for interaction | |
Perfect et al. | Eye closure reduces the cross-modal memory impairment caused by auditory distraction. | |
Beringer et al. | Reliability and validity of machine vision for the assessment of facial expressions | |
Zhang et al. | The effects of probe similarity on retrieval and comparison processes in associative recognition | |
US20210022637A1 (en) | Method for predicting efficacy of a stimulus by measuring physiological response to stimuli | |
Gilroy et al. | Evaluating multimodal affective fusion using physiological signals | |
Soleymani et al. | Behavioral and physiological responses to visual interest and appraisals: Multimodal analysis and automatic recognition | |
Baharom et al. | Positive emotion recognition through eye tracking technology | |
Huan et al. | Designing an Engaging Story-stem taken from the MCAST test | |
Vlasceanu et al. | Perceptual discrimination of action formidableness and friendliness and the impact of autistic traits | |
De Rus et al. | AI-assisted affective computing and spatial audio for interactive multimodal virtual environments: research proposal | |
Janus | (Dis) Entangling Lies and Emotion | |
Dawson | Visual attention during conversation: an investigation using real-world stimuli. | |
Nomura | A computational and empirical study on blink synchronization induced by performer's inputs | |
Anderson et al. | To freeze or not to freeze: A culture-sensitive motion capture approach to detecting deceit | |
Fassnidge | The Visually-Evoked Auditory Response | |
Zhang et al. | Mitigating Cybersickness Using Presence Enhancement by Situational Narratives in Virtual Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6426105 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |