JP2016504089A - エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 - Google Patents
エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2016504089A JP2016504089A JP2015547517A JP2015547517A JP2016504089A JP 2016504089 A JP2016504089 A JP 2016504089A JP 2015547517 A JP2015547517 A JP 2015547517A JP 2015547517 A JP2015547517 A JP 2015547517A JP 2016504089 A JP2016504089 A JP 2016504089A
- Authority
- JP
- Japan
- Prior art keywords
- blink
- stimulus
- data
- individual
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Ophthalmology & Optometry (AREA)
- Physiology (AREA)
- Neurology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Neurosurgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
deficit hyperactivity disorder)、発達障害、及び他の認知状態に関しての認知テスト及び挙動テストでは、閲覧者が特定のタイプの視覚的(又は聴覚的)コンテンツにどの程度エンゲージするかを測定することにより、疾患/障害の状態、疾患/障害の進行、及び/又は治療反応のバイオマーカーを提供することができる。例えば、一般集団内で10人に1人が罹患する発達障害を有する子供は、発話及び言語能力の取得の遅れを示す。スピーチキュー及び言語キューへの子供のエンゲージメントの測定値(例えば、言語取得の前兆である、話す顔又はコミュニケーションジェスチャへのエンゲージメントレベル)は、そのような障害の診断が従来通り行われるよりもはるかに早い年齢で、発達障害を有する子供の診断での識別を支援することができる。
の他の業界も、視覚刺激へのエンゲージメントのインジケータを測定することから恩恵を受け得る。
を抑制するが、ASDを有する幼児は瞬きを抑制しなかった。これらの測定値は、診断状態の評価及び症候の深刻さの測定に使用することができる情報を提供する。関連する実施形態として、例えば、再発のリスクを評価するために、環境トリガー(例えば、アルコールのイメージ、薬物のイメージ、又はそのような物質が通常、生産若しくは消費される場所のイメージ)を有する薬物中毒者の回復のエンゲージメントレベルを測定することに展開されうる。
一態様では、本方法は、比較目的で、瞬きデータをバイナリ形式に変換するステップと、複数の個人の瞬きデータを集計するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
と対照瞬きデータとの1つ又は複数の差を識別するステップと、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、個人の診断に関連して、受信した瞬きデータと対照瞬きデータ
との1つ又は複数の差に対応する1つ又は複数の時点での複数の固視ロケーションの表示を使用するステップ、及び/又はプロセッサ上で、受信した瞬きデータを刺激と同期させるステップ、及び/又は刺激に関連して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行することができる。
一態様では、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含む。別の態様では、エンゲージメントのマーカーは、動的視覚刺激の顕著部分に関連する。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを含む。別の態様では、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
ェアを介して、所定の人口統計パラメータに従って瞬きデータを分類するステップを更に含む。
一態様によれば、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含み、且つ/又は同期させることは、瞬きデータを刺激に時間ロック又は時間相関付けすることを含む。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを更に含む。一態様によれば、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
む。
一実施形態では、本開示は、刺激に関して個人が知覚する刺激顕著性を特定するための方法を含む。この実施形態は、刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、刺激に関する個人の目の動きを示す眼球運動データを受信するステップと、受信した瞬きデータ及び受信した眼球運動データを刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制期間を識別するステップと、同期した瞬きデータ内で識別される瞬き抑制期間中、刺激に関する個人の同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップとを含み、それにより、瞬き抑制期間及び少なくとも1つの空間固視ロケーションは、刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、特定を目的として、瞬きデータをバイナリ形式に変換するステップ及び/又は特定を目的として、眼球運動データを座標データに変換するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録
聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、個人の瞳孔サイズの変化率及び/又は個人の瞼閉鎖に対応する瞬きデータを含む。
一態様によれば、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一態様では、本方法は、時間値を含む瞬き抑制パターンのパラメータを含む。一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。別の態様では、本方法は、動的視覚刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。更に、一態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測
定値を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率での分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する事象データを含む。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。一態様では、本方法は、刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。別の態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に、別の態様では、本方法は、個人の平均瞬き率の分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、同期させるステップを更に含み、受信した瞬きデータを動的視覚刺激に時間ロック又は時間相関付けすることを含み、及び/又はプロセッサで実行中のソフトウェアを介して、識別を目的として、瞬きデータをバイナリ形式に変換するステップを含む。
一態様では、本方法は、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、複数の個人の瞬きデータを並べ替えることによって得られる複数の個人の平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、精神状態の重症度を示す対照瞬き抑制パターンを含む。
一実施形態では、本開示は、瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法を含む。この実施形態は、刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、刺激についての対照瞬き抑制パターンを検索するステップであって、対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、瞬きデータ内の瞬き抑制パターンを、対照瞬き抑制パターンと比較して、ユーザが予め定義されたユーザカテゴリ内にあるか否かを決定するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激を含む刺激を含む。一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、刺激に応答しての複数のユーザの平均瞬き率を含む対照瞬き抑制パターンを含む。一態様では、本方法は、複数のユーザの瞬きデータを並べ替えることによって得られる、複数のユーザの平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。
一態様では、本方法は、物理的事象又は感情的事象を含む動的刺激での事象を含む。
又は同様の要素を指すために、同じ参照符号が図面全体を通して使用される。
本明細書全体を通して、「備える」という用語又は「備えている」若しくは「備えた」等のその変形は、述べられた完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群の包含を暗示するものとして理解されるが、いかなる完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群も除外しない。
定義/用語集
M:データセット内の数値集合の平均又は平均値。
SD:標準偏差であり、関連するデータセットの平均又は平均値からの分散を示す。
r:ピアソンの積率相関係数であり、これは、通常は関連するデータセット内の2つの変数の線形関係の強度及び方向の基準である。
t:1つ又は2つのサンプルのt検定からの検定統計値。
P:幾つかのデータ点集合の割合/パーセンタイルの記号である。
ANOVA:分散の解析であり、群平均(平均値)と、群間のデータの関連付けられた分散との差の解析に使用される統計モデルの集まりである。
SE:標準誤差であり、統計のサンプリング分布の標準偏差である。
F:f検定であり、検定の統計が、帰無仮説下でF分布を有する統計学的検定であり、データセットに当てはまる統計学的モデルを比較する際に最も多く使用される。
z:帰無仮説下での検定統計の分布を、所与のデータセット内の正規分布で近似することができる統計学的検定であるz検定の結果。
本開示の原理の理解を促すために、これより、図面に示される実施形態を参照し、特定の用語を使用してこれを説明する。それにも関わらず、それによる本開示の範囲の限定が意図されず、説明されるか、又は示される実施形態の修正形態及び更なる変更形態並びにここに示される本開示の原理の任意の更なる応用形態が、本開示に関連する技術分野の当業者に通常想到されるものとして考えられることが理解されよう。範囲の全ての限定は、特許請求の範囲に従って、特許請求の範囲で表現されるように決定されるべきである。
以下の例示的な考察は、視覚刺激との閲覧者のエンゲージメントのインジケータとして、瞬き抑制を測定するために行われた実験に関連する。実験では、刺激の自然な閲覧中の幼児の瞬き抑制のタイミングを利用して、エンゲージメントのレベルに関連して様々な態様を評価する。関連付けられたデータ/パラメータと共に行われた実験の詳細、例示的な設定、実験からの関連付けられた結果、一般的な影響、及び代替の実施形態は、以下に更に詳細に提供される説明及び添付図でよりよく理解されよう。
際の視覚的顕著性(別の視覚的注目に関連するか、又は別の視覚的注目を背景にして目立つ所与の閲覧者の視覚的注目)をマッピングし解析するためのシステム及び方法に関する。特に、参考文献は一般に、個人若しくは分散個人群に関する視覚的顕著性を記録し、解析し、表示するか、又は個人若しくは選択された個人群の視覚的反応を既知の視覚反応集合と比較するメカニズムを提供する様々な方法を記述している。特定の実施形態では、監視装置(又は眼球追跡器)が一般に、視覚刺激と併用されて、人が見ている物理的ロケーションを測定する。更に、先の開示は、視覚的顕著性データを視覚刺激の特定の瞬間に調整するための方法を記載している。これは、テスト個人、テスト個人群、又は既知のデータと比較して、対照又は典型的な個人のデータが何を示唆するかに従って、診断情報を提供する。
び感情的事象は相互に排他的ではなかったが、最大情動のロケーションは、最大運動のロケーションから空間的に離散し、感情に満ちた顔の表情は、ドアの物理的ロケーションから分離されていた。
固視点を特定し、且つ/又は識別し得る。注視点(point of regard)(又は注視点(point−of−gase)又は固視ロケーション)は、個人の片目及び/又は両目が結像する点である。注視点は、空間内の座標(例えば、x、y、z)として、又は表面若しくは表面上に表現される視覚刺激上の二次元座標データ(例えば、x、y)として示し得る。注視点は更に、時間(t)で参照され得る。各注視点は、固視点又は時間長若しくは点への固定に関係なく、目が結像している任意の点を示し得る。
ディスプレイ140に提示し得る。
分布の好ましい表示を生成するために、エリアを結び付け、且つ/又は押し出して、図1Dgに示されるような、時間期間にわたる注目漏斗195を作成し得る。漏斗195は、視覚刺激及び表示に含まれる視覚刺激の部分(例えば、フレーム197)にマッピングして、最大顕著性エリアに対応する視覚刺激のエリアを示し得る。示されるように、収束がフレーム197において示され、男性俳優の両目への注目が高まるエリアを示す。図1Hdは、フレーム197と、収束まで繋がる2つの先行フレームとを示す。
(モノ)チャネルであった。元のオーディオサウンドトラックは、成人ナレーターの声のインスタンスを含んでおり、これをデジタル的に除去して、ビデオシーンを可能な限り自然にした。ビデオの持続時間は1分13.6秒であった。瞬き率及び瞬き持続時間の個人の測定値(図3及び図4参照)を、トライアル間の間隔中とは対照的に、ビデオ閲覧中に測定した。
pm)は、両群で実年齢と正の相関が認められた(ASDを有する幼児の場合、r=0.33、p<0.05及び典型的な幼児の場合、r=0.27、P<0.05)。この相関の強さ又は方向に、群間差はなかった(z=0.28、P>0.05)。
ム化された機会パターンと比較することが可能になり、それにより、瞬きのタイミングがシーンの内容に関連しないという帰無仮説をテストすることができた。
sであった。各感情的セグメントの開始時間及び終了時間を、10人の格付け者にわたって平均化して、8つの感情的事象を得た。物理的事象は、ワゴンのドアが動いている全時点として定義した(開始点及び終了点は、ドアの移動の開始及び停止によって設定される)。当業者に一般に理解されるように、事象を必ずしも感情的事象又は物理的事象として分類する必要はなく、そのような分類は単に、本実験及び本開示での例示を目的として使用される。更に、任意の種類の事象に関連して瞬き率変化を特定し測定するために、複数のメカニズムを利用し得る。
time histogram)を使用した。PSTHは、個々の時系列瞬きデータのセグメントを事象の開始に位置合わせし、次に、そこを囲む2000ms窓の33.3msビンで発生する個人の瞬きのカウントを計算する(図2のステップ208に示されるように)ことによって構築した。ビンカウントは、全事象にわたり各参加者について計算され、次に、全参加者にわって平均化され、群平均を得た。
激(図6D参照)を観察している2つの異なる閲覧者群(図6E参照)間の例示的な瞬き率比較の例示的な実施形態を示す。一実施形態では、閲覧者群A及び閲覧者群Bは、事象Aを見ている間、瞬き抑制を示さない。一態様によれば、図6Cに示されるように、両閲覧者群も事象Aにエンゲージする際、両群のbpmが毎分約9〜13回の瞬き数に留まるため、何れの群も瞬き率を抑制しなかった。
験は、PSTHを構築することにより、感情的事象(図8A及び図8G参照)、物理的事象(図8B及び図8H参照)、並びに非感情的/非物理的事象(図8C及び図8I参照)に関する瞬き及び瞬き抑制の時間ロックを測定した。PSTHは、並べ替え瞬きデータの平均に関するbpmでの割合変化を示す。破線横線は0.05及び0.95CIを記し、これらのレベルを超えるbpmの割合変化は、機会により予期されるよりも大きいbpm変化を表す(片側、P<0.05)。CIは、事象数と反比例する(非感情的非物理的カテゴリでの事象数が概ね2倍になると共に)。
数のインジケータについて評価される。一般に、これらのインジケータは、視覚刺激120に関して1つ又は複数の時点に同期される。集計され解析された瞬きデータを利用して、結果を評価し、瞬き抑制の様々なパターンを識別し(ステップ1016参照)、刺激データ及び他の所定の要因内の所定のインジケータと比較される(ステップ1018参照)。続けて、視覚刺激内の様々な事象に関連するために、閲覧者のエンゲージメントレベルに関して全体評価を行うことができる(ステップ1020参照)。例えば、違法物質スクリーニングに関して閲覧者をエンゲージする場合、薬物使用者は、違法物質を使用しない誰かと比較して、違法物質を見せられたときに、エンゲージメントレベル又は瞬きタイミングを変化させ得る。
を含み得る。
のエンゲージメントレベルは、視聴者又は個人の心を掴むことへの全体又は完全な視覚刺激の有効性を識別するのに役立ち得る。例えば、マーケティング企業は、エンゲージするキャンペーンの能力の表示として、マーケティングキャンペーンの試行テスト中、瞬きデータ測定値の捕捉を介して、エンゲージメントレベルの傾向を利用し得る。マーケティング企業は、瞬きデータを利用して、刺激Aが刺激Bよりも有効であるか否かを決定して、証明されていない/テストされていない理論を検証することもできる。
元エリア内にある特定の瞬間を表す。このデータ及び/又は表示は、同じ刺激の瞬きデータに重ねるか、又は時間ロックすることができ、それにより、診断確認方法等が可能になる。このメカニズムを利用して、収束の分布に従わない閲覧者を評価し、疾患/障害状態の評価を更に提供し得る。
本開示の幾つかの実施形態(特に、上述した実験)によれば、瞬き抑制のパターン及び固視の分布は、確立された群間差にマッピングされるが、また、刺激顕著性の主観的評価ではよりわずかな差を明らかにする。例えば、一態様によれば、データが、感情的内容が高まるシーンに時間的に位置合わせされる場合(図6A)、典型的な幼児は、ゼロ事象ラグ前にピークに達する永続的な瞬き抑制パターンを示した。逆に、ASDを有する幼児は、ゼロ事象ラグから0.5秒を超えた時間が過ぎた後に生じる瞬き抑制のピークを示した。
、ビデオシーン内の物理的物体をより多く見、物体が動くとき(すなわち、指定された物理的事象)、それらの物体への固視を選択的に増大させる。したがって、時間ロックされた瞬き抑制データ及び/又は固視データの利用は、様々な認知障害又は認知低下の診断支援に使用することができる。
ュータプログラムモジュールをいかに作成しいかに使用するかを伝えるために使用する他の技法によって反映され、示される。一般に、プログラムモジュールは、コンピュータ内で特定のタスクを実行するか、又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、構成要素、データ構造等を含む。コンピュータ実行可能命令、関連付けられたデータ構造、及びプログラムモジュールは、本明細書に開示されるための方法のステップを実行するプログラムコードの例を表す。そのような実行可能命令又は関連付けられたデータ構造の特定のシーケンスは、そのようなステップに記載される機能を実施する対応する動作の例を表す。
企業規模のコンピュータネットワーク、イントラネット、及びインターネットで一般的である。
Claims (306)
- 刺激に関する個人によるエンゲージメントの測定値を特定するための方法であって、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するステップと、
を含み、
それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、方法。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するステップと、
を更に含む、請求項1に記載の方法。 - 前記瞬き抑制パターンは、前記個人の瞬きデータと、前記個人に関連付けられた瞬きの機会確率との比較を含む、請求項1又は2に記載の方法。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項1〜3の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項1〜4の何れか一項に記載の方法。
- 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項1〜5の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項1〜4の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜4の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜4の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項1〜4の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項1〜4の何れか一項に記載の方法。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項11に記載の方法。
- 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するステップを更に含む、請求項1〜12の何れか一項に記載の方法。
- 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項1〜13の何れか一項に記載の方法。
- 前記同期させるステップは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項1〜14の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項1〜15の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項1〜15の何れか一項に記載の方法。
- 比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項1〜17の何れか一項に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って前記瞬きデータを分類するステップを更に含む、請求項1〜17の何れか一項に記載の方法。
- 前記刺激は聴覚刺激である、請求項1〜19の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項2〜19の何れか一項に記載の方法。
- 前記刺激は静的視覚刺激である、請求項2〜19の何れか一項に記載の方法。
- 刺激に関する個人によるエンゲージメントの測定値を特定するためのシステムであって、
プロセッサと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するために前記プロセッサで実行するソフトウェアと、
を備え、
それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、システム。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロ
セッサで実行するソフトウェアと、
前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項23に記載のシステム。 - 前記瞬き抑制パターンは、前記個人の瞬きデータと、前記個人に関連付けられた瞬きの機会確率との比較を含む、請求項23又は24に記載のシステム。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項23〜25の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項23〜27の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項23〜26の何れか一項に記載のシステム。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項33に記載のシステム。
- 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項23〜34の何れか一項に記載のシステム。
- 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項23〜35の何れか一項に記載のシステム。
- 前記同期させるためのソフトウェアは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けするために前記プロセッサで実行するソフトウェアを更に備える、請求項23〜36の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項23〜37の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項23〜37の何れか一項に記載のシステム。
- 比較を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項23〜39の何れか一項に記載のシステム。
- 所定の人口統計パラメータに従って前記瞬きデータを分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項23〜39の何れか一項に記載のシステム。
- 前記刺激は聴覚刺激である、請求項23〜41の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項23〜41の何れか一項に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項23〜41の何れか一項に記載のシステム。
- 刺激に対して個人が知覚する刺激顕著性を特定するための方法であって、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制期間を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップと、
を含み、
それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、方法。 - 前記同期させるステップは、前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激に時間ロック又は時間相関付けすることを含む、請求項45に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記瞬きデータをバイナリ形式に変換するステップと、
前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記眼球運動データを座標データに変換するステップと、
を更に含む、請求項45又は46に記載の方法。 - 前記同期した瞬きデータ内の前記瞬き抑制期間を識別する前記ステップは、
前記プロセッサで実行中のソフトウェアを介して、データベースから対照瞬きデータを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するステップと、
を更に含み、
それにより、前記差は前記瞬き抑制期間に対応する、請求項45〜47の何れか一項に記載の方法。 - 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項48に記載の方法。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項48又は49に記載の方法。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項48に記載の方法。
- 前記瞬き抑制期間は、前記刺激中の前記個人の平均瞬き率から特定される、請求項45〜51の何れか一項に記載の方法。
- 前記瞬き抑制期間は、前記刺激中の前記個人の経時的な瞬き率から特定される、請求項45〜51の何れか一項に記載の方法。
- 前記瞬き抑制期間は、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率から特定される、請求項45〜51の何れか一項に記載の方法。
- 前記瞬き抑制期間は、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率から特定される、請求項45〜51の何れか一項に記載の方法。
- 前記瞬き抑制期間は、前記刺激での事象に関する瞬き抑制測定値を含む、請求項45〜55の何れか一項に記載の方法。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項56に記載の方法。
- 前記刺激に対して知覚される時間的顕著性及び空間的顕著性のマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するステップを更に含む、請求項45〜57の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項45〜58の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項45〜58の何れか一項に記載の方法。
- 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項45〜60の何れか一項に記載の方法。
- 前記刺激は聴覚刺激である、請求項45〜61の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項45〜61の何れか一項に記載の方法。
- 前記刺激は静的視覚刺激である、請求項45〜61の何れか一項に記載の方法。
- 前記刺激は、以下:事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライ
ブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項45〜61の何れか一項に記載の方法。 - 刺激に対して個人が知覚する刺激顕著性を特定するためのシステムであって、
プロセッサと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制期間を識別するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
を備え、
それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、システム。 - 前記同期させるためのソフトウェアは、前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激に時間ロック又は時間相関付けするために前記プロセッサで実行するソフトウェアを更に備える、請求項66に記載のシステム。
- 特定を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアと、
特定を目的として、前記眼球運動データを座標データに変換するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項66又は67に記載のシステム。 - 前記同期した瞬きデータ内の前記瞬き抑制期間を識別するための前記ソフトウェアは、
データベースから対照瞬きデータを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するために前記プロセッサで実行するソフトウェアと、を更に備え、
それにより、前記差は前記瞬き抑制期間に対応する、請求項66〜68の何れか一項に記載のシステム。 - 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項69に記載のシステム。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項69又は70に記載のシステム。
- 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項69に記載のシステム。
- 前記瞬き抑制期間は、前記刺激中の前記個人の平均瞬き率から特定される、請求項66〜72の何れか一項に記載のシステム。
- 前記瞬き抑制期間は、前記刺激中の前記個人の経時的な瞬き率から特定される、請求項66〜72の何れか一項に記載のシステム。
- 前記瞬き抑制期間は、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率から特定される、請求項66〜72の何れか一項に記載のシステム。
- 前記瞬き抑制期間は、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率から特定される、請求項66〜72の何れか一項に記載のシステム。
- 前記瞬き抑制期間は、前記刺激での事象に関する瞬き抑制測定値を含む、請求項66〜76の何れか一項に記載のシステム。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項77に記載のシステム。
- 前記刺激に対して知覚される時間的顕著性及び空間的顕著性のマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項66〜78の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項66〜79の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項66〜79の何れか一項に記載のシステム。
- 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項66〜81の何れか一項に記載のシステム。
- 前記刺激は聴覚刺激である、請求項66〜82の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項66〜82の何れか一項に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項66〜82の何れか一項に記載のシステム。
- 前記刺激は、以下:事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項66〜82の何れか一項に記載のシステム。
- 個人にエンゲージする刺激の能力を評価するための方法であって、
前記刺激を個人に提示するステップと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するステップと、
を含み、
それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示
す、方法。 - 前記プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って前記瞬きデータを分類するステップを更に含む、請求項87に記載の方法。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項87又は88に記載の方法。
- 前記瞬き抑制測定値は、前記刺激中の前記個人の平均瞬き率を含む、請求項87〜89の何れか一項に記載の方法。
- 前記瞬き抑制測定値は、前記個人の経時的な瞬き率を含む、請求項87〜89の何れか一項に記載の方法。
- 前記瞬き抑制測定値は、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項87〜89の何れか一項に記載の方法。
- 前記瞬き抑制測定値は、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項87〜89の何れか一項に記載の方法。
- 前記瞬き抑制測定値は、所定の対照瞬きデータと比較した、前記受信した瞬きデータの測定値を含む、請求項87〜89の何れか一項に記載の方法。
- 前記瞬き抑制測定値は、前記刺激での事象に関する瞬き抑制測定値を含む、請求項87〜89の何れか一項に記載の方法。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項95に記載の方法。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項87〜96の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項87〜96の何れか一項に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項87〜98の何れか一項に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って前記瞬きデータを分類するステップを更に含む、請求項87〜99の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項87〜100の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項101に記載の方法。
- 前記個人の前記瞬き抑制測定値は、前記刺激の全部に対応する、請求項87〜102の何れか一項に記載の方法。
- 前記個人の前記瞬き抑制測定値は、前記刺激の一部分に対応する、請求項87〜102の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項87〜104の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項87〜104の何れか一項に記載の方法。
- 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項87〜104の何れか一項に記載の方法。
- 前記刺激は聴覚刺激である、請求項87〜107の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項87〜107の何れか一項に記載の方法。
- 前記刺激は静的視覚刺激である、請求項87〜107の何れか一項に記載の方法。
- 個人にエンゲージする刺激の能力を評価するためのシステムであって、
プロセッサと、
前記刺激を個人に提示するために前記プロセッサで実行するソフトウェアと、
前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するために前記プロセッサで実行するソフトウェアと、
を備え
それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示す、システム。 - 所定の人口統計パラメータに従って前記瞬きデータを分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項111に記載のシステム。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項111又は112に記載のシステム。
- 前記瞬き抑制測定値は、前記刺激中の前記個人の平均瞬き率を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記瞬き抑制測定値は、前記個人の経時的な瞬き率を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記瞬き抑制測定値は、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記瞬き抑制測定値は、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記瞬き抑制測定値は、所定の対照瞬きデータと比較した前記受信した瞬きデータの測定値を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記瞬き抑制測定値は、前記刺激での事象に関する瞬き抑制測定値を含む、請求項111〜113の何れか一項に記載のシステム。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項119に記載のシステム。
- 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項111〜120の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項111〜120の何れか一項に記載のシステム。
- 特定を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項111〜122の何れか一項に記載のシステム。
- 所定の人口統計パラメータに従って前記瞬きデータを分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項111〜123の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項111〜124の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項125に記載のシステム。
- 前記個人の前記瞬き抑制測定値は、前記刺激の全部に対応する、請求項111〜126の何れか一項に記載のシステム。
- 前記個人の前記瞬き抑制測定値は、前記刺激の一部分に対応する、請求項111〜126の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項111〜128の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項111〜128の何れか一項に記載のシステム。
- 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項111〜128の何れか一項に記載のシステム。
- 前記刺激は聴覚刺激である、請求項111〜131の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項111〜131の何れか一項に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項111〜131の何れか一項に記載のシステム。
- 眼球監視装置を使用して、個人の精神障害を評価、監視、又は診断するための方法であって、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を介して収集される、ステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから視覚刺激に関連する事象データを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するステップであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ステップと、
を含む、方法。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するステップであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバの前記スキャンパスの収束を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するステップと、
を更に含む、請求項135に記載の方法。 - 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項135又は136に記載の方法。
- 前記事象データの前記パラメータは時間値を含む、請求項135又は136に記載の方法。
- 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項135又は136に記載の方法。
- 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項135〜139の何れか一項に記載の方法。
- 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項135〜139の何れか一項に記載の方法。
- 少なくとも1つの前記デルタパラメータに基づいて、前記個人に診断を提供するステップを更に含む、請求項135〜141の何れか一項に記載の方法。
- 前記刺激は聴覚刺激である、請求項135〜142の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項136〜142の何れか一項に記載の方法。
- 前記事象データは、以下:前記動的視覚刺激内の物理的事象、前記動的視覚刺激内の感情的事象、前記動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項144に記載の方法。
- 前記刺激は静的視覚刺激である、請求項135〜142の何れか一項に記載の方法。
- 前記同期させるステップは、前記受信した瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項135〜146の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の瞬きデータと、前記個人に関連付けられた瞬きの機会確率との比較を含む、請求項135〜147の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項135〜147の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項135〜147の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項135〜147の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項135〜147の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項135〜147の何れか一項に記載の方法。
- 眼球監視装置を使用して、個人の精神障害を評価、監視、又は診断するためのシステムであって、
プロセッサと、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を介して収集される、ソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
データベースから視覚刺激に関連する事象データを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するために前記プロセッサで実行するソフトウェアであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ソフトウェアと、
を備える、システム。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するために前記プロセッサで実行するソフトウェアであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ソフトウェアと、
前記対照群の前記メンバの前記スキャンパスの収束を識別するために前記プロセッサで実行するソフトウェアと、
前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項154に記載のシステム。 - 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項154又は155に記載のシステム。
- 前記事象データの前記パラメータは時間値を含む、請求項154又は155に記載のシステム。
- 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項154又は155に記載のシステム。
- 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項154〜158の何れか一項に記載のシステム。
- 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項154〜158の何れか一項に記載のシステム。
- 少なくとも1つの前記デルタパラメータに基づいて、前記個人に診断を提供するために前記プロセッサで実行するソフトウェアを更に備える、請求項154〜160の何れか一項に記載のシステム。
- 前記刺激は聴覚刺激である、請求項154〜161の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項155〜161の何れか一項に記載のシステム。
- 前記事象データは、以下:前記動的視覚刺激内の物理的事象、前記動的視覚刺激内の感情的事象、前記動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項163に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項154〜161の何れか一項に記載のシステム。
- 前記同期させるステップは、前記受信した瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項154〜165の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の瞬きデータと、前記個人に関連付けられた瞬きの機会確率との比較を含む、請求項154〜166の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項154〜166の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項154〜166の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項154〜166の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項154〜166の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項154〜166の何れか一項に記載のシステム。
- 眼球監視装置を使用して、個人の精神障害を評価、監視、又は診断するための方法であって、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ステップと、
プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すステップと、
を含む、方法。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するステップであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバの前記スキャンパスの収束を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するステップと、
を更に含む、請求項173に記載の方法。 - 前記刺激は聴覚刺激である、請求項173又は174に記載の方法。
- 前記刺激は動的視覚刺激である、請求項174に記載の方法。
- 前記刺激は静的視覚刺激である、請求項174に記載の方法。
- 前記刺激は、以下:動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項174に記載の方法。
- 精神状態は発達障害又は認知障害を含む、請求項173〜178の何れか一項に記載の方法。
- 前記同期させるステップは、前記受信した瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項173〜179の何れか一項に記載の方法。
- 前記個人の前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項173〜180の何れか一項に記載の方法。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項173〜180の何れか一項に記載の方法。
- 識別を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項173〜182の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、前記動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項173〜183の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項173〜183の何れか一項に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項185に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項185に記載の方法。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項173〜187の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項173〜187の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、特定の時点での前記個人の瞬間瞬き率の測定値を含み、前記対照瞬き抑制パターンは、対照群の瞬間瞬き率を含む、請求項173〜187の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、刺激が存在しないときの前記個人の平均瞬き率を含む、請求項173〜182の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項173〜182の何れか一項に記載の方法。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項192に記載の方法。
- 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項173〜193の何れか一項に記載の方法。
- 眼球監視装置を使用して、個人の精神障害を評価、監視、又は診断するためのシステムであって、
プロセッサと、
刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ソフトウェアと、
前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアと、
前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すために前記プロセッサで実行するソフトウェアと、
を備える、システム。 - 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するために前記プロセッサで実行するソフトウェアであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ソフトウェアと、
前記対照群の前記メンバの前記スキャンパスの収束を識別するために前記プロセッサで実行するソフトウェアと、
前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項195に記載のシステム。 - 前記刺激は聴覚刺激である、請求項195又は196に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項196に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項196に記載のシステム。
- 前記刺激は、以下:動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項19
6に記載のシステム。 - 精神状態は発達障害又は認知障害を含む、請求項195〜200の何れか一項に記載のシステム。
- 前記同期させるためのソフトウェアは、前記受信した瞬きデータを前記刺激に時間ロック又は時間相関付けするために前記プロセッサで実行するソフトウェアを更に備える、請求項195〜201の何れか一項に記載のシステム。
- 前記個人の前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項195〜202の何れか一項に記載のシステム。
- 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項195〜202の何れか一項に記載のシステム。
- 識別を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項195〜204の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、前記動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項195〜205の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項195〜205の何れか一項に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項207に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項207に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項195〜209の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項195〜209の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、特定の時点での前記個人の瞬間瞬き率の測定値を含み、前記対照瞬き抑制パターンは、対照群の瞬間瞬き率を含む、請求項195〜209の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、刺激が存在しないときの前記個人の平均瞬き率を含む、請求項195〜204の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項195〜209の何れか一項に記載のシステム。
- 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項214に記載のシステム。
- 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項195〜215の何れか一項に記載のシステム。
- 瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法であって、
刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、データベースから、前記刺激についての対照瞬き抑制パターンを検索するステップであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、
前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するステップと、
を含む、方法。 - 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項217に記載の方法。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項217又は218に記載の方法。
- 前記刺激は聴覚刺激である、請求項217に記載の方法。
- 前記刺激は動的視覚刺激である、請求項217に記載の方法。
- 前記刺激は静的視覚刺激である、請求項217に記載の方法。
- 前記ユーザの前記瞬きデータは、前記ユーザの瞳孔サイズの変化率に対応する、請求項217〜222の何れか一項に記載の方法。
- 前記瞬きデータは、前記ユーザの瞼閉鎖に対応する、請求項217〜222の何れか一項に記載の方法。
- 比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項217〜224の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、前記刺激に応答しての複数のユーザの平均瞬き率を含む、請求項217〜225の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、複数のユーザの前記瞬きデータを並べ替えることによって得られる前記複数のユーザの平均瞬き率の確率分布を含む、請求項217〜225の何れか一項に記載の方法。
- 前記複数のユーザの前記データを並べ替える前記ステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項227に記載の方法。
- 前記複数のユーザの前記データを並べ替える前記ステップは、各ユーザの瞬き及び瞬き
間隔の順序をランダム化することを含む、請求項227に記載の方法。 - 前記瞬き抑制パターンは、前記刺激中の前記ユーザの平均瞬き率を含む、請求項217〜229の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記ユーザの経時的な瞬き率を含む、請求項217〜229の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、特定の時点での前記ユーザの瞬間瞬き率の測定値を含み、前記対照瞬き抑制パターンは、対照群の瞬間瞬き率を含む、請求項217〜229の何れか一項に記載の方法。
- 前記対照瞬き抑制パターンは、刺激が存在しないときの前記ユーザの平均瞬き率を含む、請求項217〜225の何れか一項に記載の方法。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項217〜229の何れか一項に記載の方法。
- 動的刺激での前記事象は、物理的事象又は感情的事象を含む、請求項234に記載の方法。
- 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するステップと、
を更に含む、請求項217〜235の何れか一項に記載の方法。 - 瞬き抑制に基づいて刺激へのユーザ反応を評価するためのシステムであって、
プロセッサと、
刺激へのユーザの瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
前記瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
データベースから、前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ソフトウェアと、
前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するために前記プロセッサで実行するソフトウェアと、
を備える、システム。 - 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項237に記載のシステム。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項237又は238に記載のシステム。
- 前記刺激は聴覚刺激である、請求項237に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項237に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項237に記載のシステム。
- 前記ユーザの前記瞬きデータは、前記ユーザの瞳孔サイズの変化率に対応する、請求項237〜242の何れか一項に記載のシステム。
- 前記瞬きデータは、前記ユーザの瞼閉鎖に対応する、請求項237〜242の何れか一項に記載のシステム。
- 比較を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項237〜244の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、前記刺激に応答しての複数のユーザの平均瞬き率を含む、請求項237〜245の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、複数のユーザの前記瞬きデータを並べ替えることによって得られる前記複数のユーザの平均瞬き率の確率分布を含む、請求項237〜245の何れか一項に記載のシステム。
- 前記複数のユーザの前記データを並べ替えるステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項247の何れか一項に記載のシステム。
- 前記複数のユーザの前記データを並べ替えるステップは、各ユーザの瞬き及び瞬き間隔の順序をランダム化することを含む、請求項247に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激中の前記ユーザの平均瞬き率を含む、請求項237〜249の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記ユーザの経時的な瞬き率を含む、請求項237〜249の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、特定の時点での前記ユーザの瞬間瞬き率の測定値を含み、前記対照瞬き抑制パターンは、対照群の瞬間瞬き率を含む、請求項237〜249の何れか一項に記載のシステム。
- 前記対照瞬き抑制パターンは、刺激が存在しないときの前記ユーザの平均瞬き率を含む、請求項237〜245の何れか一項に記載のシステム。
- 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項237〜249の何れか一項に記載のシステム。
- 動的刺激での前記事象は、物理的事象又は感情的事象を含む、請求項254に記載のシステム。
- 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するために前記プロセッサで
実行するソフトウェアと、
前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項237〜255の何れか一項に記載のシステム。 - 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するための方法であって、
前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するステップと、
プロセッサで実行中のソフトウェアを介して、データベースから対照瞬きデータを検索するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記対照瞬きデータと比較して、前記受信した瞬きデータと前記対照瞬きデータとの1つ又は複数の差を識別するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、
を含む、方法。 - 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するステップと、
前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するステップと、
を更に含む、請求項257に記載の方法。 - 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項258に記載の方法。
- 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項258又は259に記載の方法。
- 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点座標データに対応する、請求項258又は259に記載の方法。
- 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項258〜261の何れか一項に記載の方法。
- 前記三次元スキャンパスの周囲に注目漏斗を表示するステップを更に含む、請求項212に記載の方法。
- 前記同期させるステップは、前記複数の固視ロケーションを前記受信した瞬きデータに
時間ロック又は時間相関付けすることを含む、請求項258〜263の何れか一項に記載の方法。 - 前記複数の個人のそれぞれの前記瞬きデータは、各個人の瞳孔サイズの変化率に対応する、請求項257〜263の何れか一項に記載の方法。
- 前記複数の個人のそれぞれの前記瞬きデータは、瞼閉鎖に対応する、請求項257〜263の何れか一項に記載の方法。
- 比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップと、
比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記眼球移動データを座標データに変換するステップと、
を更に含む、請求項258〜266の何れか一項に記載の方法。 - 前記プロセッサで実行中のソフトウェアを介して、前記複数の個人の前記瞬きデータ及び前記眼球移動データを集計するステップを更に含む、請求項258〜267の何れか一項に記載の方法。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人の平均瞬き率を含む、請求項257〜268の何れか一項に記載の方法。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項257〜268の何れか一項に記載の方法。
- 前記対照瞬きデータは、前記複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項257〜268の何れか一項に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項271に記載の方法。
- 前記複数の個人の前記データを並べ替える前記ステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項271に記載の方法。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項257〜273の何れか一項に記載の方法。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、発達障害、認知障害、又は精神障害のマーカーである、請求項257〜274の何れか一項に記載の方法。
- 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するステップを更に含む、請求項258に従属する請求項275に記載の方法。
- 前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激に同期させるステップと、
前記プロセッサで実行中のソフトウェアを介して、前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、
を更に含む、請求項257〜276の何れか一項に記載の方法。 - 前記刺激は聴覚刺激である、請求項257〜277の何れか一項に記載の方法。
- 前記刺激は動的視覚刺激である、請求項257〜277の何れか一項に記載の方法。
- 前記刺激は静的視覚刺激である、請求項257〜277の何れか一項に記載の方法。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項257〜277の何れか一項に記載の方法。
- 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するためのシステムであって、
プロセッサと、
前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
データベースから対照瞬きデータを検索するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータを前記対照瞬きデータと比較して、前記受信した瞬きデータと前記対照瞬きデータとの1つ又は複数の差を識別するために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、
を備える、システム。 - 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項282に記載のシステム。 - 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項283に記載のシステム。
- 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項283又は284に記載のシステム。
- 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点
座標データに対応する、請求項283又は284に記載のシステム。 - 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項283〜286の何れか一項に記載のシステム。
- 前記三次元スキャンパスの周囲に注目漏斗を表示するために前記プロセッサで実行するソフトウェアを更に備える、請求項287に記載のシステム。
- 前記同期させるためのソフトウェアは、前記複数の固視ロケーションを前記受信した瞬きデータに時間ロック又は時間相関付けするためのソフトウェアを更に備える、請求項283〜288の何れか一項に記載のシステム。
- 前記複数の個人のそれぞれの前記瞬きデータは、各個人の瞳孔サイズの変化率に対応する、請求項282〜288の何れか一項に記載のシステム。
- 前記複数の個人のそれぞれの前記瞬きデータは、瞼閉鎖に対応する、請求項282〜288の何れか一項に記載のシステム。
- 比較を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアと、
比較を目的として、前記眼球移動データを座標データに変換するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項283〜291の何れか一項に記載のシステム。 - 前記複数の個人の前記瞬きデータ及び前記眼球移動データを集計するために前記プロセッサで実行するソフトウェアを更に備える、請求項283〜292の何れか一項に記載のシステム。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人の平均瞬き率を含む、請求項282〜293の何れか一項に記載のシステム。
- 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項282〜293の何れか一項に記載のシステム。
- 前記対照瞬きデータは、前記複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項282〜293の何れか一項に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項296に記載のシステム。
- 前記複数の個人の前記データを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項296に記載のシステム。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項282〜298の何れか一項に記載のシステム。
- 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、発達障害
、認知障害、又は精神障害のマーカーである、請求項282〜299の何れか一項に記載のシステム。 - 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するために前記プロセッサで実行するソフトウェアを更に備える、請求項B2に従属する請求項300に記載のシステム。
- 前記受信した瞬きデータを前記刺激に同期させるために前記プロセッサで実行するソフトウェアと、
前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、
を更に備える、請求項282〜301の何れか一項に記載のシステム。 - 前記刺激は聴覚刺激である、請求項282〜302の何れか一項に記載のシステム。
- 前記刺激は動的視覚刺激である、請求項282〜302の何れか一項に記載のシステム。
- 前記刺激は静的視覚刺激である、請求項283〜302の何れか一項に記載のシステム。
- 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む、請求項282〜302の何れか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261735865P | 2012-12-11 | 2012-12-11 | |
US61/735,865 | 2012-12-11 | ||
PCT/US2013/074487 WO2014093546A2 (en) | 2012-12-11 | 2013-12-11 | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016504089A true JP2016504089A (ja) | 2016-02-12 |
JP2016504089A5 JP2016504089A5 (ja) | 2017-01-26 |
JP6426105B2 JP6426105B2 (ja) | 2018-11-21 |
Family
ID=49958659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015547517A Expired - Fee Related JP6426105B2 (ja) | 2012-12-11 | 2013-12-11 | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
Country Status (15)
Country | Link |
---|---|
US (7) | US10052057B2 (ja) |
EP (1) | EP2931126B1 (ja) |
JP (1) | JP6426105B2 (ja) |
KR (1) | KR102181927B1 (ja) |
CN (1) | CN104968270B (ja) |
AU (2) | AU2013359304B2 (ja) |
BR (1) | BR112015013489A2 (ja) |
CA (1) | CA2894414C (ja) |
ES (1) | ES2751380T3 (ja) |
HK (1) | HK1212182A1 (ja) |
IL (1) | IL239363B (ja) |
MX (1) | MX359676B (ja) |
NZ (1) | NZ709258A (ja) |
SG (1) | SG11201504601XA (ja) |
WO (1) | WO2014093546A2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018093350A (ja) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | 注目度評価システム |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
WO2020129834A1 (ja) * | 2018-12-17 | 2020-06-25 | 株式会社夏目綜合研究所 | 脳疾患の診断装置 |
JP2020536268A (ja) * | 2017-10-02 | 2020-12-10 | エシロール・アンテルナシオナル | 人の視覚及び/又は視覚運動行動を適合させる方法及びシステム |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10607305B2 (en) * | 2005-03-05 | 2020-03-31 | Jeb C. Griebat | Method for questioning jurors |
US10482333B1 (en) * | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
US9723992B2 (en) * | 2010-06-07 | 2017-08-08 | Affectiva, Inc. | Mental state analysis using blink rate |
US10074024B2 (en) * | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
WO2013105114A2 (en) * | 2011-12-05 | 2013-07-18 | Gautam Singh | A computer implemented system and method for statistically assessing co-scholastic skills of a user |
AU2013359304B2 (en) * | 2012-12-11 | 2018-09-13 | Warren Jones | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
MX2016004899A (es) | 2013-10-17 | 2017-01-18 | Children's Healthcare Of Atlanta Inc | Metodos para evaluar el desarrollo de bebes y niños via rastreo ocular. |
GB201319619D0 (en) * | 2013-11-06 | 2013-12-18 | Diamentech Ltd | System for assessing a mental health disorder |
US9357917B2 (en) * | 2014-07-28 | 2016-06-07 | Google Technology Holdings LLC | Method and apparatus for managing blinking |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
CN105100791B (zh) * | 2015-09-02 | 2017-04-05 | 中国科学院软件研究所 | 一种用于测量立体视觉舒适度的系统及方法 |
US11972336B2 (en) * | 2015-12-18 | 2024-04-30 | Cognoa, Inc. | Machine learning platform and system for data analysis |
US11540009B2 (en) | 2016-01-06 | 2022-12-27 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
EP3400661A4 (en) | 2016-01-06 | 2019-04-24 | TVision Insights, Inc. | SYSTEMS AND METHODS FOR EVALUATING A SPECTATOR COMMITMENT |
FR3048542A1 (fr) * | 2016-03-01 | 2017-09-08 | Valeo Comfort & Driving Assistance | Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile |
US10181078B1 (en) * | 2016-11-07 | 2019-01-15 | National Technology & Engineering Solutions Of Sandia, Llc | Analysis and categorization of eye tracking data describing scanpaths |
CA3044545A1 (en) | 2016-11-22 | 2018-05-31 | Janssen Pharmaceutica Nv | Methods of identifying schizophrenia patients at risk for relapse |
CN106681495B (zh) * | 2016-12-08 | 2018-09-14 | 华南理工大学 | 一种基于eog的异步字符输入方法及装置 |
US10497242B2 (en) | 2016-12-15 | 2019-12-03 | David H. Williams | Systems and methods for monitoring for and preempting pre-identified restriction violation-related behavior(s) of persons under restriction |
US10853897B2 (en) | 2016-12-15 | 2020-12-01 | David H. Williams | Systems and methods for developing, monitoring, and enforcing agreements, understandings, and/or contracts |
US11636941B2 (en) | 2016-12-15 | 2023-04-25 | Conquer Your Addiction Llc | Dynamic and adaptive systems and methods for rewarding and/or disincentivizing behaviors |
US11412353B2 (en) | 2016-12-15 | 2022-08-09 | Conquer Your Addiction Llc | Systems and methods for monitoring for and preempting the risk of a future occurrence of a quarantine violation |
WO2018112047A2 (en) | 2016-12-15 | 2018-06-21 | Williams David H | Systems and methods of using wireless location, context, and/or one or more communication networks for monitoring for, preempting and/or mitigating pre-identified behavior |
WO2018195391A1 (en) | 2017-04-20 | 2018-10-25 | Tvision Insights, Inc. | Methods and apparatus for multi-television measurements |
US10841651B1 (en) * | 2017-10-10 | 2020-11-17 | Facebook, Inc. | Systems and methods for determining television consumption behavior |
JP6598141B2 (ja) * | 2017-11-16 | 2019-10-30 | マツダ株式会社 | 認知時機推定装置及び認知時機推定方法 |
WO2019181537A1 (ja) * | 2018-03-22 | 2019-09-26 | 国立研究開発法人科学技術振興機構 | 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム |
CN108932532A (zh) * | 2018-07-11 | 2018-12-04 | 杭州电子科技大学 | 一种针对视频显著性图预测所需的眼动数据数目建议方法 |
CN109259775A (zh) * | 2018-08-30 | 2019-01-25 | 清华大学 | 一种人脸刺激范式生成方法及自闭症分析系统 |
CN110944232B (zh) * | 2018-09-21 | 2021-11-19 | 中国移动通信有限公司研究院 | 一种监测认知行为的方法、装置及机顶盒 |
US10839201B2 (en) * | 2018-11-09 | 2020-11-17 | Akili Interactive Labs, Inc. | Facial expression detection for screening and treatment of affective disorders |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
EP3964130A1 (en) * | 2020-09-03 | 2022-03-09 | Tata Consultancy Services Limited | System and method for eye-blink based assessment of sustained visual attention of a target |
CN112891164A (zh) * | 2021-01-13 | 2021-06-04 | 浙江工业大学 | 一种虚拟现实环境下的弱视康复训练专注度评估方法 |
BE1029415B1 (fr) * | 2021-05-19 | 2022-12-19 | P³Lab | Un système et un procédé de mesure de réactions d’un sujet, un programme d’ordinateur et un support lisible par ordinateur |
US20230095350A1 (en) * | 2021-09-17 | 2023-03-30 | Smart Science Technology, LLC | Focus group apparatus and system |
US11903711B2 (en) | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
CN115990016B (zh) * | 2022-12-02 | 2024-04-19 | 天津大学 | 一种基于眼动特征的孤独特质程度检测装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031475A (ja) * | 2004-07-16 | 2006-02-02 | Toyota Motor Corp | 情報提供装置及び情報提供方法 |
JP2007502630A (ja) * | 2003-08-21 | 2007-02-15 | ジェフリー バートン,ピーター | 認知処理 |
JP2009530071A (ja) * | 2006-03-13 | 2009-08-27 | アイモーションズ−エモーション テクノロジー エー/エス | 視覚的注意および感情反応の検出表示システム |
US20110172556A1 (en) * | 2005-02-24 | 2011-07-14 | Warren Jones | System And Method For Quantifying And Mapping Visual Salience |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4889422A (en) | 1986-01-28 | 1989-12-26 | George Pavlidis | Method and means for detecting dyslexia |
US5035500A (en) | 1988-08-12 | 1991-07-30 | Rorabaugh Dale A | Automated ocular perimetry, particularly kinetic perimetry |
US5150716A (en) | 1991-01-28 | 1992-09-29 | Emile Franssen | System for diagnosis and staging of dementia by neurologic examination |
US5384593A (en) | 1993-08-05 | 1995-01-24 | Gell, Jr.; Harold A. | Method and apparatus for reflex blink reaction conditioning |
US5880812A (en) | 1997-03-13 | 1999-03-09 | Ramot-University Authority For Applied Research And Industrial Development, Ltd. | Method and apparatus for evaluating and mapping visual field |
AU1091099A (en) | 1997-10-16 | 1999-05-03 | Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
US6364486B1 (en) | 1998-04-10 | 2002-04-02 | Visual Awareness, Inc. | Method and apparatus for training visual attention capabilities of a subject |
CA2298515A1 (en) | 1999-02-11 | 2001-08-10 | Queen's University At Kingston | Method and apparatus for detecting eye movement |
US6116736A (en) | 1999-04-23 | 2000-09-12 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection capability |
US6120461A (en) | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
NZ521952A (en) | 2000-04-17 | 2004-03-26 | Stuart Graham | Method and apparatus for electrophysiological assessment of visual function using a head-mounted stereo display |
US6601021B2 (en) | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
US6670963B2 (en) | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US6755527B1 (en) | 2001-12-14 | 2004-06-29 | Oracle International Corporation | Techniques for analyzing eye movements |
JP3625064B2 (ja) | 2002-06-28 | 2005-03-02 | 独立行政法人理化学研究所 | 眼底の立体表示および座標計測装置 |
US20040015098A1 (en) | 2002-07-19 | 2004-01-22 | Souvestre Philippe A. | Dynamic ocular visual monitoring system |
US7274116B2 (en) | 2003-08-05 | 2007-09-25 | Matsushita Electric Industrial Co., Ltd. | direct-current power supply and battery-powered electronic apparatus equipped with the power supply |
US7819818B2 (en) | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
US20050273017A1 (en) | 2004-03-26 | 2005-12-08 | Evian Gordon | Collective brain measurement system and method |
US7396129B2 (en) | 2004-11-22 | 2008-07-08 | Carestream Health, Inc. | Diagnostic system having gaze tracking |
US20060167670A1 (en) | 2005-01-26 | 2006-07-27 | Deering Michael F | Photon-based modeling of the human eye and visual perception |
JP2007002630A (ja) | 2005-06-27 | 2007-01-11 | Fuji Electric Retail Systems Co Ltd | 扉ロック装置および自動販売機 |
JP2009508553A (ja) | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
US7384145B2 (en) | 2006-02-16 | 2008-06-10 | The Board Of Trustees Of The University Of Illinois | Mapping retinal function using corneal electrode array |
EP2363067B1 (en) * | 2007-01-19 | 2016-01-06 | Asahi Kasei Kabushiki Kaisha | Arousal state classification model generating device, arousal state classifying device, and warning device |
US7824034B2 (en) * | 2007-09-19 | 2010-11-02 | Utc Fire & Security Americas Corporation, Inc. | Iris imaging system and method for the same |
US7959578B2 (en) | 2008-02-01 | 2011-06-14 | Lonky Martin L | Methods and techniques to measure, map and correlate ocular micro-movement and ocular micro-tremor (OMT) signals with cognitive processing capabilities in ADD/ADHD individuals |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
NZ628281A (en) | 2008-12-09 | 2016-05-27 | Stephanie Fryar Williams | Biomarkers for the diagnosis and/or prediction of susceptibility to mental and neurodegenerative disorders |
US8808195B2 (en) | 2009-01-15 | 2014-08-19 | Po-He Tseng | Eye-tracking method and system for screening human diseases |
EP2470061A1 (en) | 2009-08-26 | 2012-07-04 | Ecole Polytechnique Fédérale de Lausanne (EPFL) | Wearable systems for audio, visual and gaze monitoring |
CN101813976A (zh) * | 2010-03-09 | 2010-08-25 | 华南理工大学 | 基于soc的视线跟踪人机交互方法及装置 |
US8371693B2 (en) | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
EP2637563A4 (en) | 2010-11-08 | 2014-04-30 | Optalert Australia Pty Ltd | WORK ABILITY TEST |
JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
GB201200122D0 (en) | 2012-01-05 | 2012-02-15 | Univ Aberdeen | An apparatus and a method for psychiatric evaluation |
US9314157B2 (en) | 2012-03-22 | 2016-04-19 | The Curators Of The University Of Missouri | Device to measure pupillary light reflex in infants and toddlers |
US8668337B2 (en) | 2012-04-18 | 2014-03-11 | TBI Diagnostics LLC | System for the physiological evaluation of brain function |
AU2013359304B2 (en) * | 2012-12-11 | 2018-09-13 | Warren Jones | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
-
2013
- 2013-12-11 AU AU2013359304A patent/AU2013359304B2/en active Active
- 2013-12-11 CA CA2894414A patent/CA2894414C/en active Active
- 2013-12-11 SG SG11201504601XA patent/SG11201504601XA/en unknown
- 2013-12-11 BR BR112015013489A patent/BR112015013489A2/pt active Search and Examination
- 2013-12-11 WO PCT/US2013/074487 patent/WO2014093546A2/en active Application Filing
- 2013-12-11 US US14/651,424 patent/US10052057B2/en active Active
- 2013-12-11 EP EP13821539.7A patent/EP2931126B1/en active Active
- 2013-12-11 US US14/103,640 patent/US9510752B2/en active Active
- 2013-12-11 MX MX2015007409A patent/MX359676B/es active IP Right Grant
- 2013-12-11 JP JP2015547517A patent/JP6426105B2/ja not_active Expired - Fee Related
- 2013-12-11 NZ NZ709258A patent/NZ709258A/en not_active IP Right Cessation
- 2013-12-11 KR KR1020157018671A patent/KR102181927B1/ko active IP Right Grant
- 2013-12-11 ES ES13821539T patent/ES2751380T3/es active Active
- 2013-12-11 CN CN201380072486.3A patent/CN104968270B/zh active Active
-
2015
- 2015-06-11 IL IL239363A patent/IL239363B/en active IP Right Grant
- 2015-12-31 HK HK15112918.7A patent/HK1212182A1/xx unknown
-
2016
- 2016-09-28 US US15/278,557 patent/US9861307B2/en active Active
- 2016-09-28 US US15/278,598 patent/US10016156B2/en active Active
-
2018
- 2018-07-16 US US16/036,322 patent/US10987043B2/en active Active
- 2018-08-28 AU AU2018222906A patent/AU2018222906B2/en active Active
-
2021
- 2021-03-22 US US17/208,177 patent/US11759135B2/en active Active
-
2023
- 2023-08-01 US US18/363,323 patent/US20240023859A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007502630A (ja) * | 2003-08-21 | 2007-02-15 | ジェフリー バートン,ピーター | 認知処理 |
JP2006031475A (ja) * | 2004-07-16 | 2006-02-02 | Toyota Motor Corp | 情報提供装置及び情報提供方法 |
US20110172556A1 (en) * | 2005-02-24 | 2011-07-14 | Warren Jones | System And Method For Quantifying And Mapping Visual Salience |
JP2009530071A (ja) * | 2006-03-13 | 2009-08-27 | アイモーションズ−エモーション テクノロジー エー/エス | 視覚的注意および感情反応の検出表示システム |
Non-Patent Citations (3)
Title |
---|
AKINORI UEKI, KYOKO GOTO, NORIKO SATO, HIROYUKI ISO, YOHIO MORITA: "Prepulse inhibition of acoustic startle response in mild cognitive impairment and mild dementia of A", PSYCHIATRY AND CLINICAL NEUROSCIENCES, vol. Vol. 60 Issue1, JPN7017002483, February 2006 (2006-02-01), pages 55 - 62, ISSN: 0003740439 * |
SARAH SHULTZ, AMI KLIN, WARREN JONES: "Inhibition of eye blinking reveals subjective perceptions of stimulus salience", PNAS, vol. 108, no. 52, JPN7017002481, 27 December 2011 (2011-12-27), pages 21270 - 21275, XP002721389, ISSN: 0003740437, DOI: 10.1073/PNAS.1109304108 * |
松村 佳亮 KEISUKE MATSUMURA: "ヒューマンインフォメーション", 映像情報メディア学会誌 第65巻 第12号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TE, vol. 第65巻, JPN6017028447, JP, ISSN: 0003740438 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018093350A (ja) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | 注目度評価システム |
JP2020536268A (ja) * | 2017-10-02 | 2020-12-10 | エシロール・アンテルナシオナル | 人の視覚及び/又は視覚運動行動を適合させる方法及びシステム |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
WO2020129834A1 (ja) * | 2018-12-17 | 2020-06-25 | 株式会社夏目綜合研究所 | 脳疾患の診断装置 |
JP7396681B2 (ja) | 2018-12-17 | 2023-12-12 | 株式会社夏目綜合研究所 | 脳疾患の診断装置 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11759135B2 (en) | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience | |
US20230056506A1 (en) | Systems and methods for assessing and improving sustained attention | |
Haller et al. | Measuring online interpretations and attributions of social situations: Links with adolescent social anxiety | |
Perfect et al. | Eye closure reduces the cross-modal memory impairment caused by auditory distraction. | |
Scherer et al. | An audiovisual political speech analysis incorporating eye-tracking and perception data. | |
Zhang et al. | The effects of probe similarity on retrieval and comparison processes in associative recognition | |
Stanley | Measuring attention using microsoft kinect | |
Samad et al. | A pilot study to identify autism related traits in spontaneous facial actions using computer vision | |
Tsang et al. | Social complexity and the early social environment affect visual social attention to faces | |
Lin et al. | Modeling reading behaviors: An automatic approach to eye movement analytics | |
Gilroy et al. | Evaluating multimodal affective fusion using physiological signals | |
US10835147B1 (en) | Method for predicting efficacy of a stimulus by measuring physiological response to stimuli | |
Ambrus | Shared neural codes of recognition memory | |
Huan et al. | Designing an Engaging Story-stem taken from the MCAST test | |
Janus | (Dis) Entangling Lies and Emotion | |
Zignego et al. | Neurodesign: A Game-Changer in Educational Contexts | |
Zurloni et al. | Imposing cognitive load to unmask prepared lies | |
Wadsworth | Cognitive processes and moderators of willingness in individuals with social anxiety disorder and non-anxious controls in response to a social performance task | |
Zurloni et al. | Imposing cognitive load to unmask prepared lies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6426105 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |