JP6426105B2 - エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 - Google Patents

エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 Download PDF

Info

Publication number
JP6426105B2
JP6426105B2 JP2015547517A JP2015547517A JP6426105B2 JP 6426105 B2 JP6426105 B2 JP 6426105B2 JP 2015547517 A JP2015547517 A JP 2015547517A JP 2015547517 A JP2015547517 A JP 2015547517A JP 6426105 B2 JP6426105 B2 JP 6426105B2
Authority
JP
Japan
Prior art keywords
blink
data
stimulus
processor
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015547517A
Other languages
English (en)
Other versions
JP2016504089A5 (ja
JP2016504089A (ja
Inventor
クライン、アミ
ジョーンズ、ウォーレン
シュルツ、セーラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2016504089A publication Critical patent/JP2016504089A/ja
Publication of JP2016504089A5 publication Critical patent/JP2016504089A5/ja
Application granted granted Critical
Publication of JP6426105B2 publication Critical patent/JP6426105B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation

Description

本システム及び方法は、概して、視覚刺激又は聴覚刺激との閲覧者のエンゲージメントのインジケータとして、瞬き挙動及び瞬き抑制を測定することに関し、より詳細には、自然な閲覧中の瞬き抑制のタイミングを利用して、刺激への閲覧者のエンゲージメントを評価し、刺激の相対顕著性の閲覧者知覚を評価し、特定の閲覧者又は閲覧者群にエンゲージする刺激の力を評価し、刺激の最もエンゲージされる空間的特徴及び時間的特徴を識別し、人口統計目的又は診断目的で、所与の刺激とのエンゲージメントに応じて、閲覧者を分類又は格付けすることに関する。
瞬きするとき、世界と網膜との間での視覚情報の流れは一時的に遮られる。その瞬きの瞬間、外部世界からの視覚刺激は、150〜400ミリ秒(ms又はmsec)にわたって失われる。その結果、起きている1日の過程で平均的な成人は、瞼を閉じ、視覚情報を失う状態で約44分を費やす。それらの瞬間中、動眼筋の運動、補足眼球野及び前頭葉眼球運動野での活動、並びに視覚野、頭頂野、及び前頭葉前部皮質領域での広範囲の活動を含む様々な神経系が一緒に機能して、塞がった瞼の実際の視覚信号を抑える。これらの系は、知覚的連続性という幻覚を生み出すが、新しい視覚情報が瞬きのその瞬間に提示される場合、その新しい視覚情報は見落とされる。
眼球運動データの収集中、瞬きは従来、ノイズ又はアーチファクトデータとして考えられ、一般に無用であると見なされる。しかし、瞬きは、単なる生理学的機能を超えて認知状態にも関連する。個人は大方、瞬きに気付かないままであるが、瞬きが一般に、課題コンテンツで明示的注目及び暗黙的注目の両方に関連し得ることも一般に分かっている。
視覚刺激への人のエンゲージメントの識別及び定量化は、多くの異なる分野での洞察を提供することができる。自閉症、注意欠陥過活動性障害(ADHD:attention
deficit hyperactivity disorder)、発達障害、及び他の認知状態に関しての認知テスト及び挙動テストでは、閲覧者が特定のタイプの視覚的(又は聴覚的)コンテンツにどの程度エンゲージするかを測定することにより、疾患/障害の状態、疾患/障害の進行、及び/又は治療反応のバイオマーカーを提供することができる。例えば、一般集団内で10人に1人が罹患する発達障害を有する子供は、発話及び言語能力の取得の遅れを示す。スピーチキュー及び言語キューへの子供のエンゲージメントの測定値(例えば、言語取得の前兆である、話す顔又はコミュニケーションジェスチャへのエンゲージメントレベル)は、そのような障害の診断が従来通り行われるよりもはるかに早い年齢で、発達障害を有する子供の診断での識別を支援することができる。
別の例では、商業業界では、多くのマーケティング企業の主な関心の1つは、様々なマーケティングキャンペーンの有効性を測定することである。視覚的なマーケティングキャンペーンの有効性を特定する従来の手法は、消費者調査及びアンケートの実施、販売数の解析、ソーシャルメディア「バズ」等を含む。しかし、マーケティング企業は、間接的な報告又は調査なしで、閲覧者の挙動から直接、テストトライアル中の閲覧者又は閲覧者群のマーケティングキャンペーンへのエンゲージメントレベルを測定することにより、キャンペーンのリリース前又は実際のキャンペーン中に視覚的マーケティングキャンペーンの有効性を特定するメカニズムを有することから恩恵を受けるであろう。別の例では、視覚的補助教材の開発者も、補助教材の開発段階中に、生徒のエンゲージレベルの測定値を有することから恩恵を受け得る。ビデオゲーム開発者、飛行及び運転シミュレータ開発者等
の他の業界も、視覚刺激へのエンゲージメントのインジケータを測定することから恩恵を受け得る。
したがって、閲覧者のエンゲージメントを評価し測定することが可能なシステム及び方法に対する、長年にわたってそれでも解決されていない要望が存在する。更に、映画、テレビショー、マーケティングキャンペーン、印刷広告、ウェブページ、緊急ビデオ、補助教材、更には物理的環境及び物体等の特定の視覚的及び/又は聴覚的刺激とのエンゲージメントを測定して、それらの最適化を可能にすることが必要とされる。更に、閲覧者のエンゲージメントの測定値を、自閉症、ADHD、統合失調症、双極性障害、鬱病、及び、限局性コンテンツとエンゲージする他の疾患等の状態での疾患/障害の状態、疾患/障害の進行、及び/又は治療反応を評価するバイオマーカーとして使用するためのシステム及び方法が更に必要とされる。
要約して説明すると、一実施形態によれば、本開示の態様は、概して、視覚刺激とのエンゲージメントのインジケータとして、瞬き抑制及び瞬き反応を評価するためのシステム及び方法に関する。特に、本開示の態様は、自然な閲覧中及び視覚刺激に応答しての瞬き抑制のタイミングを利用して、刺激との閲覧者のエンゲージメントの評価、刺激の相対顕著性の閲覧者知覚の評価、特定の閲覧者又は閲覧者群にエンゲージする刺激の力の評価、刺激のエンゲージメントが最も大きい空間的特徴及び時間的特徴の識別、及び人口統計目的又は診断目的での所与の刺激とのエンゲージメントに応じた閲覧者の分類又は格付けを行うことに関する。一実施形態によれば、本システム及び方法は、自然な閲覧中の瞬き率並びに瞬き及び瞬き抑制のタイミングに基づいて、閲覧者のエンゲージメントを評価するツールを提供する。一実施形態では、本システム及び方法は、視覚的コンテンツとの閲覧者の経時的なエンゲージメントと、閲覧者のエンゲージメントが動的に変化する程度とを定量化するツールを提供する。別の実施形態では、本システム及び方法は、聴覚的コンテンツとの聴き手の経時的なエンゲージメントと、瞬き抑制及び瞬きデータに関連して聴き手のエンゲージメントが動的に変化する程度とを定量化するツールを提供する。
更に、一実施形態によれば、本システム及び方法は、「データマイニング」手法により、時変閲覧者エンゲージメントに基づいて、刺激のエンゲージメントの最も大きい空間的特徴及び時間的特徴を特定するメカニズムを提供する。本開示の更なる態様は、エンゲージメントのこれらの測定値を眼球追跡注視点データと結合して、エンゲージメント(例えば、固視ロケーション)のより大きい又はより小さい瞬間で閲覧者が固視している刺激の特定の部分を測定するための方法に関する。
本開示の更なる態様は、例えば、自閉症スペクトラム障害(ASD:autism spectrum disorder)、ADHD、統合失調症、双極性障害、鬱病、心的外傷後ストレス障害(PTSD:post−traumatic stress disorder)及び、限局性コンテンツとエンゲージするか、又はエンゲージメントをもたらす他の疾患等であるが、これらに限定されない状態での疾患/障害の状態(例えば、病気の有無)、疾患/障害状態の進行、及び/又は治療反応を評価するためのシステム及び方法に関する。一実施形態では、本開示に繋がる研究において、対照となる通常の発達中の子供とは異なり、ASDを有する幼児は、特定の視覚的事象に関連して瞬き抑制の顕著な遅れを示す。本システム及び方法は、典型的な幼児が、同じ視覚的事象に関連して、ASDを有する幼児よりも早く瞬きを抑制することを示す。この差は、典型的な幼児での正常な認知プロセスの証拠と、それらのプロセスが、ASDを有する幼児で妨害されることの証拠とを提供する。顕著性社会的事象の展開が強く予期される際、典型的な幼児は瞬き
を抑制するが、ASDを有する幼児は瞬きを抑制しなかった。これらの測定値は、診断状態の評価及び症候の深刻さの測定に使用することができる情報を提供する。関連する実施形態として、例えば、再発のリスクを評価するために、環境トリガー(例えば、アルコールのイメージ、薬物のイメージ、又はそのような物質が通常、生産若しくは消費される場所のイメージ)を有する薬物中毒者の回復のエンゲージメントレベルを測定することに展開されうる。
一実施形態では、本開示は、時間の経過に伴い、動的視覚刺激に関する複数の個人の視覚的エンゲージメントを表示するための方法を記載する。この実施形態は、複数の各個人の動的視覚刺激への瞬き反応を示す瞬きデータを受信するステップと、データベースから対照瞬きデータを検索(取得)するステップと、受信した瞬きデータを対照瞬きデータと比較して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差を識別するステップと、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、各個人の瞳孔サイズの変化率及び/又は瞼閉鎖に対応する複数の各個人の瞬きデータを含む。
一態様では、本方法は、比較目的で、瞬きデータをバイナリ形式に変換するステップと、複数の個人の瞬きデータを集計するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、動的視覚刺激がないときの複数の個人の平均瞬き率、及び/又は動的視覚刺激がないときの複数の個人とは異なる個人群の平均瞬き率、及び/又は複数の個人の瞬きデータを並べ替えることによって得られる複数の個人の平均瞬き率の確率分布を含む対照瞬きデータを含む。
一態様では、本方法は、複数の個人のデータを並べ替えるステップを含み、瞬きデータ収集の元のタイミングからの循環シフトを含み、且つ/又は複数の個人のデータを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む。
一態様では、本方法は、以下:対照瞬きデータと比較した瞬き率の増大、対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差を含み、且つ/又は受信した瞬きデータと対照瞬きデータとの1つ又は複数の差は、発達障害、認知障害、又は精神障害のマーカーである。
一態様では、本方法は、個人の診断に関連して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を使用するステップを含み、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、受信した瞬きデータを動的視覚刺激と同期させるステップ及び/又は動的視覚刺激に関連して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一実施形態では、本開示は、刺激に関する複数の個人の、時間の経過に伴う視覚的エンゲージメントを表示するための方法を含む。この実施形態は、複数の各個人の刺激への瞬き反応を示す瞬きデータを受信するステップと、データベースから対照瞬きデータを検索するステップと、受信した瞬きデータを対照瞬きデータと比較して、受信した瞬きデータ
と対照瞬きデータとの1つ又は複数の差を識別するステップと、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、刺激に関する複数の各個人の眼の動きを示す眼球運動データを受信するステップと、眼球運動データから、複数の個人の刺激に関する複数の固視ロケーションを特定するステップと、複数の固視ロケーション及び受信した瞬きデータを刺激と同期させるステップと、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差に対応する1つ又は複数の時点での複数の固視ロケーションの表示を生成するステップとを含む。
一態様では、本方法は、複数の固視ロケーションの表示を含み、この表示は三次元表示を含み、次元のうちの2つは、複数の個人のそれぞれの複数の固視ロケーションに対応し、次元のうちの1つは時間に対応する。更に、一態様では、本方法は、刺激の1つ又は複数のフレームに関する複数の個人のそれぞれの目の固視ロケーションに対応する複数の固視ロケーションを含む。別の態様では、本方法は、刺激に関する複数の個人のそれぞれの注視点座標データに対応する複数の固視ロケーションを含む。一態様では、本方法は、三次元スキャンパスを含む複数の固視ロケーションの表示を更に含む。一態様によれば、本方法は、複数の固視ロケーションを、受信した瞬きデータに時間ロック又は時間相関付けすることを含む同期するステップを含む。
一態様では、本方法は、各個人の瞳孔サイズの変化率に対応する複数の個人のそれぞれの瞬きデータを含む。一態様によれば、本方法は、瞼閉鎖に対応する複数の個人のそれぞれの瞬きデータを含む。
一態様では、本方法は、比較を目的として、瞬きデータをバイナリ形式に変換するステップ、及び/又は比較を目的として、眼球移動データを座標データに変換するステップ、及び/又は複数の個人の瞬きデータ及び眼球移動データを集計するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、刺激が存在していないときの複数の個人の平均瞬き率を含む対照瞬きデータを含む。一態様によれば、本方法は、刺激が存在していないときの複数の個人とは異なる個人群の平均瞬き率を含む対照瞬きデータを含む。一態様では、複数の個人の瞬きデータを並べ替えることによって得られる複数の個人の平均瞬き率の確率分布を含む対照瞬きデータ。
別の態様では、本方法は、複数の個人のデータを並べ替えるステップを含み、瞬きデータ収集の元のタイミングからの循環シフトを含み、且つ/又は複数の個人のデータを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含み、ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、以下:対照瞬きデータと比較した瞬き率の増大、対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差を含む。
一態様では、本方法は、発達障害、認知障害、又は精神障害のマーカーとして、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差を含む。
一態様では、本方法は、個人の診断に関連して、受信した瞬きデータと対照瞬きデータ
との1つ又は複数の差に対応する1つ又は複数の時点での複数の固視ロケーションの表示を使用するステップ、及び/又はプロセッサ上で、受信した瞬きデータを刺激と同期させるステップ、及び/又は刺激に関連して、受信した瞬きデータと対照瞬きデータとの1つ又は複数の差の表示を生成するステップを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行することができる。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。別の態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一実施形態では、本開示は、動的視覚刺激に関する個人によるエンゲージメントの測定値を特定するための方法を含む。この実施形態は、動的視覚刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、瞬きデータを動的視覚刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、同期した瞬きデータ内の瞬き抑制パターンを動的視覚刺激と比較して、瞬き抑制パターンと同時発生した動的視覚刺激の部分を識別するステップとを含み、それにより、瞬き抑制パターンは、動的視覚刺激の同時発生部分との個人によるエンゲージメントのマーカーを示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行することができる。
一態様では、本方法は、以下:事前記録視覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む動的視覚刺激を含む。
一態様では、本方法は、動的視覚刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを更に含む。別の態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様によれば、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。一態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、個人の平均瞬き率の分散測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。別の態様では、本方法は、対照瞬きデータと比較した、同期した瞬きデータの測定値を含む瞬き抑制パターンを含む。一態様では、本方法は、動的視覚刺激での事象に関する瞬き抑制測定値を含む瞬き抑制パターンを含む。
一態様では、動的視覚刺激の同時発生部分は、動的視覚刺激の全部を含む。一態様によれば、本方法は、物理的事象又は感情的事象を含む動的視覚刺激での事象を含む。
一態様では、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含む。別の態様では、エンゲージメントのマーカーは、動的視覚刺激の顕著部分に関連する。
一態様によれば、本方法は、同期させるステップを含み、このステップは、瞬きデータを動的視覚刺激に時間ロック又は時間相関付けすることを含む。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを含む。別の態様では、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
別の態様では、本方法は、比較目的で、プロセッサで実行中のソフトウェアを介して、瞬きデータをバイナリ形式に変換するステップ及び/又はプロセッサで実行中のソフトウ
ェアを介して、所定の人口統計パラメータに従って瞬きデータを分類するステップを更に含む。
一実施形態では、本開示は、刺激に関する個人によるエンゲージメントの測定値を特定するための方法を含む。この実施形態は、刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、受信した瞬きデータを刺激と同期させるステップと、プロセッサで実行中のソフトウェアを介して、同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、同期した瞬きデータ内の瞬き抑制パターンを刺激と比較して、瞬き抑制パターンと同時発生する刺激の部分を識別するステップとを含み、それにより、瞬き抑制パターンは、刺激の同時発生部分との個人によるエンゲージメントのマーカーを示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、刺激に関する個人の目の動きを示す眼球運動データを受信するステップと、眼球運動データから、刺激に関する複数の固視ロケーションを特定するステップと、複数の固視ロケーションを刺激の同時発生部分での刺激と比較するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様によれば、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚的若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。一態様によれば、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。一態様によれば、本方法は、所定の対照瞬きデータと比較した、同期した瞬きデータの測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、刺激での事象に関する瞬き抑制測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、刺激の全部を含む刺激の同時発生部分を含む。別の態様では、本方法は、物理的事象又は感情的事象を含む刺激での事象を含む。
一態様によれば、本方法は、エンゲージメントのマーカーに基づいて、個人を1つ又は複数の予め定義されたカテゴリに分類するステップを含み、且つ/又は同期させることは、瞬きデータを刺激に時間ロック又は時間相関付けすることを含む。
一態様では、本方法は、刺激の顕著部分に関連するエンゲージメントのマーカーを含む。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する瞬きデータを更に含む。一態様によれば、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
一態様では、本方法は、比較目的で、瞬きデータをバイナリ形式に変換するステップ及び/又は所定の人口統計パラメータに従って瞬きデータを分類するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的刺激を含む刺激を含
む。
一実施形態では、本開示は、刺激に関して個人が知覚する刺激顕著性を特定するための方法を含む。この実施形態は、刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、刺激に関する個人の目の動きを示す眼球運動データを受信するステップと、受信した瞬きデータ及び受信した眼球運動データを刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制期間を識別するステップと、同期した瞬きデータ内で識別される瞬き抑制期間中、刺激に関する個人の同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップとを含み、それにより、瞬き抑制期間及び少なくとも1つの空間固視ロケーションは、刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、受信した瞬きデータ及び受信した眼球運動データを刺激に時間ロック又は時間相関付けすることを含む同期させるステップを含む。
一態様では、本方法は、特定を目的として、瞬きデータをバイナリ形式に変換するステップ及び/又は特定を目的として、眼球運動データを座標データに変換するステップを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様によれば、本方法は、データベースから対照瞬きデータを検索するステップと、同期した瞬きデータを対照瞬きデータと比較して、同期した瞬きデータと対照瞬きデータとの差を識別するステップとを含む、同期した瞬きデータ内の瞬き抑制期間を識別するステップを更に含み、それにより、この差は瞬き抑制期間に対応する。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、刺激が存在しないときの複数の個人の平均瞬き率を含む対照瞬きデータを含む。一態様では、本方法は、以下:対照瞬きデータと比較した個人の瞬き率の増大、対照瞬きデータと比較した個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、同期した瞬きデータと対照瞬きデータとの差を含む。一態様によれば、本方法は、同期した瞬きデータと対照瞬きデータとの差を含み、個人の発達障害、認知障害、又は精神障害のマーカーを提供する。一実施形態では、本方法は、定義された時間期間中の個人の瞬き率に対応する瞬きデータを含む。
一態様によれば、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激を含む刺激を含む。一態様では、本方法は、以下:事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一実施形態では、本開示は、個人にエンゲージする刺激の能力を評価するための方法を含み、本方法は、刺激を個人に提示するステップと、刺激への個人の瞬き反応を示す瞬きデータを受信するステップと、受信した瞬きデータから個人の瞬き抑制測定値を識別するステップと、プロセッサで実行中のソフトウェアを介して、受信した瞬きデータ内の瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するステップとを含み、それにより、瞬き抑制閾値は、個人にエンゲージする刺激の能力を示す。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って瞬きデータを分類するステップを含む。
一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録
聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様によれば、本方法は、刺激中、個人の平均瞬き率を含む瞬き抑制測定値を含む。一態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制測定値を含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値、所定の対照瞬きデータと比較した受信した瞬きデータの測定値、及び/又は刺激での事象に関する瞬き抑制測定値を含む瞬き抑制測定値を含む。
一態様では、本方法は、物理的事象又は感情的事象を含む刺激での事象を含む。
一態様では、本方法は、個人の瞳孔サイズの変化率及び/又は個人の瞼閉鎖に対応する瞬きデータを含む。
本方法の一態様によれば、本方法は、プロセッサで実行中のソフトウェアを介して、特定を目的として、瞬きデータをバイナリ形式に変換するステップ、所定の人口統計パラメータに従って瞬きデータを分類するステップを更に含む。
一態様では、本方法は瞬き抑制閾値を含み、精神状態のマーカーを示す。別の態様では、本方法は、正常から精神病理にわたる範囲から選択される瞬き抑制閾値を含む。一態様では、本方法は、精神状態を用いて個人を診断するための診断測定値に対応する瞬き抑制閾値を含む。一態様では、本方法は、刺激とのエンゲージメントの所定の測定値に対応する瞬き抑制閾値を含む。別の態様では、本方法は、個人を分類するための所定のカテゴリに対応する瞬き抑制閾値を更に含む。
一態様では、本方法は、刺激の部分に対応する個人の瞬き抑制測定値を含む。別の態様では、本方法は、刺激の全体に対応する個人の瞬き抑制測定値を含む。
一態様によれば、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一実施形態では、本開示は、眼球監視装置を使用して、精神疾患のリスクを評価するための方法を含む。この実施形態は、個人に表示される動的視覚刺激への個人の瞬き反応を示す瞬きデータを受信するステップであって、瞬きデータは眼球監視装置を介して収集される、ステップと、受信した瞬きデータを動的視覚刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、動的視覚刺激に関連する事象データを検索するステップと、同期した瞬きデータ内の瞬き抑制パターンを、動的視覚刺激に関連する事象データのパラメータと比較して、少なくとも1つのデルタパラメータを特定するステップであって、少なくとも1つのデルタパラメータは、個人が精神障害を有する確率を示す、ステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、所定のタイムスタンプ付き事象を含む事象データのパラメータを含む。別の態様では、本方法は、時間値を含む事象データを含む。
一態様では、本方法は、時間値を含む瞬き抑制パターンのパラメータを含む。一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。別の態様では、本方法は、動的視覚刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。更に、一態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測
定値を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率での分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、所定の閾値を超える時間値を含む少なくとも1つのデルタパラメータを含む。一態様では、本方法は、所定の閾値未満である時間値を含む少なくとも1つのデルタパラメータを含む。
一態様では、本方法は、少なくとも1つのデルタパラメータに基づいて、個人に診断を提供するステップ及び/又は同期するステップを含み、同期するステップは、受信した瞬きデータを動的視覚刺激に時間ロック又は時間相関付けすることを含む。
一態様では、本方法は、発達障害又は認知障害を含む精神状態を含む。
一態様では、本方法は、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する事象データを含む。
一実施形態では、本開示は、眼球監視装置を使用して、個人の精神障害を評価、監視、又は診断するための方法を含む。この実施形態は、刺激への個人の瞬き反応を示す瞬きデータを受信するステップであって、瞬きデータは眼球監視装置を介して収集される、ステップと、受信した瞬きデータを刺激と同期させるステップと、プロセッサで実行中のソフトウェアを介して、同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、視覚刺激に関連する事象データを検索するステップと、同期した瞬きデータ内の瞬き抑制パターンを、視覚刺激に関連する事象データのパラメータと比較して、デルタパラメータを特定するステップであって、デルタパラメータは、個人が精神障害を有する確率を示す、ステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、刺激に関する個人の目の動きを示す眼球運動データを受信するステップと、刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するステップと、対照群のメンバのそれぞれ及び個人のデータに基づいて、三次元スキャンパスを生成するステップであって、スキャンパスの次元のうちの2つは、メンバのそれぞれ及び個人の注視位置に対応し、次元のうちの1つは時間に対応する、ステップと、対照群のメンバのスキャンパスの収束を識別するステップと、プロセッサで実行中のソフトウェアを介して、個人のスキャンパスを、収束の領域内の対照群のメンバのスキャンパスと比較するステップとを更に含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、所定のタイムスタンプ付き事象を含む事象データのパラメータを含む。一態様では、本方法は、時間値を含む事象データのパラメータを含む。別の態様では、本方法は、時間値を含む瞬き抑制パターンのパラメータを含む。
一態様では、本方法は、所定の閾値を超える時間値を含むデルタパラメータを含む。一態様では、本方法は、所定の閾値未満である時間値を含むデルタパラメータを含む。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激としての刺激を含む。
一態様では、本方法は、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する事象データを含む。
一態様では、本方法は、受信した瞬きデータを刺激に時間ロック又は時間相関付けすることを含む同期させるステップを含む。
一態様では、本方法は、個人の瞬きデータと、個人に関連付けられた瞬きの機会確率との比較を含む瞬き抑制パターンを含む。一態様では、本方法は、刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。別の態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、個人の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に別の態様では、本方法は、対照群の平均瞬き率と比較した、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。更に、別の態様では、本方法は、個人の平均瞬き率の分散の測定値と比較した、個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含む。
一実施形態では、本開示は、眼球監視装置を使用して、個人の精神状態を評価、監視、又は診断するための方法を含む。この実施形態は、個人に表示される動的視覚刺激への個人の瞬き反応を示す瞬きデータを受信するステップであって、瞬きデータは眼球監視装置を使用して収集される、ステップと、受信した瞬きデータを動的視覚刺激と同期させるステップと、同期した瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、個人に表示された動的視覚刺激の対照瞬き抑制パターンを検索するステップと、同期した瞬きデータ内の瞬き抑制パターンを対照瞬き抑制パターンと比較して、瞬き抑制パターンが、対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、個人が精神疾患を有する確率を示すステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、発達障害又は認知障害を含む精神状態を含む。
一態様では、本方法は、同期させるステップを更に含み、受信した瞬きデータを動的視覚刺激に時間ロック又は時間相関付けすることを含み、及び/又はプロセッサで実行中のソフトウェアを介して、識別を目的として、瞬きデータをバイナリ形式に変換するステップを含む。
一態様では、本方法は、個人の瞳孔サイズの変化率に対応する個人の瞬きデータを更に含む。一態様では、本方法は、個人の瞼閉鎖に対応する瞬きデータを含む。
一態様では、本方法は、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、複数の個人の瞬きデータを並べ替えることによって得られる複数の個人の平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。一態様によれば、本方法は、精神状態の重症度を示す対照瞬き抑制パターンを含む。
一態様では、本方法は、瞬きデータ収集の元のタイミングからの循環シフトを含む複数の個人のデータを並べ替えるステップ、及び/又は各個人の瞬き及び瞬き間隔の順序をランダム化することを含む複数の個人のデータを並べ替えるステップを含む。
一態様では、本方法は、動的視覚刺激中の個人の平均瞬き率を含む瞬き抑制パターンを含む。別の態様では、本方法は、個人の経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、特定の時点での個人の瞬間瞬き率の測定値を含む瞬き抑制パターンを含み、対照瞬き抑制パターンは、対照群の瞬間瞬き率を含む。一態様では、本方法は、動的視覚刺激が存在してないときの個人の平均瞬き率を含む対照瞬き抑制パターンを含む。更に別の態様では、本方法は、動的視覚刺激での事象に関する瞬き抑制測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、物理的事象又は感情的事象を含む動的視覚刺激での事象を含む。
一実施形態では、本開示は、瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法を含む。この実施形態は、刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、瞬きデータ内の瞬き抑制パターンを識別するステップと、データベースから、刺激についての対照瞬き抑制パターンを検索するステップであって、対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、瞬きデータ内の瞬き抑制パターンを、対照瞬き抑制パターンと比較して、ユーザが予め定義されたユーザカテゴリ内にあるか否かを決定するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
一態様では、本方法は、瞬きデータを含み、眼球監視装置の使用を介して受信される。
一態様では、本方法は、聴覚刺激、動的視覚刺激、及び/又は静的視覚刺激を含む刺激を含む。一態様では、本方法は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元刺激、又は三次元刺激のうちの1つ又は複数を含む刺激を含む。
一態様では、本方法は、ユーザの瞳孔サイズの変化率に対応するユーザの瞬きデータを含む。別の態様では、本方法は、ユーザの瞼閉鎖に対応する瞬きデータを含む。
一態様では、本方法は、刺激に応答しての複数のユーザの平均瞬き率を含む対照瞬き抑制パターンを含む。一態様では、本方法は、複数のユーザの瞬きデータを並べ替えることによって得られる、複数のユーザの平均瞬き率の確率分布を含む対照瞬き抑制パターンを含む。
一態様では、本方法は、比較を目的として、プロセッサで実行中のソフトウェアを介して、瞬きデータ収集の元のタイミングからの循環シフトを含む瞬きデータをバイナリ形式に変換するステップを含み、且つ/又は複数のユーザのデータを並べ替えることは、各ユーザの瞬き及び瞬き間隔の順序をランダム化することを含む。
一態様では、本方法は、刺激中のユーザの平均瞬き率を含む瞬き抑制パターンを含む。別の態様では、本方法は、ユーザの経時的な瞬き率を含む瞬き抑制パターンを含む。一態様では、本方法は、特定の時点でのユーザの瞬間瞬き率の測定値を含む瞬き抑制パターンと、対照群の瞬間瞬き率を含む対照瞬き抑制パターンとを含む。別の態様では、本方法は、刺激での事象に関する瞬き抑制測定値を含む瞬き抑制パターンを含む。
一態様では、本方法は、刺激がないときのユーザの平均瞬き率を含む対照瞬き抑制パターンを含む。
一態様では、本方法は、物理的事象又は感情的事象を含む動的刺激での事象を含む。
一態様では、本方法は、時間の経過に伴い、ユーザの追加の瞬きデータを受信するステップと、追加の瞬きデータ内の追加の瞬き抑制パターンを識別するステップと、追加の瞬き抑制パターンを瞬き抑制パターンと比較して、ユーザが所定のユーザカテゴリ内に留まっているか否かを決定するステップとを含む。特定の実施形態では、上記ステップは、プロセッサ上のソフトウェアを介して実行し得る。
特許請求される発明のこれら及び他の態様、特徴、及び利点は、以下の図面と併せて行われる好ましい実施形態及び態様の以下に記載される詳細な説明から明白になるが、本開示の新規概念の趣旨及び範囲から逸脱せずに、それらの変形形態及び変更形態を実施し得る。
添付図面は、本開示の1つ又は複数の実施形態及び/又は態様を例示し、記載される説明と共に、本開示の原理を説明する役割を果たす。可能な場合は常に、一実施形態の同じ
又は同様の要素を指すために、同じ参照符号が図面全体を通して使用される。
本開示の一実施形態による、眼球監視システムの例示的なブロック図を示す。 本開示の一態様による、視覚刺激へのデータ眼球移動反応を示す。 本開示の一実施形態による、時間の経過に伴う動的視覚刺激の部分の表示及び動的視覚刺激への目の動きの反応を示すデータを示す。 本開示の一実施形態による、群の視覚リソースの分布の表示の例示的な生成を示す。 本開示の一実施形態による、眼球監視システムのデータ収集及び評価プロセスの概観を示すフローチャートである。 本開示の一実施形態による、視覚刺激を閲覧する間の瞬き及び統計学的に有意な瞬き抑制を示す。 本開示の一実施形態による、典型的な幼児と自閉症スペクトラム障害を有する幼児との例示的な瞬き率比較を示すグラフである。 図5Aは、本開示の一態様による、典型的な幼児での瞬き率と年齢との例示的な相関を示すグラフであり、図5Bは、本開示の一態様による、自閉症スペクトラム障害を有すると診断された幼児での瞬き率と年齢との例示的な相関を示すグラフである。 本開示の一実施形態による、典型的な幼児及びASDを有する幼児の瞬き率の課題依存変化を示す。 図6Cは、本開示の一実施形態による、2つの異なる閲覧者群間の瞬き率の課題依存変化を示す。 図7Aは、本開示の一実施形態による、参加者の瞬きデータと時間との関係を示すグラフであり、図7Bは、本開示の一実施形態による、瞬間瞬き率と時間との関係を示すグラフである。 図7Cは、本開示の一実施形態による、並べ替えられた瞬きデータと時間との関係の95パーセンタイル及び5パーセンタイルを示すグラフであり、図7Dは、本開示の一実施形態による、時間に関してプロットされた瞬き抑制期間を示すグラフである。 図8Aは、本開示の一実施形態による、典型的な幼児での感情的事象に関する瞬き抑制を示すグラフであり、図8Bは、本開示の一実施形態による、典型的な幼児での物理的事象に関する瞬き抑制を示すグラフであり、図8Cは、本開示の一実施形態による、典型的な幼児での非感情的且つ非物理的事象に関する瞬き抑制を示すグラフであり、図8Dは、本開示の一実施形態による、典型的な幼児での感情的事象に関する例示的な固視を示し、図8Eは、本開示の一実施形態による、典型的な幼児での物理的事象に関する例示的な固視を示し、図8Fは、本開示の一実施形態による、典型的な幼児での非感情的且つ非物理的事象に関する例示的な固視を示す。 図8Gは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児での感情的事象に関する瞬き抑制を示すグラフであり、図8Hは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児での物理的事象に関する瞬き抑制を示すグラフであり、図8Iは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児での非感情的且つ非物理的事象に関する瞬き反応を示すグラフであり、図8Jは、本開示の一実施形態による、自閉症スペクトラム障害を有する幼児での感情的事象に関する例示的な固視を示し、図8Kは、本開示の一実施形態による、自閉症スペクトラム障害を有する幼児での物理的事象に関する例示的な固視を示し、図8Lは、本開示の一実施形態による、自閉症スペクトラム障害を有する幼児での非感情的且つ非物理的事象に関する例示的な固視を示す。 図8Mは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児及び典型的な幼児での感情的事象及び物理的事象に関する瞬き抑制のタイミングを示すグラフであり、図8Nは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児及び典型的な幼児での感情的物理的事象に関する毎分瞬き数の割合変化を示すグラフであり、図8Oは、本開示の一実施形態による、自閉症スペクトラム障害を有すると診断された幼児及び典型的な幼児での感情的事象及び物理的事象に関する物体への固視の割合を示すグラフである。 図9Aは、本開示の一実施形態による、典型的な幼児の実際のデータを、典型的な幼児の並べ替えられたデータと比較する経験累積分布関数を示すグラフであり、図9Bは、本開示の一態様による、ASDを有すると診断された幼児の実際のデータを、ASDを有すると診断された幼児の並べ替えられたデータと比較する経験累積分布関数を示すグラフである。 本開示の一実施形態による、エンゲージメント活動を特定する例示的なプロセスを示すフローチャートである。 本開示の一実施形態による、疾患/障害の状態を評価する例示的なプロセスを示すフローチャートである。 本開示の一実施形態による、知覚刺激の顕著性を評価する例示的なプロセスを示すフローチャートである。 本開示の一実施形態による、視覚刺激の最もエンゲージする空間的特徴及び時間的特徴を識別する例示的なプロセスを示すフローチャートである。 本開示の一実施形態による、例示的な患者/状態評価プロセスを示すフローチャートである。
本開示を詳細に説明する前に、本システム及び方法の態様の趣旨及び用語が例示であり、特許請求の範囲において表現される本システム及び方法の態様を必ずしも限定しないことの理解の助けとして、以下の定義が提供される。用語が大文字で書かれているか否かは、用語の意味の限定又は制限とは見なされない。本明細書で使用される場合、大文字で書かれた用語は、使用状況により、大文字で書かれた用語により限定的な意味が意図されることが特に示されない限り、大文字で書かれていない用語と同じ意味を有するものとする。しかし、本明細書の残りの部分での大文字であること又は大文字ではないことは、文脈によりそのような限定が意図されることが明確に示されない限り、必ずしも限定を意図しない。
本願で引用される全ての刊行物、特許、及び公開特許出願は特に、参照により本明細書に援用される。矛盾がある場合、本明細書が、その特定の定義を含め、優先される。
本明細書全体を通して、「備える」という用語又は「備えている」若しくは「備えた」等のその変形は、述べられた完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群の包含を暗示するものとして理解されるが、いかなる完全体(若しくは構成要素)又は完全体(若しくは構成要素)の群も除外しない。
単数形「1つの(a)」、「1つの(an)」、及び「その(the)」は、文脈により別段のことが明確に示される場合を除き、複数形を包含する。
定義/用語集
M:データセット内の数値集合の平均又は平均値。
SD:標準偏差であり、関連するデータセットの平均又は平均値からの分散を示す。
r:ピアソンの積率相関係数であり、これは、通常は関連するデータセット内の2つの変数の線形関係の強度及び方向の基準である。
t:1つ又は2つのサンプルのt検定からの検定統計値。
P:幾つかのデータ点集合の割合/パーセンタイルの記号である。
ANOVA:分散の解析であり、群平均(平均値)と、群間のデータの関連付けられた分散との差の解析に使用される統計モデルの集まりである。
SE:標準誤差であり、統計のサンプリング分布の標準偏差である。
F:f検定であり、検定の統計が、帰無仮説下でF分布を有する統計学的検定であり、データセットに当てはまる統計学的モデルを比較する際に最も多く使用される。
z:帰無仮説下での検定統計の分布を、所与のデータセット内の正規分布で近似することができる統計学的検定であるz検定の結果。
概説
本開示の原理の理解を促すために、これより、図面に示される実施形態を参照し、特定の用語を使用してこれを説明する。それにも関わらず、それによる本開示の範囲の限定が意図されず、説明されるか、又は示される実施形態の修正形態及び更なる変更形態並びにここに示される本開示の原理の任意の更なる応用形態が、本開示に関連する技術分野の当業者に通常想到されるものとして考えられることが理解されよう。範囲の全ての限定は、特許請求の範囲に従って、特許請求の範囲で表現されるように決定されるべきである。
本開示の態様は、一般的には、視覚刺激とのエンゲージメントのインジケータとして、瞬き抑制及び瞬き反応を評価するためのシステム及び方法に関する。特に、本開示の態様は、自然な閲覧中及び視覚刺激に応答しての瞬き抑制のタイミングを利用して、刺激との閲覧者のエンゲージメントの評価、刺激の相対顕著性の閲覧者知覚の評価、特定の閲覧者又は閲覧者群にエンゲージする刺激の力の評価、刺激のエンゲージメントが最も大きい空間的特徴及び時間的特徴の識別、及び人口統計目的又は診断目的での所与の刺激とのエンゲージメントに応じた閲覧者の分類又は格付けを行うことに関する。一実施形態によれば、本システム及び方法は、自然な閲覧中の瞬き率並びに瞬き及び瞬き抑制のタイミングに基づいて、閲覧者のエンゲージメントを評価するツールを提供する。一実施形態では、本システム及び方法は、視覚的コンテンツとの閲覧者の経時的なエンゲージメントと、閲覧者のエンゲージメントが動的に変化する程度とを定量化するツールを提供する。
更に、一実施形態によれば、本システム及び方法は、「データマイニング」手法により、時変閲覧者エンゲージメントに基づいて、刺激のエンゲージメントの最も大きい空間的特徴及び時間的特徴を特定するメカニズムを提供する。本開示の更なる態様は、エンゲージメントのこれらの測定値を眼球追跡注視点データと結合して、エンゲージメント(例えば、固視ロケーション)のより大きい又はより小さい瞬間で閲覧者が固視している刺激の特定の部分を測定するための方法に関する。
本開示の更なる態様は、例えば、自閉症スペクトラム障害(ASD)、ADHD、統合失調症、双極性障害、鬱病、心的外傷後ストレス障害(PTSD)及び、限局性コンテンツとエンゲージするか、又はエンゲージメントをもたらす他の疾患等であるが、これらに限定されない状態での疾患/障害の状態(例えば、病気の有無)、疾患/障害状態の進行、及び/又は治療反応を評価するためのシステム及び方法に関する。一実施形態では、本開示に繋がる研究において、対照となる通常の発達中の子供とは異なり、ASDを有する幼児は、特定の視覚的事象に関連して瞬き抑制の顕著な遅れを示す。本システム及び方法は、典型的な幼児が、同じ視覚的事象に関連して、ASDを有する幼児よりも早く瞬きを抑制することを示す。この差は、典型的な幼児での正常な認知プロセスの証拠と、それらのプロセスが、ASDを有する幼児で妨害されることの証拠とを提供する。顕著性社会的事象の展開が強く予期される際、典型的な幼児は瞬きを抑制するが、ASDを有する幼児は瞬きを抑制しなかった。これらの測定値は、診断状態の評価及び症候の深刻さの測定に使用することができる情報を提供する。関連する実施形態として、例えば、再発のリスクを評価するために、環境トリガー(例えば、アルコールのイメージ、薬物のイメージ、又はそのような物質が通常、生産若しくは消費される場所のイメージ)を有する薬物中毒者の回復のエンゲージメントレベルを測定することに展開されうる。
実験データ及び解析
以下の例示的な考察は、視覚刺激との閲覧者のエンゲージメントのインジケータとして、瞬き抑制を測定するために行われた実験に関連する。実験では、刺激の自然な閲覧中の幼児の瞬き抑制のタイミングを利用して、エンゲージメントのレベルに関連して様々な態様を評価する。関連付けられたデータ/パラメータと共に行われた実験の詳細、例示的な設定、実験からの関連付けられた結果、一般的な影響、及び代替の実施形態は、以下に更に詳細に提供される説明及び添付図でよりよく理解されよう。
以下の説明では、「瞬きデータ」と言う用語は一般に、視覚刺激の自然な閲覧中の瞬きのタイミング及び/又は有無/回数、課題間及び課題内で瞬きがどのように変化するか、並びに閲覧者エンゲージメント及び様々な刺激事象に応じて、瞬きのタイミングがどのように変化するかの測定値に関する。瞬きデータの追加例としては、課題前、課題中、及び課題後の瞬き率を含み得、瞬き率は、視覚刺激の閲覧全体を通して複数の間隔で、特に、視覚刺激の閲覧前、閲覧中、及び閲覧後での変動について測定され解析される。瞬きデータは、課題間瞬き抑制に関連するような瞬間瞬き率の測定値も含み得る。更に、瞬きデータが一般に、瞬き抑制の様々なレベル、瞬き抑制のタイミング、刺激との閲覧者のエンゲージメント、刺激の相対顕著性の閲覧者知覚、閲覧者にエンゲージする刺激の能力等の評価に使用されることが理解されよう。別の態様では、瞬きデータは、聴覚刺激を聴いている間の瞬きのタイミング及び/又は有無/回数の測定値に関し得る。視覚刺激に関連する様々なメカニズムと同様に、聴覚刺激を聴いている間、同じ手段を適用し得る。
本明細書でも参照されるように、この例での刺激事象は、他の可能な実施形態に限定されず、一般に3つの群を含む:非感情的/非物理的事象、物理的事象、及び感情的事象。感情的事象は一般に、感情的情動の高まりを引き起こす顔の表情及び/又は発声等の感情的挙動に影響する視覚刺激内の事象を含む。物理的事象は通常、視覚刺激内の離散した物体が移動中、場所シフト中、状態変更中等の事象に関連する。感情的事象又は物理的事象として分類されない視覚刺激の任意の他の部分は、非感情的/非物理的事象として分類される。当業者によって理解されるように、感情的事象、物理的事象、非感情的事象、非物理的事象という用語の使用は単に、以下の例示的な考察において使用され、本開示の趣旨又は範囲の限定を意図しない。
本明細書に記載される実験では、以下の方法論、テスト機器、パラメータ、及び規格に従った:(1)感情的事象及び物理的事象の格付けの特定、(2)瞬間瞬き率の特定、(3)瞬間瞬き率の評価に関連する様々な並べ替えテスト、及び(4)対照瞬き抑制データの特定。更に、本開示で利用される様々な他の実験的方法論は、本願と同じ発明者らのうちの幾人かにより、先行特許及び公開された論文で使用される方法論と同様であり、少なくとも、参照により本明細書に援用される以下の特許に記載されている:特に、視覚的顕著性を定量化しマッピングするためのシステム及び方法(System and Method for Quantifying and Mapping Visual Salience)という名称の2011年4月12日に発行された米国特許第7,922,670号明細書、視覚的顕著性を定量化しマッピングするためのシステム及び方法(System and Method for Quantifying and Mapping Visual Salience)という名称の2013年1月1日に発行された米国特許第8,343,067号明細書、及び眼球反応に基づいて患者を評価し診断するためのシステム及び方法(System and Method for Evaluating and Diagnosing Patients Based on Ocular Response)という名称の2013年10月8日に発行された米国特許第8,551,015号明細書。
上述した参考文献は一般に、閲覧者又は閲覧者群が視覚刺激と視覚的にエンゲージする
際の視覚的顕著性(別の視覚的注目に関連するか、又は別の視覚的注目を背景にして目立つ所与の閲覧者の視覚的注目)をマッピングし解析するためのシステム及び方法に関する。特に、参考文献は一般に、個人若しくは分散個人群に関する視覚的顕著性を記録し、解析し、表示するか、又は個人若しくは選択された個人群の視覚的反応を既知の視覚反応集合と比較するメカニズムを提供する様々な方法を記述している。特定の実施形態では、監視装置(又は眼球追跡器)が一般に、視覚刺激と併用されて、人が見ている物理的ロケーションを測定する。更に、先の開示は、視覚的顕著性データを視覚刺激の特定の瞬間に調整するための方法を記載している。これは、テスト個人、テスト個人群、又は既知のデータと比較して、対照又は典型的な個人のデータが何を示唆するかに従って、診断情報を提供する。
参照により本明細書に援用される先の特許を更に参照すると、一実施形態では、各閲覧者のデータセットは、x、y、及びz軸座標系でグラフ化し得、x及びy次元は一般に、閲覧者がエンゲージする視覚刺激上のエリア又は注視点(例えば、閲覧者の注視が向けられる空間固視ロケーション)を表す。更に、z軸は一般に、時間に対応し、視覚刺激に時間ロック(又は時間相関付け、又は同期)し得る。したがって、対照群(データが既知であり、基準として使用される群)であるか、テスト中の群/個人であるかに関係なく、複数のデータセット又はラインセットを同じプロットにマッピングして、データセット又はスキャンパスを生成することができる。一般に、視覚的顕著性データを解析する場合、少なくとも2つの傾向が現れる:(1)テストデータ(点)は、漫然と分布し、点が円形に結ばれた場合、大きい半径(円)を形成し、(2)テストデータ又は点は、密に密集して、点が円形に結ばれた場合、小さい半径(円)を形成する。大きい円が形成される第1の事例では、これは一般に発散セットと呼ばれ、データ点がランダムであり、互いから離れて拡散する傾向があることを意味する。小さい円が形成される第2の事例は、通常、収束セットと呼ばれ、データ点が近くにプロットされ、互いに向かって引き寄せられる傾向を有することを意味する。
更に、上記引用した先行特許には、個人の大半が画面上の異なるエリアにエンゲージする特定の瞬間又は特定のフレームとしての発散データセットが更に記載されている。逆に、別の実施形態によれば、収束セットは、大半の個人が、特定のフレーム又は特定の瞬間に画面上の一エリア(x、y軸)内の視覚刺激にエンゲージする状況を記述する。更に、個人のデータセット又はデータラインを半径方向及び直線的に結んで、水平に一緒に結びつけられた円錐形又は蜂の巣形の集まりに似た可変三次元形状(本明細書では、注目漏斗(attentional funnel)とも呼ばれる)を形成する。円錐形のより広い部分は発散データセットを表し、円錐形のより近いセグメントは収束データセットを表す。データ点のこれらの三次元の集まりは、様々なテスト個人又はテスト群の解析及び比較に使用される。テスト個人が、収束セットに視覚的顕著性データ点を有さない状況では、データ点はフラグ付けられ、メモされる。収束セット外部に存在するデータ点パターンがある場合、テスト個人が、対照データに従って刺激にエンゲージしていない確率が上がる。上述した参考文献の更なる詳細については、図1B〜図1Dに関連して更に詳細に説明する。
これより、本明細書に記載される特定の実験及びテストデータを参照すると、テスト方法論は、本明細書に開示される実験に参加した平均(M)2.3歳の実年齢(SD=0.55)を有する93人の子供の利用を含んだ。視覚刺激は、子供が見るビデオ(図3に代表的に示される)を含んでおり、ビデオは、トイワゴン内で一緒に遊んでいる少年と少女との台本のない対話を含む。参加者の何れも、以前にそのビデオを見たことはなかった。更に、自然な対話の台本なしのシーンで、ビデオは、様々な物理的事象及び感情的事象を含んだ。例えば、ビデオで示された物理的事象は、ワゴンのドアの開閉を含んだ。同様に、ビデオに示された感情的事象は、少年と少女との間での口喧嘩を含んだ。物理的事象及
び感情的事象は相互に排他的ではなかったが、最大情動のロケーションは、最大運動のロケーションから空間的に離散し、感情に満ちた顔の表情は、ドアの物理的ロケーションから分離されていた。
ビデオを見た子供は、感情的キュー及び物理的キューへの反応において相違すると予期された2つの群に分割されたため、感情的事象と物理的事象との区別は実験設計に関連した。ビデオは、自閉症スペクトラム障害(ASD)を有する41人の2歳児と、52人の典型的な2歳児とに示された。ここで、ASDを有する子供は好ましい比較群を提供した。なぜなら、そうした子供は、社会的相互作用には非定型的な視覚注目パターンを示し、変化する社会的情動には弱まった反応を示し、社会的注目キューに対する特異的な反応の欠如を示すが、また、物理的注目キューへの正常な反応及び物理的事象を予測して関心を払う正常な能力を以前に示していたためである。本実験の枠組みでは、瞬き抑制は、群のメンバで異なる知覚刺激顕著性のマーカーとしてテストされた。
図1Aは、一テスト方法論で利用される、視覚的顕著性を定量化してマッピングするとともに、時間の経過に伴う視覚的エンゲージメントを定量化する例示的な瞬き及び/又は眼球監視システム100を示す。図1に示されるシステム100は、本明細書に記載される実験で個人をテストするために使用されるシステムの表現である。システムは、少なくとも1つのプロセッサ102を含む。プロセッサ102は、ソフトウェアプログラムを受信して実行するように設計されるか、又はソフトウェアプログラムによって機能が変更されるように設計される任意のタイプの装置であり得る。例えば、プロセッサ102は、デジタル信号プロセッサ、マイクロコントローラ、及びマイクロプロセッサを含む群から、又はフィールドプログラマブルゲートアレイ及びコンピュータプログラマブル論理デバイスからなる群から選択し得る。プロセッサ102に関連付けられた機能は、ローカルであれリモートであれ関係なく、集中してもよく、又は分散させてもよい。
一実施形態では、プロセッサ102は、視覚刺激120への個人群の瞬き反応を示すデータを受信するためにプロセッサ102で実行されるソフトウェアを含む。例えば、プロセッサ102は、眼球データ112を任意の数の眼球追跡器110又は眼球追跡装置から受信し得る。各眼球追跡器110は、個人(例えば、人間の個人又は任意の他の種/動物)の少なくとも片目の瞬き反応を追跡する任意の装置であり得る。一実施形態では、眼球追跡器110は、赤外線ビデオ眼球運動記録法眼球追跡装置であり得る。別の実施形態では、眼球追跡器110は、両眼追跡器である。別の実施形態では、眼球追跡器は、被験者によって行われる瞬きを識別する瞬き監視システムを備え得る。そのような実施形態では、プロセッサは、視覚刺激120への被験者の瞬き反応を示す瞬きデータ112を受信する。更に別の実施形態では、眼球追跡器110は、眼球追跡装置と瞬き監視装置との組み合わせを備え得、眼球追跡器110は、眼球データ及び瞬きデータを検出可能である。別の態様によれば、各眼球追跡器110は、目の動き、方向、拡張、回転、注視、瞬き等の眼球運動反応を示す眼球データ112を生成し得る。当業者に理解されるように、眼球データは、例示目的で瞬きデータを含み得、本開示の趣旨又は範囲の限定を意図しない。
瞬きデータ112に基づく一態様では、プロセッサは、瞬きのタイミング及び/又は有無/回数の測定値、課題間及び課題内で瞬きがいかに変化するか、並びに閲覧者のエンゲージメント及び様々な刺激事象に応じて瞬きのタイミングがいかに変化するかを特定し、且つ/又は識別し得る。更に、プロセッサは、課題前、課題中、及び課題後の瞬き率を特定し得、瞬き率は、視覚刺激の閲覧全体を通して複数の間隔で、特に、視覚刺激の閲覧前、閲覧中、及び閲覧後での変動について測定され解析される。瞬きデータは、課題間瞬き抑制に関連するような瞬間瞬き率の測定値も含み得る。
別の態様では、眼球/瞬きデータ112に基づいて、プロセッサ102は、注視点又は
固視点を特定し、且つ/又は識別し得る。注視点(point of regard)(又は注視点(point−of−gase)又は固視ロケーション)は、個人の片目及び/又は両目が結像する点である。注視点は、空間内の座標(例えば、x、y、z)として、又は表面若しくは表面上に表現される視覚刺激上の二次元座標データ(例えば、x、y)として示し得る。注視点は更に、時間(t)で参照され得る。各注視点は、固視点又は時間長若しくは点への固定に関係なく、目が結像している任意の点を示し得る。
幾つかの実施形態では、システムは、視覚刺激120を含む。視覚刺激120は、静止画像(例えば、印刷広告、ウェブページ、絵等)、ビデオイメージ、2Dイメージ又はビデオ、3Dイメージ又はビデオ、ライブビデオ、事前記録ビデオ、インタラクティブメディア等の任意の視覚刺激であり得る。例示的な実施形態では、視覚刺激120は、ビデオ等の動的視覚刺激である。ビデオは、動画、ビデオゲーム、及び/又はライブ事象の録画を含むが、これらに限定されない、静止物体又は移動物体の任意のイメージ、ブロードキャスト、録画、及び/又は表現を含み得る。ビデオは、フィルム、ビデオテープ、DVD、CD−ROM、及び/又はデジタル記憶装置(例えば、記憶装置130)等の任意の形態の媒体で実施し得る。視覚刺激120は、ライブ事象(例えば、演劇、社会的相互作用、トレーニングエクササイズ等)であってもよく、又はその任意の表現(2次元又は3次元の何れか)であってもよい。
更に、他の実施形態では、刺激は、聴覚刺激(図示せず)を含み得、聴覚刺激は、ライブ記録、mp3、コンパクトディスク、DVDサウンドトラック、ピクチャなしのDVDオーディオ、又は同様の任意の他のメカニズムを含み得る。したがって、眼球追跡器110は、眼球データ112を監視し、被験者が聴覚刺激にエンゲージする際の眼球データ112を記録する。一態様では、眼球データ112は、様々な固視エリア、刺激への被験者のエンゲージメントのレベル、並びに瞬き及び瞬き抑制に関連する様々なデータを特定するための様々な眼球運動反応を含む。他の態様では、人口統計又は診断を目的として、最もエンゲージする刺激の特別な特徴及び時間的特徴を識別するとともに、所与の刺激とのエンゲージメントに応じた閲覧者の分類又はインデックス付けのため、特定の閲覧者又は閲覧者群にエンゲージする刺激の能力の評価するための様々な眼球運動反応を眼球データ112は示す。
システムの幾つかの実施形態は、プロセッサ102によって利用されて、視覚刺激120又は聴覚刺激(図示せず)から刺激データ122を受信するためのソフトウェアを更に含む。刺激データ122は、例えば、視覚刺激120(例えば、ライブ事象の表現又はビデオ記録)、完全なビデオ視覚刺激120、又は視覚刺激120の任意の部分(例えば、フレーム及び/又はスクリーンショット)を表すデータであり得る。同様に、刺激データ122は、聴覚刺激(例えば、オーディオの記録、デジタル記録)、聴覚刺激の部分等を表すデータを含み得る。幾つかの態様では、データは、時間関連情報を含み、複数の眼球データ及び/又は瞬きデータに刺激をマッピング又は時間ロックできるようにもし得る。
システムはデータベース130も含み得る。データベース130は、プロセッサ102と同じ場所にあってもよく、又は離れて配置され、通信ネットワークを介してアクセス可能であってもよい。データベース130は、プロセッサ102の一時的な記憶(例えば、ランダムアクセスメモリ)を提供し、且つ/又は眼球データ112又は刺激データ122の永続的又は半永続的なデータ記憶を提供し得る。システムは、任意の数のディスプレイ140を更に含み得る。ディスプレイ140も、プロセッサ102からローカルに配置されてもよく、又はリモートに配置されてもよい。例えば、ディスプレイ140は、リモートに配置されて、インターネットを介してデータ又は情報をプロセッサ102から受信し得る。後述するように、瞬き反応、瞬き評価、注視点、視覚リソースの分布、及び/又は群の視覚リソース及び/又は視覚刺激120へのエンゲージメントの分布を表すデータを
ディスプレイ140に提示し得る。
図1Bは、視覚刺激への眼球反応を示すデータ、すなわち眼球データ112の例示的な表150を示す。眼球データ112を任意の様式又はフォーマットで編成し、且つ/又は保持し得、表が単なる例示であることを理解されたい。したがって、表150は、示されるように、列154、156、159等の任意の様式で編成し得る。本説明では、データは、注視点(又は固視ロケーション)を記述する座標として参照される。例えば、300というx値は、158での111という対応するy値と共に、152に示されている。本例での座標は、時間値を列159内に更に含んでおり、時間値は例えば、眼球データ112の特定の座標がサンプリングされた時間を表す。時間値は、視覚刺激160の時間164に更に対応し得る。注視点の距離を表すz値等の、眼球データ112の任意の数の追加カテゴリ(例えば、列)が表現され得る。
図1Bに示されるように、表150中の注視点を視覚刺激160にマッピングし得る。例えば、152及び158で参照される注視点は、例えば、座標系162を使用して、視覚刺激の部分に点168をマッピングし得る。幾つかの実施形態では、座標系162は、任意のビデオピクセル座標系(例えば、640×480又は720×480)に関連し得る。視覚刺激160の部分は、注視点がサンプリングされた時間に対応する部分(例えば、フレーム又はパネル)であり得る。
眼球データ112は、任意のレート又は周波数でサンプリングされるデータを含み得る。例えば、眼球データ112は、サンプリング周波数60Hz、512Hz、1000Hz、又は任意の他のサンプリング周波数で個人からサンプリングし得る。眼球データの視覚化レート又は提示レートは、必要に応じて増減し得、且つ/又は動的視覚刺激、例えば160の変化率に基づいて調整し得る。眼球データの解析レート及び提示レートは両方とも、精査のために分離されたビデオの有意セグメントの解析に基づくこともできる。例えば、刺激での有意事象が、毎秒30フレームのレートで発生する場合、サンプリング、解析、及び提示のレートは、30Hz以上であることができる。
図1Cは、動的視覚刺激の幾つかの部分及び/又はフレームの表示170を示す。示されるように、表示170は、時間軸182と、動的視覚刺激の異なる時間に対応する任意の数のフレーム、例えば、172、174とを含む。表示170には、フレーム172上に注視点、例えば、176、178、180が更に表される。各注視点は、異なる個人からサンプリングされる眼球データ112から特定し得る。代替的には、各注視点は、一個人による同じ動的視覚刺激の異なる閲覧から特定し得る。
図1Dを参照すると、本開示によるシステム100は、視覚刺激への視覚的反応の検定群の分布の表示を生成するためのソフトウェアを更に含む。図1Da〜図1Dhは、本開示により群の視覚リソースの分布の表示を生成するメカニズムの一例を示す。図1Daは、視覚刺激に応答した、個人群の特定の時間での視覚リソース(例えば、184)の分布の二次元表現を示す。図1Dbでは、分布が、同じ時間期間にわたり地形的に表示される(例えば、186)。本説明を読んだ後、当業者には明らかなように、群の視覚リソースの分布は、(例えば、注目が高まるエリアを識別して)例示的な時間期間にわたり(すなわち、左から右に)発散から収束に変化している。図1Dcは、相対顕著性又は高さ値の平均(例えば、平均又はメジアン)値での各時間及び平面(例えば、190)での群の視覚リソースの分布を示す。
図1Ddは、各平面(例えば、190)と、各時間で平面によって提供される最大顕著性(例えば、192)のエリアとを示す。図1De及び図1Dfは、任意の数の時間での最大顕著性(例えば、192)のエリアを更に示す。本開示に従って群の視覚リソースの
分布の好ましい表示を生成するために、エリアを結び付け、且つ/又は押し出して、図1Dgに示されるような、時間期間にわたる注目漏斗195を作成し得る。漏斗195は、視覚刺激及び表示に含まれる視覚刺激の部分(例えば、フレーム197)にマッピングして、最大顕著性エリアに対応する視覚刺激のエリアを示し得る。示されるように、収束がフレーム197において示され、男性俳優の両目への注目が高まるエリアを示す。図1Hdは、フレーム197と、収束まで繋がる2つの先行フレームとを示す。
これより、本開示で説明される実験に関連した瞬きデータの収集及び評価の説明に移り、図2は、本明細書での実験において開示される例示的なデータ収集及び評価プロセス200を示す。例示的なデータ収集及び評価プロセスの様々な態様は、本明細書で記載される様々な検定参加者で複数回利用された。一実施形態では、図2に示されるプロセスを利用して検査されるとともに本実験を開始する第1のパラメータは、ASDを有する幼児と典型的な幼児との瞬き挙動の生理学的差をテストするため、全体瞬き率及び瞬き持続時間であった。眼球運動データは、60Hzのレートで記録され、瞬きは、測定可能な持続時間を有する事象として記録され、事象は、自動アルゴリズムによって識別され、全ての参加者での同時ビデオ記録(図2のステップ204に説明されるように)により補足され検証されるとともに、一人の成人閲覧者の同時筋電図検査記録によって別個に検証された。
各テストセッションの開始時に、参加者は、コンピュータモニタに再生された子供のビデオ(例えば、ベイビーモーツァルト(Baby Mozart)、エルモ(Elmo))を閲覧した(図2のステップ202)。コンピュータモニタは、壁パネル内に取り付けられ、オーディオサウンドトラックを、1組の隠されたスピーカーを通して再生した。幼児は着座し、空気圧リフトに取り付けられた車のシートにベルトで留められ、それにより、閲覧高さ(視線)を全幼児で標準化した。閲覧者の目は、コンピュータモニタから30インチ(76.2cm)であり、各子供の視野の約23°×30°部分にわたった。コンピュータモニタに表示されるイメージのみが容易に見えるように、部屋の照明は暗めにした。5点較正方式を使用し、視角の0.5°〜1.5°の範囲のサイズで、全て音を付随させて、回転し、且つ/又は明滅する光点及びマンガのアニメを提示した。較正ルーチン後、較正を検証し、較正の検証では、より多くのアニメーションを5つの画面上ロケーションに提示した。テストセッションの残りの部分全体を通して、アニメーション化されたターゲット(較正プロセスで使用されたような)を、実験ビデオ間に表示して、データのドリフトを測定した。このようにして、実験トライアルを開始する前に、眼球追跡データ及び瞬きデータ112の正確性を検証し、その後、テストが続けられる際にビデオセグメント間で繰り返しデータの正確性をチェックした。ドリフトが3°を超えた場合、データ収集を停止し、子供を再較正してから、更なるビデオを提示した。実験プロトコルの全態様は、子供の診断状態を知らない人物によって行われた。データ取得の大半の態様及び符号化、処理、及びデータ概要の全態様は自動化され、したがって、診断特徴付けプロトコルと実験プロトコルとの分離が保証された。
知覚刺激顕著性のインデックスとして瞬き抑制を解析するために、子供に、トイワゴン内で一緒に遊んでいる少年と少女とのビデオシーン(そのうちの幾つかのフレームが図3に示される)を示した。ビデオシーンは、カレン・ブルーソ(Karen Bruso)及びマリー・リチャードソン(Mary Richardson)の市販されている子供向けビデオ、幼児テイク!テイク1:遊んでいる幼児(Toddler Takes!Take 1:Toddlers at Play)から抜粋した。ビデオは、図2のステップ202により、20インチ(50.8cm)コンピュータモニタ140(リフレッシュレート60Hz非インタレース)で、付随するオーディオサウンドトラックと共にフルスクリーンモードで提示された。ビデオフレームは、8ビットカラーイメージであり、640×480ピクセル解像度であった。提示のビデオフレームレートは、毎秒30フレームであった。オーディオサウンドトラックは、44.1kHzでサンプリングされた単一
(モノ)チャネルであった。元のオーディオサウンドトラックは、成人ナレーターの声のインスタンスを含んでおり、これをデジタル的に除去して、ビデオシーンを可能な限り自然にした。ビデオの持続時間は1分13.6秒であった。瞬き率及び瞬き持続時間の個人の測定値(図3及び図4参照)を、トライアル間の間隔中とは対照的に、ビデオ閲覧中に測定した。
ビデオの前後、センタリングキューを、センタリングキューがなければ何もない画面上に提示して、閲覧者の注意を共通の固視ロケーションに引いた。センタリングキューは、視角で1.5°であり、青色セクションと白色セクションとが交互になり、チャイム音に合わせて回転した。センタリングキューの提示中、91.4%の子供は、キューを見ることに応じ、応じた子供の割合での群間差はなかった(z=1.12、P=0.24)。
アイスキャン社(ISCAN,Inc.)によって作成されたハードウェア及びソフトウェアを使用して、眼球追跡機器110を用いて固視パターンを測定した(図2のステップ204参照)。眼球追跡技術は、ビデオベースであり、60Hzのレートで収集した眼球運動データと共に、暗瞳孔/角膜反射技法を使用した。眼球運動の解析及び固視データの符号化は、マトラボ(MATLAB)(マスワークス(MathWorks))で書かれたプロプライエタリソフトウェアを用いて実行した。解析の第一段階は、瞬き、サッカード、及び刺激提示画面から離れて向けられた固視を含む非固視データの自動識別であった(図2のステップ204参照)。この眼球追跡技術は、単なる例示であり、本開示の趣旨及び範囲の限定を意図しない。
瞬きは、瞳孔直径の変化率と、測定される瞳孔中心の垂直変位とにより、瞳孔の閉鎖を測定する自動アルゴリズムによって識別した。理解され認識されるように、瞬きの検出に、瞼閉鎖、特定の瞼運動等の他の方法を使用することもできる。瞬き検出アルゴリズムは、全参加者での同時ビデオ記録によって補足し、参加者データの10%でのビデオデータの手動符号化によって検証した。アルゴリズムは、一人の成人閲覧者での同時ビデオ及び筋電図(EMG:electromyography)記録によっても検証した。ビデオ記録と比較して、アルゴリズムは、ビデオイメージの手動符号化によって識別される全瞬きの95.0%を正確に検出した。EMG記録と比較して、アルゴリズムは、EMGによって記録された瞬きの96.4%を正確に検出した。アルゴリズムにより瞬きとして識別されるが、166.7msよりも短いか、又は566.7msよりも長い事象は、瞬き持続時間の従来の研究により、且つビデオイメージの視認検査に従って(566.7msよりも長く見える図7の瞬きは、実際には、プロット分解能により曖昧になった、短い固視によって分離された複数の瞬きである)、解析から除外した。アルゴリズムによって検出される瞬きと、EMGによって検出される瞬きとを比較する持続時間測定値は、10ms未満だけ異なった(すなわち、眼球追跡器のサンプリング検出閾値未満)。サッカードは、毎秒30°の速度閾値を使用して眼球速度によって識別した。参加者がビデオ画面から離れた場所を見るとき、画面外固視が、画面境界を越えるロケーションへの固視座標によって識別された。全閲覧データを通して、非固視データ(サッカード+瞬き+画面外固視)の割合は、ASDの群(M=24.25%、SE=1.2)と典型的な群(M=24.7%、SE=1.5)とで大きな差はなかった[t(91)=0.22、P=0.82](図2のステップ204参照)。
ASDを有する幼児(M=5.58bpm、SD=3.88)と典型的な幼児(M=5.18bpm、SD=3.66)との間で、毎分瞬き数(bpm)で、違いは見られなかった[t(91)=0.519、P=0.60](図4)。加えて、ASDを有する幼児(M=300.0ms、SD=98.7)と典型的な幼児(M=301.3ms、SD=98.0)との間で、瞬き持続時間にも違いは見られなかった[t(91)=−0.23、P=0.82]。瞬きの個体発生についての従来の研究と一致して、個人の瞬き率(b
pm)は、両群で実年齢と正の相関が認められた(ASDを有する幼児の場合、r=0.33、p<0.05及び典型的な幼児の場合、r=0.27、P<0.05)。この相関の強さ又は方向に、群間差はなかった(z=0.28、P>0.05)。
各実験トライアル(ビデオシーン)前後のトライアル間隔中の瞬き率の変動の事例観察もテストした(図6A参照)。これらの間隔中、センタリングキューを、センタリングキューがなければ何もない画面上に提示して、閲覧者の注意を共通固視ロケーションに引いた。先の観察に基づいて、インジケータにより、トライアル間隔に関連して実験トライアル中に瞬き率が低減すると予測された。
図6Bに示されるように、ASDを有する幼児及び典型的な幼児の両方の平均瞬き率は、トライアル前期間及びトライアル後期間と比較して実験トライアル中に低減した。正のスキューの従属変数(bpm)を所与として、平均よりも大きい分散で、基本的に負の二項分布を仮定して、変数の解析(ANOVA)の反復測定[診断群(2レベル)×トライアルタイプ(3レベル:トライアル前、トライアル中、及びトライアル後)]を実行した。ANOVAは、トライアルタイプの大きい主作用をもたらす(WaldX=18.70、df=2、P<0.001)。事後比較は、トライアル前及びトライアル後の平均bpmが、互いにあまり違わず(WaldX=0.64、df=1、P=0.42)、それらの状態のそれぞれの間の瞬き率が、実験トライアル中の瞬き率よりもはるかに大きい(それぞれ、WaldX=20.58、df=1、P<0.001及びWaldX=14.57、df=1、P<0.001)ことを示した。診断の主な作用はなく(WaldX=0.002、df=1、P=0.97)、状態による診断の大きい相互作用もなかった(WaldX=0.003、df=2、P=0.99)。
瞬きデータに関連するため、瞬間瞬き率の特定もテストした。瞬間瞬き率は、密度関数として計算される。各個人のデータを60Hz時系列として記録した。所与の個人が瞬きしているか否かを示すバイナリ値は、図2の206に説明されるように、時系列中の各点で記録された(瞬いていない場合には0、瞬いている場合には1であり、1の連続シーケンスは、その連続シーケンスの長さに等しい持続時間の完全な瞬きを示す)。時系列中の各時間tにおける瞬間瞬き率を以下の式に従って計算した。
式中、bpm(t)は時間tでの瞬間瞬き率(毎分瞬き数)であり、Δtはサンプリング間隔(60Hzサンプリングの場合には1/60秒であり、1/3,600分として分に変換される)であり、n(t)は、時間tで発生している瞬きの和(すなわち、複数の個人にわたって合算される)であり、N(t)は、時間tで瞬きをしているか、又は画面を見ている閲覧者の総数である。最後に、平均個人瞬き持続時間に一致するように選択されるガウス窓(半値全幅では300ms)を用いて、瞬間瞬き率密度関数を平滑化した。
自由閲覧実験では、N(t)が、時間tにおいて画面から離れた場所を見ているいかなる参加者も除外すべきであることに留意する。また、nが完全な瞬きの部分カウントであること、1回の瞬きは60Hzサンプルで測定され、300ms続き、時系列内で18のサンプルにわたって広がり、各時間tにおいて瞬きの1/18としてカウントされることにも留意する。
更に、瞬間瞬き率が、ビデオ閲覧中に大きく変化するか否かをテストするために、並び替えテストを実行した。1000の反復のそれぞれで、各子供のバイナリ時系列瞬きデータ(0=瞬きしていない、1=瞬きしている)を、以下の式:
であって、以下として書かれる式
に従って循環シフトによって並べ替え、これは、s≧0の場合、
に等しく、式中、bは、各参加者jの実測瞬き時系列データであり、bj,cは、同じ参加者jの循環シフト瞬き時系列データであり、tは、間隔0≦t≦Tにわたって定義された時系列中の時点であり、Tは刺激の総持続時間(本事例では、患者に示される映画全体の持続時間)であり、sは、各患者jの、tと同じ時間単位での循環シフトサイズである。各参加者の循環シフトサイズは、一様分布を有する生成乱数器から、独立して引き出され、可能な値の範囲は−T〜Tである。循環シフト後、反復i毎に、瞬間瞬き率を上述したように計算した。
このようにして、各反復で、瞬き及び瞬き間隔の持続時間が各個人について保持されたが、各瞬きのタイミングは、ビデオ内容の実際のタイムラインに関連するとともに、他の参加者の瞬きのタイミングに関連してランダムとなった。この手法により、並べ替えデータでは、課題全体中の参加者の平均瞬き率は、変わらないまま(且つ課題固有)であったが、瞬間瞬き率が増減するタイミングはランダムとなる。
並べ替えプロセスを1000反復で繰り返し、次に、時系列中の各時点での全ての反復にわたる瞬き率の統計学的分布と突き合わせて測定した。全ての反復にわたる各時点で、並べ替えられたデータの5パーセンタイルを、有意な瞬き抑制の時点を識別するための非パラメトリック閾値として使用した。これにより、実際の瞬きパターンを、瞬きのランダ
ム化された機会パターンと比較することが可能になり、それにより、瞬きのタイミングがシーンの内容に関連しないという帰無仮説をテストすることができた。
上記実験に基づいて、典型的な幼児の瞬き率が、ビデオ閲覧時間の8.8%中、有意に抑制されるシャッフルデータの0.05閾値未満の値未満を示す)こと、及びASD群の瞬き率が、閲覧時間の7.0%中、有意に抑制されたことが分かった。各群の観測瞬き率と並べ替えデータとの差を、2サンプルコルモゴルフ・スミルノフ検定によってテストし、それぞれの有意差を見出した(典型的な幼児の場合、D=0.22、P<0.001及びASDを有する幼児の場合、D=0.28、P<0.001)。
図9は、実際の瞬きデータを並べ替えデータと比較する経験累積分布関数のグラフを示す。これらのプロットは、低瞬き率の増大(横座標の左端での実際のデータと並べ替えデータとのギャップ)及び瞬き率の増大(横座標の右端での実際のデータと並べ替えデータとのギャップ)の両方を示す。
瞬間瞬き率が、ビデオ自体中に有意に変化したか否かをテストした(図7A参照)。個人データを60Hz時系列(系列中の各点でのバイナリ値は、所与の個人が瞬きをしているか否かを示す)で記録した。各群の全個人にわたり、瞬間瞬き率を計算した。瞬き抑制のタイミングがシーン内容に関連しないという帰無仮説をテストするために、並べ替えテストを実施した。1000反復毎に、各群で、各子供のバイナリ時系列瞬きデータを循環シフトによって並べ替え、各子供のシフトサイズは、一様分布を有する乱数生成器から、独立して引き出した。次に、シフトされた個人データにわたり、瞬間瞬き率を計算した。各個人のデータは独立してシフトされたため、各シフト瞬き時系列のタイミングは、ビデオ内容の実際のタイムラインに関連して、且つ他の参加者の瞬きのタイミングに関連してランダムであった。この手法により、並べ替えデータでは、課題全体中の参加者の平均瞬き率は変わらないまま(且つタスク固有)であったが、瞬間瞬き率が増減するタイミングはランダムとなる。
これにより、厳密な確率を有する基本並べ替えテストが可能になった。各時点で、全ての並べ替えデータにわたる5パーセンタイルが、統計学的に有意な瞬き抑制の期間を識別する統計学的閾値(P=0.05)として機能した(図7C及び図7D参照)。実際の測定された瞬きのタイミングが、進行中のビデオ内容に関してランダムである場合、各群の実測瞬間瞬き率が、時間の5%以下で、並べ替えデータの瞬間瞬き率と異なることが予期される。逆に、実際のデータでは、典型的な幼児の瞬き率が、ビデオ閲覧時間の8.8%中に有意に抑制され(並べ替えデータの0.05閾値未満の値を示す)、ASD群の瞬き率が、ビデオ閲覧時間の7.0%中、有意に抑制されたことが分かった。この差について、2サンプルコルモゴルフ・スミルノフ検定により各群の観測瞬きデータと並べ替えデータとの間でテストし、それぞれの有意差を見出した(典型的な幼児の場合、D=0.22、P<0.001及びASDを有する幼児の場合、D=0.28、P<0.001)。
瞬き抑制を視覚刺激120に相関付ける一環として、個人刺激の複数のセグメントを感情的内容及び物理的内容(本明細書では、感情的事象及び物理的事象とも呼ばれる)として識別した。10人の成人が、2段階プロセスでビデオシーンの感情的内容を格付けした。まず、ビデオ全体を15のセグメントに分割し、閲覧者に、セグメントを最も感情的から最も感情的ではないにランク付けするように求めた。これらのランク付けの評定者一致係数はかなり高かった(ケンドールのW=0.879、X=123.02、df=14、P<0.0001)。次に、最も高くランクされた8つのセグメントを使用して、感情的事象の精密なタイミングを識別した。そうするために、成人の格付け者は、8つの最も感情的な各セグメントをフレーム毎に調べ、感情的事象が開始される時点及び感情的事象が終了する時点を選択した。全格付け者にわたる開始時間及び終了時間のSEは152m
sであった。各感情的セグメントの開始時間及び終了時間を、10人の格付け者にわたって平均化して、8つの感情的事象を得た。物理的事象は、ワゴンのドアが動いている全時点として定義した(開始点及び終了点は、ドアの移動の開始及び停止によって設定される)。当業者に一般に理解されるように、事象を必ずしも感情的事象又は物理的事象として分類する必要はなく、そのような分類は単に、本実験及び本開示での例示を目的として使用される。更に、任意の種類の事象に関連して瞬き率変化を特定し測定するために、複数のメカニズムを利用し得る。
自然なシーンの非制約閲覧中、瞬きが、機会によって予期されるレベルを超えるレベルで抑制されるとともに、特定の時間に抑制されることを確認したので、瞬き抑制が、ビデオ内容、固視、及び閲覧者群に関して選択的に変化するか否かをテストした。上述したように、実験の枠組みは、2つのカテゴリの内容(感情的事象及び物理的事象)を、それらのカテゴリへの注目が異なることが分かっている子供の2つの母集団(ASDを有する子供及び典型的な幼児)に提示した。参加者に示されるビデオでは、ビデオ内の少年は、ワゴンのドアを開いたままにしておきたく、一方、少女はドアを閉じたく、この状況は好都合に、レベルが変化する感情的内容(少年と少女との確執)と、繰り返される物理的動作(ワゴンドアの開又は閉)とを生み出した。
台本のない自然な対話のビデオでの感情的事象及び物理的事象の指定を運用可能にするために、10人の成人閲覧者が、ビデオ全体を通して感情のレベルを格付けし、顔の表情及び/又は発声が感情の高まりを示すビデオ内の8つのセグメント(例えば、ビデオ中の少年又は少女が目に見えて怒る時間期間)を識別した。評定者感情ランク付けの一致係数はかなり高かった(ケンドールのW=0.879、X=123.02、df=14、P<0.00001)。物理的事象は、ワゴンのドアが動いている時間として運用化された。2つの事象タイプは相互に排他的ではなく、独立した格付け者につき、時間の25.18%未満、重複した。
ビデオの残りのセグメントは、非感情的/非物理的事象として分類された。閲覧者がプロセスにとって特に重要であると知覚される瞬間中に瞬きを抑制し、あまり重要ではないと知覚される瞬間中、瞬きが増大すると予測した。瞬き抑制のタイミングが、感情的事象及び物理的事象に関していかに変化するかを調べるために、刺激(又は「ペリイベント(perievent)」)前後時間ヒストグラム(PSTH:peristimulus
time histogram)を使用した。PSTHは、個々の時系列瞬きデータのセグメントを事象の開始に位置合わせし、次に、そこを囲む2000ms窓の33.3msビンで発生する個人の瞬きのカウントを計算する(図2のステップ208に示されるように)ことによって構築した。ビンカウントは、全事象にわたり各参加者について計算され、次に、全参加者にわって平均化され、群平均を得た。
観測された瞬き率の変化が、機会により予期されるものから異なるか否かをテストするために、並べ替え瞬きデータからのPSTHの第2のセットを計算した。前のように、個人のデータを1000回循環シフトすることにより、個々の瞬きシーケンスを並べ替えた。次に、並べ替えられた各データセットのPSTHを計算した。並べ替えデータからの1000全てのPSTHにわたる各ビン中の平均瞬間瞬き率は、仮に瞬き率が画面上の事象に関してランダムである場合に観測されるであろう瞬き率を定量化した。他方、仮に瞬き率が画面上の事象に時間ロックされ、ランダムではない場合、並べ替えデータ分布からの有意なずれが見られると予期される。並べ替えデータからの全てのPSTHにわたる瞬間瞬き率の5パーセンタイル及び95パーセンタイルは、実際のデータでの瞬き率を比較する(片側比較)P=0.05信頼水準として機能した。群間差をテストするために、各群のブートストラップデータの信頼水準(CI:confidence interval)を、図2のステップ216に示されるように、計算した。
図8Aに示され、図2のステップ218に説明されるように、典型的な幼児のPSTHは、感情的事象に対して瞬き率の32.4%の低減を明らかにし、ゼロラグ前に最小66msに達する。これは、典型的な幼児での統計学的に有意な瞬き抑制(P<0.05)が、高感情価数を有する事象の発生に時間ロックされたことを示す。ASDを有する幼児も、瞬き率の低減(35.8%)を示すが、低減は、感情的事象のゼロラグ後に最大599msである(図8G参照)。
タイミングの群間差は高度に有意であり、その理由は、各群のブートストラップラグデータのCIが重ならないためである(図8M参照、典型的な幼児での瞬き率最小のラグ時間:CI=−230ms、CI95=0ms、ASDを有する幼児での瞬き率最小のラグ時間:CI=33ms、CI95=700ms)。タイミングの観測される差は、眼球運動の速度又は頻度でのより一般的な遅延を原因としないことが分かった。その理由は、注視をシフトする待ち時間での群間差がない[典型的な幼児:M=1.09s(SE=0.20)、ASDを有する幼児:M=0.96s(SE=0.28)、t(91)=0.40、P=0.69、映画の開始に続く最初のサッカードを開始する反応時間として測定した]か、又は固視の持続時間若しくは頻度での群間差がない[典型的な幼児の持続時間:M=442ms(SE=16.4)、ASDを有する幼児の持続時間:M=492(SE=29.4)、t(91)=−1.57、P=0.12、及び典型的な幼児の頻度:毎秒固視数M=2.04(SE=0.09)、ASDを有する幼児の頻度:M=1.93(SE=0.11)、t(91)=0.85、P=040]ためである。
各群は、統計学的に有意ではないが、事象タイプによる瞬き率の数値低減を示す(図8N参照)。典型的な幼児は、物理的事象よりも感情的事象中に瞬き率の大きい低減を示し(32.4%対25.4%、図8A及び図8B)、一方、ASDを有する幼児は逆のパターンを示し、物理的事象で41.7%低減し、感情的事象で35.8%低減する(図8G及び図8H参照)。両群の幼児が、非感情的非物理的事象に関して有意の瞬き率増大を示す(図8C及び図8I参照)。エンゲージメントを区別するという問題の曖昧さをなくすのを助けるのは、2つの事象タイプ中の各群の固視パターンである(図8O参照)。典型的な幼児は、両事象タイプ中、ASDを有する幼児よりも物体を見て過ごす時間がはるかに短く[F1,91=12.01、P=0.001、診断(2レベル)×事象(感情的対物理的)を用いる反復測定ANOVA]、診断タイプと事象タイプとの相互作用は有意であった(図8O参照)(F1,91=5.99、P=0.016)。ペアサンプルt検定により、典型的な幼児が、感情事象と物理的事象とで、物体への固視の割合に差を示さなかった(t1,51=0.85、P=0.4、Maffective=25.5%、SD=14.21対Mphysical=26.5%、SD=16.7)が、ASDを有する幼児が、ワゴンドアが動いているなどの物理的事象中、物体への固視を増大させた(図8O参照)[感情的な場合のM(SD)=33.9(16.7)対物理的な場合の40.0(17.2)、t1,40=3.57、P=0.001]ことを確認した。
まとめると、典型的な幼児の瞬き抑制は、(i)事象のゼロラグの直前に最も大きく低減し、(ii)数値的に物理的事象よりも感情的事象の場合に大きく、(iii)物体への固視レベルに関連しない(代わりに、両事象タイプ中、人々への固視が73%よりも大きいことを特徴とする)。逆に、ASDを有する幼児の場合、瞬き抑制は、(i)事象のゼロラグ後に最も大きく低減し、(ii)数値的に感情的事象よりも物理的事象の場合に大きく、(iii)物理的事象中、物体への固視の有意な増大を特徴とする(図2のステップ220参照)。
これより、図の幾つかを参照して、一実施形態において、図6Cは、2つの異なる閲覧者群(閲覧者群A及び閲覧者群B)間の瞬きの課題依存変化、特に、3つの異なる事象刺
激(図6D参照)を観察している2つの異なる閲覧者群(図6E参照)間の例示的な瞬き率比較の例示的な実施形態を示す。一実施形態では、閲覧者群A及び閲覧者群Bは、事象Aを見ている間、瞬き抑制を示さない。一態様によれば、図6Cに示されるように、両閲覧者群も事象Aにエンゲージする際、両群のbpmが毎分約9〜13回の瞬き数に留まるため、何れの群も瞬き率を抑制しなかった。
図6Cに示される一態様によれば、事象Bに関連して、閲覧者群Bの瞬き抑制は、視覚刺激の事象Bにエンゲージする間、変化する。代替的に、閲覧者群Aの瞬き抑制は、変化せず、一般に、毎分約9〜13回の瞬き数をうろつく。一態様では、これは、閲覧者群Bのエンゲージメントレベルが、事象Bとのエンゲージメント中に顕著に増大し、一方、閲覧者群Aのエンゲージメントレベルが一般に、変化しないことを示す。
更に、別の態様では、両閲覧者群のエンゲージメントレベルは、視覚刺激内の事象Aの閲覧中、一定のままである。瞬き抑制は、毎分約9〜13回の瞬き数と両閲覧者群で比較的近いままである。図6Cの考察例は、特定の事象(例えば、所与の刺激内の事象又は異なる刺激全体間等)に反応する、人々の群間での様々なエンゲージメントレベルを示す。例えば、マーケティング会社は、ターゲット層にエンゲージするマーケティングキャンペーンの力を判断するに当たり、そのような評価を使用し得る。したがって、マーケティングキャンペーンが、30〜40歳の女性をターゲット層として意図する場合、特に視覚刺激の所定のセグメント中、閲覧者群Aは30〜40歳の男性を含み得、閲覧者群Bは30〜40歳の女性を含み得る。事象Bが、閲覧者群Bに属する個人の心を掴むように設計された所定のセグメントを含む場合、この例示的な説明では、マーケティングキャンペーンは、事象B中、閲覧者群Bの場合にエンゲージメントレベルを増大させるのに成功し得る(瞬き率及び瞬き抑制を測定することによって評価される)。一般に理解されるように、上記の説明は例示を目的とし、本開示の趣旨又は範囲の限定を意図しない。
図7は、ビデオシーンの自然な閲覧中の統計学的に有意な瞬き抑制の例示的な表現を示し、データは、本開示の一実施形態により、瞬きデータの更なる解析のために視覚刺激への時間ロックが行われるように、時間の経過に伴ってプロットされる。一実施形態では、図7Aは、例示的なビデオシーンを見ている間、典型的な幼児が行う瞬きを示す例示的なラスタプロットを示す。同様に、別の実施形態では、図7Bは、視覚刺激に時間ロックされた瞬間瞬き率を示す。一態様によれば、図7Bの曲線中の高い点ほど、閲覧者が有意な量の瞬きを示した時点を表し(例えば、一般に毎分17〜20回の瞬きにより近い点)、一方、曲線中の低い点ほど、閲覧者がそれほど頻繁には瞬きしなかった(例えば、一般に毎分0〜2回の瞬きにより近い)時点を表す。
別の実施形態では、図7Cは、典型的な幼児の並べ替えデータ(並べ替えデータを決定するメカニズムについては、本明細書において更に詳細に上述した)の例示的な5パーセンタイル及び95パーセンタイルを示す。一態様では、95パーセンタイルは、瞬きの増大を表し、5パーセンタイルは瞬きの低減を表す。瞬間瞬き率の5パーセンタイルに対応する図7Cに示されるプロットデータを使用して、図7Dを生成し、図7Dは、本開示の別の実施形態による、ビデオシーン内の特定の時間にマッピング(同期)された瞬き抑制のインスタンスの例示的なプロットを示す。図7に示されるように、瞬き抑制705、710、715、及び720の対応する時間は、図7A〜図7Dのプロットのそれぞれに見ることができる。同様に、視覚刺激を瞬きデータに時間ロックすることに関連付けられた様々なメカニズム、聴覚刺激を瞬きデータに時間ロックして、聴覚刺激に関連するため、瞬き抑制の期間を更に特定し得る。
図8は、本開示の一実施形態による、固視データ例と共に、自然な閲覧中の時間ロック(同期)された瞬き及び瞬き抑制に関連した例示データを示す。幾つかの態様では、本実
験は、PSTHを構築することにより、感情的事象(図8A及び図8G参照)、物理的事象(図8B及び図8H参照)、並びに非感情的/非物理的事象(図8C及び図8I参照)に関する瞬き及び瞬き抑制の時間ロックを測定した。PSTHは、並べ替え瞬きデータの平均に関するbpmでの割合変化を示す。破線横線は0.05及び0.95CIを記し、これらのレベルを超えるbpmの割合変化は、機会により予期されるよりも大きいbpm変化を表す(片側、P<0.05)。CIは、事象数と反比例する(非感情的非物理的カテゴリでの事象数が概ね2倍になると共に)。
更なる態様によれば、bpmでの絶対最小変化及び絶対最大変化は、各プロットで黒い四角によって強調表示される。典型的な幼児及びASDを有する幼児の瞬き率の変化中の例示的な固視データは、図8D及び図8Jの感情的事象に関連して、図8E及び図8Kの物理的事象に関連して、並びに図8F及び図8Lの非感情的/非物理的事象に関連してそれぞれ示される。3列プロットは、ビデオからの静止フレーム(bpmでの絶対最小低減でサンプリングされる1列目)と、同じ瞬間での固視データのカーネル密度プロット(2列目、暖かい色ほど、大きい密度を示す)と、元のフレームに重ねられた、黒から透明にスケーリングされる同じカーネル密度プロット(3列目)とを示す。固視密度プロットの色は、可能な最大密度及び最小密度が、サンプルサイズの違いにも拘わらず、各群で同じ色値を有するように、各群のサンプルサイズに相対してスケーリングされる。図8Mは、感情的事象対物理的事象での瞬き抑制のタイミングを示す。図8Nは、感情的事象対物理的事象のbpmでの割合低減を示す。図8Oは、感情的事象対物理的事象での物体への固視の割合を示す。
図10は、所与の刺激に関する閲覧者のエンゲージメント活動レベルを特定する例示的なプロセスの概観1000を示す。閲覧者エンゲージメント活動プロセスの例示的な特定は、図2に関連して説明したメカニズムと同様のメカニズムを利用する。例えば、プロセスは一般に、視覚刺激を閲覧者に表示することによって開始される(ステップ1002参照)。上述したように、視覚刺激は、DVD、記憶されたデジタルメディア、ビデオゲーム等を含む複数の形態の媒体を含み得る。続けて、プロセッサ102が、閲覧者に対応する瞬きデータを受信して記録し(ステップ1004参照)、それと同時に、視覚刺激に対応する刺激データ122を受信する。瞬きデータは一般に、プロセッサに伝搬される前に、眼球追跡器又は眼球監視装置110を介して捕捉される。プロセッサは通常、瞬きデータを、プロセス1006で実行される使用可能で評価可能な形式に変換できるようにするソフトウェアを備える。
更に、プロセッサ102は一般に、刺激データ122を使用可能且つ評価可能な形態の瞬きデータに時間ロックするためのソフトウェアを備える(ステップ1008参照)。上述したように、瞬きデータを刺激データ122に時間ロックすることにより、視覚刺激内の様々なインジケータに相対して瞬き挙動及び瞬き抑制を評価することができる。場合によっては、閲覧者エンゲージメント活動を特定するプロセスは、1つ又は複数の閲覧者のデータを収集することを含み得、一般に、複数の閲覧者を評価するために、上記ステップ1002〜1010は、所望の閲覧者群に達するまで繰り返される。更に、閲覧者は、ターゲットとする実験の意図及び趣旨に従って、様々な人口統計に分類し得る(ステップ1012)。例えば、違法物質スクリーニング刺激を作成し得、閲覧者は、様々な違法物質を見る際のエンゲージメントレベルをテストして、違法物質の使用者又は使用経験者として潜在的に分類する。
更に、ステップ1014において、プロセッサ102は一般に、例えば、多くの閲覧者のデータを結合し並べ替えることにより、時間ロック又は同期された瞬きデータを集計するためのソフトウェアを備える。一実施形態では、集計された時間ロック瞬きデータは一般に、個人の瞬間瞬き率、個人が瞬いたか否か、又は瞬くか否かの確率等の特定を含む複
数のインジケータについて評価される。一般に、これらのインジケータは、視覚刺激120に関して1つ又は複数の時点に同期される。集計され解析された瞬きデータを利用して、結果を評価し、瞬き抑制の様々なパターンを識別し(ステップ1016参照)、刺激データ及び他の所定の要因内の所定のインジケータと比較される(ステップ1018参照)。続けて、視覚刺激内の様々な事象に関連するために、閲覧者のエンゲージメントレベルに関して全体評価を行うことができる(ステップ1020参照)。例えば、違法物質スクリーニングに関して閲覧者をエンゲージする場合、薬物使用者は、違法物質を使用しない誰かと比較して、違法物質を見せられたときに、エンゲージメントレベル又は瞬きタイミングを変化させ得る。
一実施形態では、図10は、聴覚刺激を聴くことに関連する際のエンゲージメント活動を特定する同様のプロセスも説明し得、ステップ1002で、聴き手が聴覚刺激を聞く/聴く。したがって、図10に記載されるプロセスの残りのステップは一般に、視覚刺激に利用されるステップと同様である。同様に、瞬き抑制の聴き手測定値が、聴覚刺激への聴き手のエンゲージメントレベルを決める。例えば、教師は、外国語を教えるために、生徒に聴覚刺激を聴いて欲しいことがある。教師は、この例示的なプロセスを利用して、生徒が補助教材にいかにエンゲージしたかを評価し得る。
本開示の一実施形態によれば、図11は、疾患/障害の状態を評価するために、所与の刺激とのエンゲージメントに応じて、閲覧者を分類又は格付けする例示的なプロセス1100の概観を示し、疾患/障害の状態の評価は一般に、病気の有無、疾患/障害状態の進行、及び/又は前の診断に関連する治療反応を含む。本開示での幾つかの他のプロセスと同様に、疾患/障害の応対を評価するプロセス1100は一般に、視覚刺激をモニタ装置140上で閲覧者に表示すること(ステップ1102参照)、プロセッサ102において、閲覧者の瞬きデータを受信して記録すること(ステップ1104参照)、及びプロセッサでの瞬きデータの評価可能な形式への変換(ステップ1106参照)で開始される。
プロセッサ102は、データベース130から、視覚刺激120に対応する所定のタイムスタンプ付き事象データを検索する(ステップ1108)。所定のタイムスタンプ付き事象データは、パラメータ数に関連し得る。例えば、データは、典型的又は非典型的な閲覧者が、様々な事象インジケータに従ってエンゲージメントレベルを高めるか、又は下げる瞬間のパターンを記述する対照データを含み得る。例えば、タイムスタンプ付き事象は、視覚刺激内の物理的又は感情的事象に関連することができる。次に、記録された閲覧者瞬きデータは、視覚刺激に時間ロックされ、所定のタイムスタンプ付きデータと比較され(ステップ1110参照)、瞬き抑制の様々なパターンを識別し、視覚刺激全体を通してのエンゲージメントレベルを更に特定する。更に、特定の実施形態(更に詳細に後述する)では、特定の時点でのエンゲージメントレベルの比較に加えて、視覚刺激内の様々な時間に従って固視ロケーションも比較する。この比較は、閲覧者の瞬きデータが許容可能データの所定範囲の限度内/外に存在するかどうかを特定する(ステップ1112参照)ように、データ内の収束及び発散のエリアを識別するのに使用することができる。続けて、対照データと閲覧者の瞬き抑制データとの比較を利用して、閲覧者の疾患/障害の状態について更なる評価を行うことができる(ステップ1114参照)。例えば、所定の事象前に瞬きが抑制される場合、幼児を典型的として分類し得るが、瞬きが、所定の事象後に抑制される場合、幼児は、ASDの早期兆候を潜在的に示し得る。
典型的な幼児及びASDを有すると診断された幼児が本開示の態様によって説明される実験中に評価されたが、当業者に一般に理解されるように、任意の閲覧者群がターゲットとされ得、目のデータを収集し解析する開示されたメカニズムを使用して、閲覧者エンゲージメントの様々なレベルについて解析され得る。例えば、閲覧者群は、マーケティングリサーチでのティーンエイジャー群、心理学実験での大学生群、医療テストでの成人群等
を含み得る。
図11に関連して説明したプロセスは、閲覧者のエンゲージメントレベルに応じて閲覧者をランク付けし、且つ/又は分類するのに利用することもできる。一実施形態では、閲覧者の評価されたエンゲージメントレベルに基づいて、閲覧者の分類に関連して更なる評価を行い得る。一態様では、瞬きデータを利用して、刺激への閲覧者のエンゲージメントレベルを特定することが可能であり、様々なエンゲージメントレベルは、閲覧者ランク付けを提供し得るか、又は閲覧者をクラス分けするか、若しくは分類する所定のインデックスに関連して更に使用し得る。例えば、潜在的な飛行学校候補生にエンゲージし、飛行学校での潜在的な成功率に従って潜在的な候補生を分類する飛行シミュレータを開発し得る。
図11に関連して説明したプロセスと同様の一態様によれば、所与の刺激とのエンゲージメントに応じて閲覧者又は閲覧者群を分類することに関連して、瞬きデータを収集し比較するためにステップ1102〜1112を繰り返すことができる。したがって、ステップ1114と同様に、閲覧者のインデックスレベル、格付け、又は分類についての評価は、閲覧者エンゲージメントに応じて提供することができる。例えば、講義とのエンゲージメントレベルに基づいて学校の生徒を分類し得、それにより、教師は、生徒のエンゲージメントレベルに基づいて、どの生徒により注意が必要かを知り理解する。
一実施形態では、図11は、聴覚刺激を聴くことに関連して評価/分類するための同様のプロセスを説明しており、ステップ1102で、聴き手が聴覚刺激を聞く/聴く。したがって、図11に記載されるプロセスの残りのステップは一般に、視覚刺激に利用されるステップと同様である。同様に、瞬き抑制の聴き手測定値が、聴覚刺激への聴き手のエンゲージメントレベルを決める。例えば、聴覚刺激は、様々な個人の疾患/障害状態を評価するメカニズムを含み得る。所定の瞬きパターンは既知であり得るため、聴き手が所定の瞬きデータに従わないか、又は相関しない場合、精神状態/障害/病気の状態に関連するようにその個人を特定の群に分類し得る。更に、精神状態/障害/病気は、認知又は発達疾患/障害/病気を含み得る。
一態様では、図11に関連して説明したプロセスと同様に、閲覧者にエンゲージする(閲覧者を引き込む)刺激の能力の測定値を解析することに関連して、瞬きデータが、所定のインデックス、すなわち、閲覧者又は閲覧者群にエンゲージする刺激の能力に閲覧者のエンゲージメントを相関付ける所定のインデックスと比較され得る。別の態様では、プロセッサ102は、所定の時間事象データを検索し得、閲覧者にエンゲージする刺激の能力を特定するアルゴリズムを使用する。例えば、マーケティング企業は、マーケティングキャンペーンの成功予測を示す所定の閲覧者エンゲージメントインデックスを有し得る。様々なマーケティングキャンペーンの予備的実施中、マーケティングキャンペーンが、閲覧者に首尾良くエンゲージして所定の最小閲覧者エンゲージメントインデックスに達しない場合、マーケティングにリリースされないだろう。
別の実施形態によれば、瞬き抑制データは、知覚視覚顕著性の測定値を利用することにより、視覚刺激が有し得る有効性レベルの定量化可能なメトリックを提供し得る。一態様では、視覚刺激の有効性レベルは、閲覧者エンゲージメントのインデックスを使用して、視覚刺激が、閲覧者の心を掴む望ましい又は望ましくない影響を有するか否かを決定することを含み得る。上述したように、一態様によれば、閲覧者エンゲージメントレベルを、瞬きデータを用いて解析し、視覚刺激内の特定の点(例えば、フレーム毎、所定のセグメント等)に時間ロックし得る。したがって、一態様によれば、特定の点での閲覧者のエンゲージメントレベルを特定することは、視覚刺激が、その特定の点又はセグメントで視聴者又は閲覧者にどの程度エンゲージしているかを特定することを助ける。同様に、閲覧者
のエンゲージメントレベルは、視聴者又は個人の心を掴むことへの全体又は完全な視覚刺激の有効性を識別するのに役立ち得る。例えば、マーケティング企業は、エンゲージするキャンペーンの能力の表示として、マーケティングキャンペーンの試行テスト中、瞬きデータ測定値の捕捉を介して、エンゲージメントレベルの傾向を利用し得る。マーケティング企業は、瞬きデータを利用して、刺激Aが刺激Bよりも有効であるか否かを決定して、証明されていない/テストされていない理論を検証することもできる。
一実施形態では、瞬き抑制データは、聴覚刺激を聴いている聴き手に関連してエンゲージする聴覚刺激力の能力を特定するために同様のプロセス利用されることができ、初期ステップで、聴き手が聴覚刺激を聞く/聴く。したがって、上述したプロセスの残りのステップは一般に、視覚刺激に利用されるステップと同様である。同様に、瞬き抑制の聴き手測定値が、聴覚刺激への聴き手のエンゲージメントレベルを決める。例えば、教師は、外国語を教えるために、生徒に聴覚刺激を聴いて欲しいことがある。教師は、この例示的なプロセスを利用して、生徒が補助教材にいかにエンゲージしたかを評価し得る。
一実施形態では、上述したように、閲覧者の分類に使用される閲覧者エンゲージメントレベルに相関付けられた瞬きデータを、視覚刺激の有効性の特定に関連して更に使用し得る。例えば、特定の視覚刺激は、10〜14歳の少女をターゲットとし得る。ターゲット視聴者のサンプルをテストすることにより、瞬きデータは、ターゲット視聴者に意図される視覚刺激の有効性の識別を更に支援し得る。更に、6〜10歳の少女と10〜14歳の少女との比較を行い、例えば、閲覧者エンゲージメントの正確性を保証し得る。
図12は、視覚刺激の知覚される刺激顕著性を評価することを含む、様々なタイプのデータを収集して評価する例示的なプロセス1200を含む本開示の一実施形態を示す。一態様では、眼球追跡器110は、眼球追跡装置と瞬き監視装置との組み合わせを備え得、眼球追跡器は眼球運動データ(例えば、サッカード、固視、瞳孔拡大等)を記録し、瞬きモニタは瞬きデータを記録する。別の態様では、眼球監視システムは、評価のために、眼球データ及び瞬きデータ112をプロセッサ102に送信するように協働する別個の眼球追跡器及び瞬きモニタを備え得る。本実施形態の一態様によれば、プロセッサ102によって受信される眼球データ112(ステップ1205参照)は、視覚的顕著性を定量化してマッピングして、閲覧者のエンゲージメントレベルを更に評価する注目漏斗(本明細書において上述したように)を作成するのに利用することができる。
上述したように、眼球追跡器は、本開示において説明される他のプロセス(ステップ1204及び1205参照)と同様に、瞬きデータ及び眼球データを受信して記録し得る。眼球運動データ及び瞬きデータは、バイナリ瞬きデータ及び注視点(point of regard)(注視点(point−of−gaze))座標データ等の評価可能な形式に変換することができ(ステップ1206参照)、プロセッサ102は、視覚刺激120の所定のタイムスタンプ付き事象を検索することができる(ステップ1208参照)。図2に関連して説明したプロセスと同様に、眼球及び瞬きを、群内の多くの閲覧者について収集することができ、閲覧者を任意選択的に、所望のエンゲージメント層又は他のカテゴリ基準に基づいて分類することができる(ステップ1210及び1212参照)。
したがって、プロセッサ102は、知覚される視覚顕著性のマッピングを作成し、時間ロックされた眼球データを所定のデータと比較し、知覚刺激顕著性の評価を提供することができる。一実施形態では、知覚視覚顕著性の定量化マッピングは、閲覧者の固視又は注視点を記述し、点は一般に、閲覧者が注目を集中させる刺激上のロケーションを決める。一態様では、対照群又は対照データに対応する眼球データ112を使用して、収束及び発散のエリアを区切る注目漏斗(図1Dに関連して上述した)を作成することができる。上述したように、収束のエリアは一般に、大半の閲覧者の注視点分布が刺激上の小さい二次
元エリア内にある特定の瞬間を表す。このデータ及び/又は表示は、同じ刺激の瞬きデータに重ねるか、又は時間ロックすることができ、それにより、診断確認方法等が可能になる。このメカニズムを利用して、収束の分布に従わない閲覧者を評価し、疾患/障害状態の評価を更に提供し得る。
図13に示される一実施形態では、刺激内の最もエンゲージする時間的特徴及び空間的特徴を識別するプロセス1300が示される。図12に記載されるプロセスと同様に、刺激は、1人又は複数の閲覧者に表示し得(ステップ1302)、眼球運動データ及び瞬きデータを記録し(ステップ1304及び1305)、評価可能な形式に変換し得(ステップ1306)、眼球運動データ及び瞬きデータを視覚刺激に時間同期することができる(ステップ1308)。更に、時間ロックされた眼球データ及び瞬きデータを並べ替えて、参加閲覧者の視覚刺激の閲覧中の瞬き反応の確率を定量化し得る(ステップ1312参照)。上述したように、瞬きデータの並べ替えにより、瞬き反応の正確な解析が可能であり、したがって、所与の閲覧者又は閲覧者群の瞬き抑制期間を識別することができる(ステップ1314参照)。
視覚顕著性を定量化する上記プロセスを通して、眼球運動データを評価し、固視エリアを特定し、瞬き抑制期間に相関付けて、視覚刺激の最もエンゲージする時間的特徴及び空間的特徴を識別する(ステップ1316及び1318参照)。特に、閲覧者が瞬き抑制を示すビデオにエンゲージすると仮定される場合、固視ロケーションデータを識別することは、最もエンゲージするビデオの空間的及び時間的ロケーションを示し得る。幾つかのトライアルを実行して、複数のデータを収集する「データマイニング」プロセスを通して、視覚刺激、特に刺激内の様々な特徴への閲覧者エンゲージメントレベルを評価することは、時変閲覧者エンゲージメントに基づいて、刺激の最もエンゲージする時間的特徴及び空間的特徴の評価に役立つことができる。
図14は、本開示の一実施形態による、患者病気状態を評価する例示的なプロセス1400を示す。図11に関連して説明されたプロセスと同様に、瞬きデータが記録され(ステップ1404)、評価可能な形式に変換され(ステップ1406)、タイムスタンプ付き事象と比較されて、様々な瞬きパターンを識別する(ステップ1410)。所定の範囲に相対する瞬きパターンのレベルに関する更なる評価が行われて、重症度、軽度性、又は病気状態の変化を識別する(ステップ1412参照)。例えば、閲覧者が、認知疾患を有すると以前に診断されていることがあり、定期的に評価されて、認知疾患の状態を監視する。更に、新たに取得された瞬きデータが比較される所定のデータは、閲覧者が診断された疾患の早期状態での閲覧者からの以前のデータを含み得る。疾患の重症度の測定値に従って、長期データを収集して、現在疾患状態の変化の測定値を特定し得る(ステップ1416参照)。
更なる解析
本開示の幾つかの実施形態(特に、上述した実験)によれば、瞬き抑制のパターン及び固視の分布は、確立された群間差にマッピングされるが、また、刺激顕著性の主観的評価ではよりわずかな差を明らかにする。例えば、一態様によれば、データが、感情的内容が高まるシーンに時間的に位置合わせされる場合(図6A)、典型的な幼児は、ゼロ事象ラグ前にピークに達する永続的な瞬き抑制パターンを示した。逆に、ASDを有する幼児は、ゼロ事象ラグから0.5秒を超えた時間が過ぎた後に生じる瞬き抑制のピークを示した。
ASDを有する幼児よりも早期に、典型的な幼児が瞬きを抑制することは、典型的な幼児が顕著性事象の展開を積極的に予期しており、それを時間ロックして行っているという予期しなかった可能性を示す。固視データも同様のことを伝える。ASDを有する幼児は
、ビデオシーン内の物理的物体をより多く見、物体が動くとき(すなわち、指定された物理的事象)、それらの物体への固視を選択的に増大させる。したがって、時間ロックされた瞬き抑制データ及び/又は固視データの利用は、様々な認知障害又は認知低下の診断支援に使用することができる。
一方、注視、顔の表情、及び体の姿勢等の社会的関連キューに対する典型的な幼児の注目は、まだ発生していないが、まさに生じようとしている可能性がある行動を予期できるようにし得る(怒った顔の表情が、叫び又はワゴンドアがバタンと閉まることに先行するときのように)。これらのキューは、典型的な幼児が、世界での行動がいかに続けて展開されるかについての予想を生成するのに役立つ。しかし、ASDを有する幼児の場合、事後反応としての瞬き抑制は、それらの環境(特に社会的)キューに対する感度の欠如を反映するものとして見ることができる。これは、通常知覚される社会的内容とは別個の感情的及び物理的刺激とのエンゲージメントを示唆する。すなわち、典型的な幼児は、キャラクター間の進行中の社会的相互作用と関連することを理由に車のドアがバタンと閉まることにエンゲージし得るが、ASDを有する幼児によるエンゲージメントは、そのような事象の顕著な物理的属性への反応であり得る。
映画事象がいかに知覚されるかにおける群間差に関するこれらの仮説は、映画事象を感情的又は物理的として分類し得るにもかかわらず、相互に排他的な二元性として知覚される可能性が低いという点を強調する。実験の主要目標の1つは、半構造的で自然な刺激を使用して瞬き抑制をテストすることであった。そのような状況では、感情的及び物理的のカテゴリ境界は曖昧になる。例えば、典型的な幼児は、バタンと閉じるワゴンドアの背後に社会的な意義及び感情的な意味を知覚する可能性が高い。感情的カテゴリ及び物理的カテゴリのこの曖昧さは、瞬き率の低減が、予期される方向に傾向を有したもののこの特定の解析では統計的有意性に達しなかったことの理由を説明し得る。典型的な幼児は、感情的事象に反応してより大きい低減を示し、一方、ASDを有する幼児は、物理的事象へのより大きい低減を示した。更に、当業者に理解されるように、エンゲージメントレベルを特定するために、事象は必ずしも、感情的事象又は物理的事象のいずれかに分類する必要はない。
当該結果は、瞬き抑制のパターンが、自閉症研究及び視覚知覚全般の多くの神経行動学研究の分野で欠けていた社会感情的経験の一態様への進出、すなわち、誰かが何を見ているかの測定値のみならず、その誰かが見ているものにいかにエンゲージしているかの測定値も提供できることを示す。従来の研究は、ASDを有する子供が社会的関連刺激に対して割り当てる注目リソースが典型的な発達中の仲間よりも少ないことを示してはきたものの、これらの研究は、子供が固視しているものにいかにエンゲージするかを捉えることには失敗している。
更に、瞬き抑制測定値は、自然且つ高速ペースでの視覚内容の提示中、知覚された刺激顕著性の時間的に精密な指標を提供することによく適する。皮膚電気活動及び心臓血管活動等の精神生理学研究で従来使用される他の自律反応と比較して、瞬き抑制は、感情刺激への反応性の測定に関して遜色がない。皮膚電気反応及び心臓血管反応は、かなり複数の要因によって決定され、精神活動への反応の関係についての強い影響を妨げ、加えて、潜在期及び不応期は、感情的又は認知的状態に関する測定値の精密な時間的マーキングを弱める。これとは対照的に、瞬き抑制は、周辺機能よりも視覚系に固有である。オンセット及びオフセットパラメータは、精密であり、内容の生態学的に有効で高速ペースの提示に時間的に高感度であり、最後に、瞬き抑制は、全体的に非侵襲的で、更には隠された眼球追跡カメラ又は他の装置によって測定することができ、他の測定値の動物行動学的有効性を変更する目障りな機器の必要性をなくす。
一実施形態では、本システム及び方法は、閲覧者の挙動、刺激の特徴、及び閲覧者挙動と刺激との相互作用を評価するメカニズムを提供する。特に、一態様によれば、瞬きは閲覧者への視覚情報の流れを中断するため、且つ瞬きの抑制は、視覚情報の流れが中断されないことを保証するため、個人が瞬きを抑制するか、又は抑制しない精密なタイミングの測定値は、個人が大方、毎日の状況の中で瞬きに気付かないにもかかわらず、閲覧者エンゲージメントのロバストな定量的インデックス及び知覚刺激顕著性の主観的評価を提供することができる。したがって、瞬き反応及び瞬き抑制を定量化する、本明細書に記載されるシステム及び方法は、閲覧者の瞬きの抑制を保証するのに十分にエンゲージしているものが何であり、エンゲージされていないものが何であるかを測定することにより、閲覧者エンゲージメントの経時的な測定値を提供する。
本開示の一実施形態は、人が見ているものにいかにエンゲージするかの測定値を導出するための視覚スキャン、眼球運動、瞬きデータ、及び瞬きタイミングデータの測定値を記述している。一態様では、閲覧者エンゲージメントの測定値としての瞬き関連データは、刺激の最もエンゲージする空間的特徴及び時間的特徴を特定するメカニズムを提供する。別の態様によれば、瞬き抑制測定値は、高速ペースの高速で変化している視覚表示内の顕著性瞬間に時間ロックされた自律反応及び異なるエンゲージメントの有望なインデックスを提供する。展開する内容に関する瞬き抑制のタイミングを精密に測定することにより、経時的に、閲覧者が見ているものの重要性の閲覧者の主観的評価を特定することができる。
したがって、本明細書に記載される本システムの様々な実施形態が一般に、以下により詳細に考察する様々なコンピュータハードウェアを含む専用又は汎用コンピュータとして実施されることが理解されよう。本開示の範囲内の実施形態は、記憶されたコンピュータ実行可能命令又はデータ構造を保持するか、又は有するコンピュータ可読媒体も含む。そのようなコンピュータ可読媒体は、汎用若しくは専用コンピュータによってアクセス可能であるか、又は通信ネットワークを通してダウンロード可能な任意の利用可能な媒体であることができる。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、フラッシュメモリ、EEPROM、CD−ROM、DVD、若しくは他の光ディスク記憶装置、磁気記憶装置若しくは他の磁気記憶装置、セキュアデジタル(SD:secure digital)、フラッシュメモリ、メモリスティック等の任意のタイプのリムーバブル不揮発性メモリ、又はコンピュータ実行可能命令若しくはデータ構造の形態のコンピュータプログラムコードを保持若しくは記憶するのに使用することができ、汎用コンピュータ、専用コンピュータ、若しくはモバイル装置によってアクセス可能な任意の他の媒体等の物理的記憶媒体を含むことができる。
情報がネットワーク又は別の通信接続(ハードワイヤード、無線、又はハードワイヤード若しくは無線の組み合わせ)を介してコンピュータに転送又は提供されると、コンピュータは、その接続を適宜、コンピュータ可読媒体として見る。したがって、任意のそのような接続は適宜、コンピュータ可読媒体と呼ばれ、コンピュータ可読媒体と見なされる。上記の組み合わせもコンピュータ可読媒体の範囲内に含まれるべきである。コンピュータ実行可能命令は、例えば、汎用コンピュータ、専用コンピュータ、又はモバイル装置プロセッサ等の専用処理装置に、特定の一機能又は機能群を実行させる命令及びデータを含む。
本開示の態様を実施し得る適切な計算環境の特徴及び態様を当業者は理解するであろう。必要ではないが、本発明は、上述したように、ネットワーキング環境内のコンピュータによって実行される、プログラムモジュール又はエンジン等のコンピュータ実行可能命令という全般的な文脈の中で説明されている。そのようなプログラムモジュールは多くの場合、フローチャート、シーケンス図、例示的な画面表示、及び当業者がそのようなコンピ
ュータプログラムモジュールをいかに作成しいかに使用するかを伝えるために使用する他の技法によって反映され、示される。一般に、プログラムモジュールは、コンピュータ内で特定のタスクを実行するか、又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、構成要素、データ構造等を含む。コンピュータ実行可能命令、関連付けられたデータ構造、及びプログラムモジュールは、本明細書に開示されるための方法のステップを実行するプログラムコードの例を表す。そのような実行可能命令又は関連付けられたデータ構造の特定のシーケンスは、そのようなステップに記載される機能を実施する対応する動作の例を表す。
パーソナルコンピュータ、ハンドヘルド装置、マルチプロセッサシステム、マイクロプロセッサベース又はプログラマブル消費者電子装置、ネットワーク接続されたPC、ミニコンピュータ、メインフレームコンピュータ等を含む多くのタイプのコンピュータシステム構成を有するネットワーク計算環境で本発明を実施し得ることも当業者は理解しよう。本発明は分散計算環境で実施され、分散計算環境では、タスクは、通信ネットワークを通してリンクされた(ハードワイヤードリンク、無線リンク、又はハードワイヤード若しくは無線リンクの組み合わせにより)ローカル及びリモートの処理装置によって実行される。分散計算環境では、プログラムモジュールは、ローカルメモリ記憶装置及びリモートメモリ記憶装置の両方に配置し得る。
示されていない、本発明を実施する例示的なシステムは、処理ユニットと、システムメモリと、システムメモリを含む様々なシステム構成要素を処理ユニットに結合するシステムバスとを含む従来のコンピュータの形態の汎用計算装置を含む。コンピュータは通常、読み書きがなされる1つ又は複数の磁気ハードディスクドライブ(「データ記憶装置」又は「データストレージ」又は他の名称でも呼ばれる)を含む。ドライブ及びそれに関連付けられたコンピュータ可読媒体は、コンピュータ実行可能命令、データ構造、プログラムモジュール、及びコンピュータの他のデータの不揮発性記憶を提供する。本明細書に記載される例示的な環境は、磁気ハードディスクを利用するが、磁気カセット、フラッシュメモリカード、デジタルビデオディスク(DVD)、ベルヌーイカートリッジ、RAM、ROM等を含め、リムーバブル磁気ディスク、リムーバブル光ディスク、データを記憶する他のタイプのコンピュータ可読媒体も使用可能である。
本明細書に記載される機能の大半を実施するコンピュータプログラムコードは通常、1つ又は複数のプログラムモジュールを含み、ハードディスク又は他の記憶媒体に記憶し得る。このプログラムコードは、当業者に既知のように、通常、オペレーティングシステム、1つ又は複数のアプリケーションプログラム、他のプログラムモジュール、及びプログラムデータを含む。ユーザは、キーボード、ポインティングデバイス、スクリプト言語で書かれたコンピュータプログラムコードを含むスクリプト、又はマイクロホン等の他の入力装置(図示せず)を通して、コマンド及び情報をコンピュータに入力し得る。これら及び他の入力装置は多くの場合、既知の電気接続、光学接続、又は無線接続を通して処理ユニットに接続される。
本発明の多くの態様を行うメインコンピュータは通常、更に後述する1つ又は複数のリモートコンピュータ又はデータソースへの論理接続を使用するネットワーキング環境で動作する。リモートコンピュータは、別のパーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピア装置又は他の一般的なネットワークノードであり得、通常、本発明が実施されるメインコンピュータシステムに関して上述した要素のうちの多く又は全てを含む。コンピュータ間の論理接続は、ここでは限定ではなく例として提示されるローカルエリアネットワーク(LAN:local area network)、広域ネットワーク(WAN:wide area network)、及び無線LAN(WLAN:wireless LAN)を含む。そのようなネットワーキング環境は、オフィス規模又は
企業規模のコンピュータネットワーク、イントラネット、及びインターネットで一般的である。
LAN又はWLANネットワーキング環境で使用される場合、本発明の態様を実施するメインコンピュータシステムは、ネットワークインタフェース又はアダプタを通してローカルネットワークに接続される。WAN又はWLANネットワーキング環境で使用される場合、コンピュータは、モデム、無線リンク、又はインターネット等の広域ネットワークを介して通信を確立する他のメカニズムを含み得る。ネットワーキング環境では、コンピュータに関して説明したプログラムモジュール又はその部分は、リモートメモリ記憶装置に記憶し得る。説明されるか、又は示されるネットワーク接続が例示であり、広域ネットワーク又はインターネットを介して通信を確立する他のメカニズムを使用してもよいことが理解されよう。
本発明の好ましい実施形態の上記の詳細な説明に鑑みて、本発明が広い有用性及び用途を受け入れる余地があることが当業者によって容易に理解されよう。様々な態様を好ましい実施形態に関連して説明したが、本発明の追加の態様、特徴、及び方法論が、当業者により、本明細書での説明から容易に認められるであろう。本明細書に説明された以外の本発明の多くの実施形態及び適合形態並びに多くの変形形態、変更形態、均等な構成及び方法論が、本発明の趣旨又は範囲から逸脱せずに、本発明及びその上記の説明から明らかになるか、又は合理的に示唆されよう。更に、本明細書において説明され特許請求される様々なプロセスのステップの任意のシーケンス及び/又は時間的順序は、本発明を実施するために考えられる最良の形態であるとみなされる。様々なプロセスのステップが、好ましいシーケンス又は時間的順序であるものとして示され説明されることがあるが、特定の意図する結果を達成するために特定のシーケンス又は順序で実行されるとの特定の指示がない限り、任意のそのようなプロセスのステップは、いかなる特定のシーケンス又は順序での実行にも限定されないことも理解されたい。大半の場合、そのようなプロセスのステップは、様々な異なるシーケンス及び順序で実行し得、それでもなお、本発明の範囲内である。加えて、幾つかのステップは同時に実行し得る。
実施形態は、当業者が、本発明及び様々な実施形態を、意図される特定の使用に合うような様々な変更形態と共に利用することができるように、本発明の原理及びその実際の用途を説明するために選ばれ、説明された。代替の実施形態は、本発明の趣旨及び範囲から逸脱せずに、本発明が関連する技術分野の当業者に明らかになろう。したがって、本発明の範囲は、上記の説明及びそこで説明される例示的な実施形態ではなく、添付の特許請求の範囲によって規定される。

Claims (131)

  1. 刺激に関する個人によるエンゲージメントの測定値を特定するための方法であって、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するステップと、を含み、
    それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、方法。
  2. 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するステップと、を更に含む、請求項1に記載の方法。
  3. 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項1又は2に記載の方法。
  4. 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項1〜3の何れか一項に記載の方法。
  5. 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項に記載の方法。
  6. 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項1〜3の何れか一項に記載の方法。
  7. 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜3の何れか一項に記載の方法。
  8. 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項1〜3の何れか一項に記載の方法。
  9. 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項1〜3の何れか一項に記載の方法。
  10. 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項1〜3の何れか一項に記載の方法。
  11. 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項10に記載の方法。
  12. 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するステップを更に含む、請求項1〜11の何れか一項に記載の方法。
  13. 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項1〜12の何れか一項に記載の方法。
  14. 前記同期させるステップは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けすることを含む、請求項1〜13の何れか一項に記載の方法。
  15. 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項1〜14の何れか一項に記載の方法。
  16. 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項1〜14の何れか一項に記載の方法。
  17. 比較を目的として、前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータをバイナリ形式に変換するステップを更に含む、請求項1〜16の何れか一項に記載の方法。
  18. 前記プロセッサで実行中のソフトウェアを介して、所定の人口統計パラメータに従って前記瞬きデータを分類するステップを更に含む、請求項1〜16の何れか一項に記載の方法。
  19. 前記刺激は聴覚刺激である、請求項1〜4および6〜18の何れか一項に記載の方法。
  20. 前記刺激は動的視覚刺激である、請求項2〜4および6〜18の何れか一項に記載の方法。
  21. 前記刺激は静的視覚刺激である、請求項2〜4および6〜18の何れか一項に記載の方法。
  22. 刺激に関する個人によるエンゲージメントの測定値を特定するためのシステムであって、
    プロセッサと、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    前記同期した瞬きデータ内の前記瞬き抑制パターンを前記刺激と比較して、前記瞬き抑制パターンと同時発生した前記刺激の部分を識別するために前記プロセッサで実行するソフトウェアと、を備え、
    それにより、前記瞬き抑制パターンは、前記刺激の前記同時発生部分との前記個人によるエンゲージメントのマーカーを示す、システム。
  23. 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
    前記眼球運動データから、前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
    前記複数の固視ロケーションを、前記刺激の前記同時発生部分での前記刺激と比較するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項22に記載のシステム。
  24. 前記刺激は、以下:動的刺激、動的視覚刺激、事前記録視覚刺激、事前記録聴覚刺激、事前記録視聴覚刺激、ライブ視覚刺激、ライブ聴覚刺激、ライブ視聴覚刺激、二次元視覚若しくは視聴覚刺激、又は三次元視覚若しくは視聴覚刺激のうちの1つ又は複数を含む、請求項22又は23に記載のシステム。
  25. 前記瞬き抑制パターンは、前記刺激中の前記個人の平均瞬き率を含む、請求項22〜24の何れか一項に記載のシステム。
  26. 前記刺激の前記同時発生部分は、前記刺激の全部を含む、請求項24に記載のシステム。
  27. 前記瞬き抑制パターンは、前記個人の経時的な瞬き率を含む、請求項22〜24の何れか一項に記載のシステム。
  28. 前記瞬き抑制パターンは、前記個人の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項22〜24の何れか一項に記載のシステム。
  29. 前記瞬き抑制パターンは、対照群の平均瞬き率と比較した、特定の時点での前記個人の瞬間瞬き率の測定値を含む、請求項22〜24の何れか一項に記載のシステム。
  30. 前記瞬き抑制パターンは、所定の対照瞬きデータと比較した前記同期した瞬きデータの測定値を含む、請求項22〜24の何れか一項に記載のシステム。
  31. 前記瞬き抑制パターンは、前記刺激での事象に関する瞬き抑制測定値を含む、請求項22〜24の何れか一項に記載のシステム。
  32. 前記刺激での前記事象は、物理的事象又は感情的事象を含む、請求項31に記載のシステム。
  33. 前記エンゲージメントのマーカーに基づいて、前記個人を1つ又は複数の予め定義されたカテゴリに分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜32の何れか一項に記載のシステム。
  34. 前記エンゲージメントのマーカーは、前記刺激の顕著部分に関連する、請求項22〜33の何れか一項に記載のシステム。
  35. 前記同期させるためのソフトウェアは、前記瞬きデータを前記刺激に時間ロック又は時間相関付けするために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜34の何れか一項に記載のシステム。
  36. 前記瞬きデータは、前記個人の瞳孔サイズの変化率に対応する、請求項22〜35の何れか一項に記載のシステム。
  37. 前記瞬きデータは、前記個人の瞼閉鎖に対応する、請求項22〜35の何れか一項に記載のシステム。
  38. 比較を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜37の何れか一項に記載のシステム。
  39. 所定の人口統計パラメータに従って前記瞬きデータを分類するために前記プロセッサで実行するソフトウェアを更に備える、請求項22〜37の何れか一項に記載のシステム。
  40. 前記刺激は聴覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
  41. 前記刺激は動的視覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
  42. 前記刺激は静的視覚刺激である、請求項22〜25および27〜39の何れか一項に記載のシステム。
  43. 刺激に対して個人が知覚する刺激顕著性を特定するための方法であって、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
    前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制期間を識別するステップであって、前記瞬き抑制期間は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するステップと、を含み、
    それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、方法。
  44. 前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記瞬きデータをバイナリ形式に変換するステップと、
    前記プロセッサで実行中のソフトウェアを介して、特定を目的として、前記眼球運動データを座標データに変換するステップと、を更に含む、請求項43に記載の方法。
  45. 前記同期した瞬きデータ内の前記瞬き抑制期間を識別する前記ステップは、
    前記プロセッサで実行中のソフトウェアを介して、データベースから対照瞬きデータを検索するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するステップと、を更に含み、
    それにより、前記差は前記瞬き抑制期間に対応する、請求項43又は44に記載の方法。
  46. 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項45に記載の方法。
  47. 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項45又は46に記載の方法。
  48. 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項45に記載の方法。
  49. 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項43〜48の何れか一項に記載の方法。
  50. 刺激に対して個人が知覚する刺激顕著性を特定するためのシステムであって、
    プロセッサと、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
    前記受信した瞬きデータ及び前記受信した眼球運動データを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の瞬き抑制期間を識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制期間は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    前記同期した瞬きデータ内で識別される瞬き抑制期間中、前記刺激に関する前記個人の前記同期した眼球運動データから少なくとも1つの空間固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、を備え、
    それにより、前記瞬き抑制期間及び前記少なくとも1つの空間固視ロケーションは、前記刺激に関する知覚時間的顕著性及び空間的顕著性のマーカーを示す、システム。
  51. 特定を目的として、前記瞬きデータをバイナリ形式に変換するために前記プロセッサで実行するソフトウェアと、
    特定を目的として、前記眼球運動データを座標データに変換するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項50に記載のシステム。
  52. 前記同期した瞬きデータ内の前記瞬き抑制期間を識別するための前記ソフトウェアは、
    データベースから対照瞬きデータを検索するために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータを前記対照瞬きデータと比較して、前記同期した瞬きデータと前記対照瞬きデータとの差を識別するために前記プロセッサで実行するソフトウェアと、を更に備え、
    それにより、前記差は前記瞬き抑制期間に対応する、請求項50又は51に記載のシステム。
  53. 前記対照瞬きデータは、刺激が存在しないときの複数の個人の平均瞬き率を含む、請求項52に記載のシステム。
  54. 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、以下:前記対照瞬きデータと比較した前記個人の瞬き率の増大、前記対照瞬きデータと比較した前記個人の瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つを含む、請求項52又は53に記載のシステム。
  55. 前記同期した瞬きデータと前記対照瞬きデータとの前記差は、前記個人の発達障害、認知障害、又は精神障害のマーカーを提供する、請求項52に記載のシステム。
  56. 前記瞬きデータは、定義された時間期間中の前記個人の瞬き率に対応する、請求項50〜55の何れか一項に記載のシステム。
  57. 個人にエンゲージする刺激の能力を評価するための方法であって、
    前記刺激を個人に提示するステップと、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するステップであって、前記瞬き抑制測定値は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するステップと、を含み、
    それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示す、方法。
  58. 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項57に記載の方法。
  59. 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項58に記載の方法。
  60. 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項57〜59の何れか一項に記載の方法。
  61. 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項57〜59の何れか一項に記載の方法。
  62. 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項57〜59の何れか一項に記載の方法。
  63. 個人にエンゲージする刺激の能力を評価するためのシステムであって、
    プロセッサと、
    前記刺激を個人に提示するために前記プロセッサで実行するソフトウェアと、
    前記刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    前記受信した瞬きデータから前記個人の瞬き抑制測定値を識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制測定値は、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    前記受信した瞬きデータ内の前記瞬き抑制測定値が、瞬き抑制閾値を満たすか否かを決定するために前記プロセッサで実行するソフトウェアと、を備え
    それにより、前記瞬き抑制閾値は、前記個人にエンゲージする前記刺激の前記能力を示す、システム。
  64. 前記瞬き抑制閾値は、精神状態のマーカーを示す、請求項63に記載のシステム。
  65. 前記瞬き抑制閾値は、正常から精神病理にわたる範囲から選択される、請求項64に記載のシステム。
  66. 前記瞬き抑制閾値は、精神状態を用いて前記個人を診断するための診断測定値に対応する、請求項63〜65の何れか一項に記載のシステム。
  67. 前記瞬き抑制閾値は、前記刺激とのエンゲージメントの所定の測定値に対応する、請求項63〜65の何れか一項に記載のシステム。
  68. 前記瞬き抑制閾値は、前記個人を分類するための所定のカテゴリに対応する、請求項63〜65の何れか一項に記載のシステム。
  69. 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするための方法であって、
    刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を介して収集される、ステップと、
    プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、データベースから視覚刺激に関連する事象データを検索するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するステップであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ステップと、を含む、方法。
  70. 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するステップと、
    前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するステップであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記対照群の前記メンバの前記スキャンパスの収束を識別するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するステップと、を更に含む、請求項69に記載の方法。
  71. 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項69又は70に記載の方法。
  72. 前記事象データの前記パラメータは時間値を含む、請求項69又は70に記載の方法。
  73. 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項69又は70に記載の方法。
  74. 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項69〜73の何れか一項に記載の方法。
  75. 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項69〜73の何れか一項に記載の方法。
  76. 前記事象データは、以下:視覚刺激内の物理的事象、視覚刺激内の感情的事象、視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項70〜75の何れか一項に記載の方法。
  77. 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項69〜76の何れか一項に記載の方法。
  78. 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするためのシステムであって、
    プロセッサと、
    刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を介して収集される、ソフトウェアと、
    前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    データベースから視覚刺激に関連する事象データを検索するために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の前記瞬き抑制パターンのパラメータを、前記視覚刺激に関連する前記事象データのパラメータと比較して、デルタパラメータを特定するために前記プロセッサで実行するソフトウェアであって、前記デルタパラメータは、前記個人が精神障害を有する確率を示す、ソフトウェアと、を備える、システム。
  79. 前記刺激に関する前記個人の目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
    前記刺激に関する対照群の各メンバの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
    前記対照群の前記メンバのそれぞれ及び前記個人の前記データに基づいて、三次元スキャンパスを生成するために前記プロセッサで実行するソフトウェアであって、前記スキャンパスの次元のうちの2つは、前記メンバのそれぞれ及び前記個人の注視位置に対応し、前記次元のうちの1つは時間に対応する、ソフトウェアと、
    前記対照群の前記メンバの前記スキャンパスの収束を識別するために前記プロセッサで実行するソフトウェアと、
    前記個人の前記スキャンパスを、前記収束の領域内の前記対照群の前記メンバの前記スキャンパスと比較するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項78に記載のシステム。
  80. 前記事象データの前記パラメータは、所定のタイムスタンプ付き事象を含む、請求項78又は79に記載のシステム。
  81. 前記事象データの前記パラメータは時間値を含む、請求項78又は79に記載のシステム。
  82. 前記瞬き抑制パターンの前記パラメータは時間値を含む、請求項78又は79に記載のシステム。
  83. 前記デルタパラメータは、所定の閾値を超える時間値を含む、請求項7882の何れか一項に記載のシステム。
  84. 前記デルタパラメータは、所定の閾値未満である時間値を含む、請求項7882の何れか一項に記載のシステム。
  85. 少なくとも1つの前記デルタパラメータに基づいて、前記個人に診断を提供するために前記プロセッサで実行するソフトウェアを更に備える、請求項7884の何れか一項に記載のシステム。
  86. 前記事象データは、以下:動的視覚刺激内の物理的事象、動的視覚刺激内の感情的事象、動的視覚刺激に基づいて瞬きを生じるか、又は抑制すると推測される事象のうちの1つ又は複数に対応する、請求項7985の何れか一項に記載のシステム。
  87. 前記瞬き抑制パターンは、前記個人の平均瞬き率の分散測定値と比較した、前記個人の瞬間瞬き率の測定値を含む、請求項7886の何れか一項に記載のシステム。
  88. 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするための方法であって、
    刺激への前記個人の瞬き反応を示す瞬きデータを受信するステップであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ステップと、
    プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激と同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すステップと、を含む、方法。
  89. 精神状態は発達障害又は認知障害を含む、請求項88に記載の方法。
  90. 前記対照瞬き抑制パターンは、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項88又は89に記載の方法。
  91. 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項88又は89に記載の方法。
  92. 前記複数の個人の前記データを並べ替える前記ステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項91に記載の方法。
  93. 前記複数の個人の前記データを並べ替える前記ステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項91に記載の方法。
  94. 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項8893の何れか一項に記載の方法。
  95. 眼球監視装置を使用して、個人の精神障害の評価、監視、又は診断の補助をするためのシステムであって、
    プロセッサと、
    刺激への前記個人の瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアであって、前記瞬きデータは前記眼球監視装置を使用して収集される、ソフトウェアと、
    前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    データベースから、前記個人に表示される前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアと、
    前記同期した瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記瞬き抑制パターンが、前記対照瞬き抑制パターンの範囲外にあるか否かを決定し、それにより、前記個人が精神障害を有する確率を示すために前記プロセッサで実行するソフトウェアと、を備える、システム。
  96. 精神状態は発達障害又は認知障害を含む、請求項95に記載のシステム。
  97. 前記対照瞬き抑制パターンは、動的視覚刺激に応答しての複数の個人の平均瞬き率を含む、請求項95又は96に記載のシステム。
  98. 前記対照瞬き抑制パターンは、複数の個人の前記瞬きデータを並べ替えることによって得られる前記複数の個人の平均瞬き率の確率分布を含む、請求項95又は96に記載のシステム。
  99. 前記複数の個人の前記データを並べ替えるステップは、瞬きデータ収集の元のタイミングからの循環シフトを含む、請求項98に記載のシステム。
  100. 前記複数の個人の前記データを並べ替えるステップは、各個人の瞬き及び瞬き間隔の順序をランダム化することを含む、請求項98に記載のシステム。
  101. 前記対照瞬き抑制パターンは、精神状態の重症度を示す、請求項95100の何れか一項に記載のシステム。
  102. 瞬き抑制に基づいて刺激へのユーザ反応を評価するための方法であって、
    刺激へのユーザの瞬き反応を示す瞬きデータを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の瞬き抑制パターンを識別するステップであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、データベースから、前記刺激についての対照瞬き抑制パターンを検索するステップであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するステップと、を含む、方法。
  103. 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項102に記載の方法。
  104. 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するステップと、を更に含む、請求項102又は103に記載の方法。
  105. 瞬き抑制に基づいて刺激へのユーザ反応を評価するためのシステムであって、
    プロセッサと、
    刺激へのユーザの瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    前記瞬きデータ内の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアであって、前記瞬き抑制パターンは、前記受信した瞬きデータと、テストから導き出される前記個人に関連付けられた瞬きの機会確率との比較によって識別される、ソフトウェアと、
    データベースから、前記刺激についての対照瞬き抑制パターンを検索するために前記プロセッサで実行するソフトウェアであって、前記対照パターンは予め定義されたユーザカテゴリに対応する、ソフトウェアと、
    前記瞬きデータ内の前記瞬き抑制パターンを、前記対照瞬き抑制パターンと比較して、前記ユーザが前記予め定義されたユーザカテゴリ内にあるか否かを決定するために前記プロセッサで実行するソフトウェアと、を備える、システム。
  106. 前記瞬きデータは、眼球監視装置の使用を介して受信される、請求項105に記載のシステム。
  107. 時間の経過に伴い、前記ユーザの追加の瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    前記追加の瞬きデータ内の追加の瞬き抑制パターンを識別するために前記プロセッサで実行するソフトウェアと、
    前記追加の瞬き抑制パターンを前記瞬き抑制パターンと比較して、前記ユーザが前記所定のユーザカテゴリ内に留まっているか否かを決定するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項105又は106に記載のシステム。
  108. 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するための方法であって、
    前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するステップと、
    プロセッサで実行中のソフトウェアを介して、データベースから機会確率瞬きデータを検索するステップであって、前記機会確率瞬きデータは、テストから導き出される前記複数の個人のそれぞれに関連付けられた瞬きの機会確率を識別する、ステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記機会確率瞬きデータと比較して、前記受信した瞬きデータと前記機会確率瞬きデータとの1つ又は複数の差を識別するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記機会確率瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、を含む、方法。
  109. 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するステップと、を更に含む、請求項108に記載の方法。
  110. 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項109に記載の方法。
  111. 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項109又は110に記載の方法。
  112. 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点座標データに対応する、請求項109又は110に記載の方法。
  113. 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項109112の何れか一項に記載の方法。
  114. 前記三次元スキャンパスの周囲に注目漏斗を表示するステップを更に含む、請求項113に記載の方法。
  115. 前記プロセッサで実行中のソフトウェアを介して、前記複数の個人の前記瞬きデータ及び前記眼球運動データを集計するステップを更に含む、請求項109114の何れか一項に記載の方法。
  116. 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項108115の何れか一項に記載の方法。
  117. 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項108116の何れか一項に記載の方法。
  118. 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するステップを更に含む、請求項109に記載の方法。
  119. 前記プロセッサで実行中のソフトウェアを介して、前記受信した瞬きデータを前記刺激に同期させるステップと、
    前記プロセッサで実行中のソフトウェアを介して、前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するステップと、を更に含む、請求項108118の何れか一項に記載の方法。
  120. 刺激に関する複数の個人の時間の経過に伴う視覚的エンゲージメントを表示するためのシステムであって、
    プロセッサと、
    前記複数の個人のそれぞれの、前記刺激への瞬き反応を示す瞬きデータを受信するために前記プロセッサで実行するソフトウェアと、
    データベースから機会確率瞬きデータを検索するために前記プロセッサで実行するソフトウェアであって、前記機会確率瞬きデータは、テストから導き出される前記複数の個人のそれぞれに関連付けられた瞬きの機会確率を識別する、ソフトウェアと、
    前記受信した瞬きデータを前記機会確率瞬きデータと比較して、前記受信した瞬きデータと前記機会確率瞬きデータとの1つ又は複数の差を識別するために前記プロセッサで実行するソフトウェアと、
    前記受信した瞬きデータと前記機会確率瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、を備える、システム。
  121. 前記刺激に関する前記複数の個人のそれぞれの目の動きを示す眼球運動データを受信するために前記プロセッサで実行するソフトウェアと、
    前記眼球運動データから、前記複数の個人の前記刺激に関する複数の固視ロケーションを特定するために前記プロセッサで実行するソフトウェアと、
    前記複数の固視ロケーション及び前記受信した瞬きデータを前記刺激と同期させるために前記プロセッサで実行するソフトウェアと、
    前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの表示を生成するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項120に記載のシステム。
  122. 前記複数の固視ロケーションの前記表示は、三次元表示を含み、次元のうちの2つは、前記複数の個人のそれぞれの前記複数の固視ロケーションに対応し、前記次元のうちの1つは時間に対応する、請求項121に記載のシステム。
  123. 前記複数の固視ロケーションは、前記刺激の1つ又は複数のフレームに関する前記複数の個人のそれぞれの目の固視ロケーションに対応する、請求項121又は122に記載のシステム。
  124. 前記複数の固視ロケーションは、前記刺激に関する前記複数の個人のそれぞれの注視点座標データに対応する、請求項121又は122に記載のシステム。
  125. 前記複数の固視ロケーションの前記表示は、三次元スキャンパスを含む、請求項121124の何れか一項に記載のシステム。
  126. 前記三次元スキャンパスの周囲に注目漏斗を表示するために前記プロセッサで実行するソフトウェアを更に備える、請求項125に記載のシステム。
  127. 前記複数の個人の前記瞬きデータ及び前記眼球運動データを集計するために前記プロセッサで実行するソフトウェアを更に備える、請求項121126の何れか一項に記載のシステム。
  128. 前記対照瞬きデータは、刺激が存在していないときの前記複数の個人とは異なる個人群の平均瞬き率を含む、請求項120127の何れか一項に記載のシステム。
  129. 前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差は、以下:前記対照瞬きデータと比較した瞬き率の増大、前記対照瞬きデータと比較した瞬き率の低減、所定の時間期間内の瞬きの欠如、所定の時間期間内に所定の瞬き数を超えることのうちの1つ又は複数を含む、請求項120128の何れか一項に記載のシステム。
  130. 個人の診断に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差に対応する1つ又は複数の時点での前記複数の固視ロケーションの前記表示を使用するために前記プロセッサで実行するソフトウェアを更に備える、請求項121に記載のシステム。
  131. 前記受信した瞬きデータを前記刺激に同期させるために前記プロセッサで実行するソフトウェアと、
    前記刺激に関連して、前記受信した瞬きデータと前記対照瞬きデータとの前記1つ又は複数の差の表示を生成するために前記プロセッサで実行するソフトウェアと、を更に備える、請求項120130の何れか一項に記載のシステム。
JP2015547517A 2012-12-11 2013-12-11 エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 Expired - Fee Related JP6426105B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261735865P 2012-12-11 2012-12-11
US61/735,865 2012-12-11
PCT/US2013/074487 WO2014093546A2 (en) 2012-12-11 2013-12-11 Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience

Publications (3)

Publication Number Publication Date
JP2016504089A JP2016504089A (ja) 2016-02-12
JP2016504089A5 JP2016504089A5 (ja) 2017-01-26
JP6426105B2 true JP6426105B2 (ja) 2018-11-21

Family

ID=49958659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015547517A Expired - Fee Related JP6426105B2 (ja) 2012-12-11 2013-12-11 エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法

Country Status (15)

Country Link
US (7) US9510752B2 (ja)
EP (1) EP2931126B1 (ja)
JP (1) JP6426105B2 (ja)
KR (1) KR102181927B1 (ja)
CN (1) CN104968270B (ja)
AU (2) AU2013359304B2 (ja)
BR (1) BR112015013489A2 (ja)
CA (1) CA2894414C (ja)
ES (1) ES2751380T3 (ja)
HK (1) HK1212182A1 (ja)
IL (1) IL239363B (ja)
MX (1) MX359676B (ja)
NZ (1) NZ709258A (ja)
SG (1) SG11201504601XA (ja)
WO (1) WO2014093546A2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10607305B2 (en) * 2005-03-05 2020-03-31 Jeb C. Griebat Method for questioning jurors
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US9723992B2 (en) * 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US10074024B2 (en) * 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
GB2511237A (en) * 2011-12-05 2014-08-27 Gautam Singh Computer implemented system and method for statistically assessing co-scholastic skills of user
KR102181927B1 (ko) * 2012-12-11 2020-11-24 아미 클린 교감 및 지각된 자극 현저성의 표지로서 깜박임 억제를 검출하기 위한 시스템들 및 방법들
JP6797683B2 (ja) * 2013-10-17 2020-12-09 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド 乳児及び子供の発達をアイ・トラッキングによって評価するための方法
GB201319619D0 (en) * 2013-11-06 2013-12-18 Diamentech Ltd System for assessing a mental health disorder
US9357917B2 (en) * 2014-07-28 2016-06-07 Google Technology Holdings LLC Method and apparatus for managing blinking
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
CN105100791B (zh) * 2015-09-02 2017-04-05 中国科学院软件研究所 一种用于测量立体视觉舒适度的系统及方法
US11540009B2 (en) 2016-01-06 2022-12-27 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
EP4080794A1 (en) 2016-01-06 2022-10-26 TVision Insights, Inc. Systems and methods for assessing viewer engagement
FR3048542A1 (fr) * 2016-03-01 2017-09-08 Valeo Comfort & Driving Assistance Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile
US10181078B1 (en) * 2016-11-07 2019-01-15 National Technology & Engineering Solutions Of Sandia, Llc Analysis and categorization of eye tracking data describing scanpaths
MA46910A (fr) 2016-11-22 2019-10-02 Janssen Pharmaceutica Nv Méthodes d'identification de patients atteints de schizophrénie à risque de rechute
JP2018093350A (ja) * 2016-12-01 2018-06-14 有限会社曽根地所 注目度評価システム
CN106681495B (zh) * 2016-12-08 2018-09-14 华南理工大学 一种基于eog的异步字符输入方法及装置
US10497242B2 (en) 2016-12-15 2019-12-03 David H. Williams Systems and methods for monitoring for and preempting pre-identified restriction violation-related behavior(s) of persons under restriction
US11412353B2 (en) 2016-12-15 2022-08-09 Conquer Your Addiction Llc Systems and methods for monitoring for and preempting the risk of a future occurrence of a quarantine violation
US10853897B2 (en) 2016-12-15 2020-12-01 David H. Williams Systems and methods for developing, monitoring, and enforcing agreements, understandings, and/or contracts
US10555112B2 (en) 2016-12-15 2020-02-04 David H. Williams Systems and methods for providing location-based security and/or privacy for restricting user access
US11636941B2 (en) 2016-12-15 2023-04-25 Conquer Your Addiction Llc Dynamic and adaptive systems and methods for rewarding and/or disincentivizing behaviors
EP3613224A4 (en) 2017-04-20 2020-12-30 TVision Insights, Inc. METHOD AND DEVICE FOR MULTI-TELEVISION MEASUREMENTS
EP3461394A1 (en) * 2017-10-02 2019-04-03 Essilor International Method and system for adapting the visual and/or visual-motor behaviour of a person
US10841651B1 (en) * 2017-10-10 2020-11-17 Facebook, Inc. Systems and methods for determining television consumption behavior
JP6598141B2 (ja) * 2017-11-16 2019-10-30 マツダ株式会社 認知時機推定装置及び認知時機推定方法
WO2019181537A1 (ja) * 2018-03-22 2019-09-26 国立研究開発法人科学技術振興機構 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム
CN108932532A (zh) * 2018-07-11 2018-12-04 杭州电子科技大学 一种针对视频显著性图预测所需的眼动数据数目建议方法
JP2018202191A (ja) * 2018-08-10 2018-12-27 株式会社東芝 アイウエア、データ収集システム及びデータ収集方法
CN109259775A (zh) * 2018-08-30 2019-01-25 清华大学 一种人脸刺激范式生成方法及自闭症分析系统
CN110944232B (zh) * 2018-09-21 2021-11-19 中国移动通信有限公司研究院 一种监测认知行为的方法、装置及机顶盒
EP3877898A4 (en) * 2018-11-09 2022-08-17 Akili Interactive Labs, Inc. FACIAL EXPRESSION DETECTION FOR SCREENING AND TREATMENT OF MOOD DISORDERS
JP7396681B2 (ja) 2018-12-17 2023-12-12 株式会社夏目綜合研究所 脳疾患の診断装置
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
EP3964130A1 (en) * 2020-09-03 2022-03-09 Tata Consultancy Services Limited System and method for eye-blink based assessment of sustained visual attention of a target
CN112891164A (zh) * 2021-01-13 2021-06-04 浙江工业大学 一种虚拟现实环境下的弱视康复训练专注度评估方法
BE1029415B1 (fr) 2021-05-19 2022-12-19 P³Lab Un système et un procédé de mesure de réactions d’un sujet, un programme d’ordinateur et un support lisible par ordinateur
US20230095350A1 (en) * 2021-09-17 2023-03-30 Smart Science Technology, LLC Focus group apparatus and system
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4889422A (en) 1986-01-28 1989-12-26 George Pavlidis Method and means for detecting dyslexia
US5035500A (en) 1988-08-12 1991-07-30 Rorabaugh Dale A Automated ocular perimetry, particularly kinetic perimetry
US5150716A (en) 1991-01-28 1992-09-29 Emile Franssen System for diagnosis and staging of dementia by neurologic examination
US5384593A (en) 1993-08-05 1995-01-24 Gell, Jr.; Harold A. Method and apparatus for reflex blink reaction conditioning
US5880812A (en) 1997-03-13 1999-03-09 Ramot-University Authority For Applied Research And Industrial Development, Ltd. Method and apparatus for evaluating and mapping visual field
WO1999018842A1 (en) 1997-10-16 1999-04-22 The Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
CA2327249C (en) 1998-04-10 2008-07-08 Visual Resources, Inc. Method and apparatus for training visual attention capabilities of a subject
CA2298515A1 (en) 1999-02-11 2001-08-10 Queen's University At Kingston Method and apparatus for detecting eye movement
US6116736A (en) 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
US6120461A (en) 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
NZ521952A (en) 2000-04-17 2004-03-26 Stuart Graham Method and apparatus for electrophysiological assessment of visual function using a head-mounted stereo display
US6601021B2 (en) 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data
US6670963B2 (en) 2001-01-17 2003-12-30 Tektronix, Inc. Visual attention model
US20020154833A1 (en) 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
US6712468B1 (en) 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
US6755527B1 (en) 2001-12-14 2004-06-29 Oracle International Corporation Techniques for analyzing eye movements
JP3625064B2 (ja) 2002-06-28 2005-03-02 独立行政法人理化学研究所 眼底の立体表示および座標計測装置
US20040015098A1 (en) 2002-07-19 2004-01-22 Souvestre Philippe A. Dynamic ocular visual monitoring system
CN100438259C (zh) 2003-08-05 2008-11-26 松下电器产业株式会社 直流电源和配备电源的电池供电电子装置
US20080039698A1 (en) * 2003-08-21 2008-02-14 Peter Geoffrey Burton Cognitive Processing
US7819818B2 (en) 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
US20050273017A1 (en) 2004-03-26 2005-12-08 Evian Gordon Collective brain measurement system and method
JP4586443B2 (ja) * 2004-07-16 2010-11-24 トヨタ自動車株式会社 情報提供装置
US7396129B2 (en) 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US20060167670A1 (en) 2005-01-26 2006-07-27 Deering Michael F Photon-based modeling of the human eye and visual perception
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
JP2007002630A (ja) 2005-06-27 2007-01-11 Fuji Electric Retail Systems Co Ltd 扉ロック装置および自動販売機
US20070066916A1 (en) * 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
US7384145B2 (en) 2006-02-16 2008-06-10 The Board Of Trustees Of The University Of Illinois Mapping retinal function using corneal electrode array
EP2007271A2 (en) * 2006-03-13 2008-12-31 Imotions - Emotion Technology A/S Visual attention and emotional response detection and display system
CN101583313B (zh) * 2007-01-19 2011-04-13 旭化成株式会社 觉醒状态判断模型生成装置、觉醒状态判断装置以及警告装置
US7824034B2 (en) 2007-09-19 2010-11-02 Utc Fire & Security Americas Corporation, Inc. Iris imaging system and method for the same
US7959578B2 (en) 2008-02-01 2011-06-14 Lonky Martin L Methods and techniques to measure, map and correlate ocular micro-movement and ocular micro-tremor (OMT) signals with cognitive processing capabilities in ADD/ADHD individuals
US20100010370A1 (en) * 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
NZ716924A (en) 2008-12-09 2020-01-31 Stephanie Fryar Williams Biomarkers for the diagnosis and/or prediction of susceptibility to mental and neurodegenerative disorders
US8808195B2 (en) 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
WO2011024134A1 (en) 2009-08-26 2011-03-03 Ecole Polytechnique Federale De Lausanne (Epfl) Wearable systems for audio, visual and gaze monitoring
CN101813976A (zh) * 2010-03-09 2010-08-25 华南理工大学 基于soc的视线跟踪人机交互方法及装置
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
WO2012061871A1 (en) 2010-11-08 2012-05-18 Optalert Australia Pty Ltd Fitness for work test
JP5912351B2 (ja) 2011-09-05 2016-04-27 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
GB201200122D0 (en) 2012-01-05 2012-02-15 Univ Aberdeen An apparatus and a method for psychiatric evaluation
US9314157B2 (en) 2012-03-22 2016-04-19 The Curators Of The University Of Missouri Device to measure pupillary light reflex in infants and toddlers
US8668337B2 (en) 2012-04-18 2014-03-11 TBI Diagnostics LLC System for the physiological evaluation of brain function
KR102181927B1 (ko) * 2012-12-11 2020-11-24 아미 클린 교감 및 지각된 자극 현저성의 표지로서 깜박임 억제를 검출하기 위한 시스템들 및 방법들

Also Published As

Publication number Publication date
KR20150103051A (ko) 2015-09-09
SG11201504601XA (en) 2015-07-30
ES2751380T3 (es) 2020-03-31
US9510752B2 (en) 2016-12-06
BR112015013489A2 (pt) 2017-07-11
CN104968270A (zh) 2015-10-07
US10016156B2 (en) 2018-07-10
US20150297075A1 (en) 2015-10-22
US20240023859A1 (en) 2024-01-25
US10052057B2 (en) 2018-08-21
US20170014050A1 (en) 2017-01-19
US20220061725A1 (en) 2022-03-03
JP2016504089A (ja) 2016-02-12
IL239363A0 (en) 2015-07-30
HK1212182A1 (en) 2016-06-10
CA2894414C (en) 2023-08-29
IL239363B (en) 2018-08-30
US20140192325A1 (en) 2014-07-10
AU2018222906A1 (en) 2018-09-13
US11759135B2 (en) 2023-09-19
AU2013359304B2 (en) 2018-09-13
US9861307B2 (en) 2018-01-09
MX359676B (es) 2018-10-05
WO2014093546A3 (en) 2014-08-07
EP2931126B1 (en) 2019-07-24
WO2014093546A2 (en) 2014-06-19
KR102181927B1 (ko) 2020-11-24
NZ709258A (en) 2020-05-29
MX2015007409A (es) 2015-11-06
AU2018222906B2 (en) 2020-01-23
EP2931126A2 (en) 2015-10-21
CA2894414A1 (en) 2014-06-19
CN104968270B (zh) 2019-11-01
US10987043B2 (en) 2021-04-27
US20190029583A1 (en) 2019-01-31
US20170027493A1 (en) 2017-02-02
AU2013359304A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP6426105B2 (ja) エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法
US20230056506A1 (en) Systems and methods for assessing and improving sustained attention
Chen et al. Are you really angry? Detecting emotion veracity as a proposed tool for interaction
Perfect et al. Eye closure reduces the cross-modal memory impairment caused by auditory distraction.
Beringer et al. Reliability and validity of machine vision for the assessment of facial expressions
Zhang et al. The effects of probe similarity on retrieval and comparison processes in associative recognition
US20210022637A1 (en) Method for predicting efficacy of a stimulus by measuring physiological response to stimuli
Gilroy et al. Evaluating multimodal affective fusion using physiological signals
Soleymani et al. Behavioral and physiological responses to visual interest and appraisals: Multimodal analysis and automatic recognition
Baharom et al. Positive emotion recognition through eye tracking technology
Huan et al. Designing an Engaging Story-stem taken from the MCAST test
Vlasceanu et al. Perceptual discrimination of action formidableness and friendliness and the impact of autistic traits
De Rus et al. AI-assisted affective computing and spatial audio for interactive multimodal virtual environments: research proposal
Janus (Dis) Entangling Lies and Emotion
Dawson Visual attention during conversation: an investigation using real-world stimuli.
Nomura A computational and empirical study on blink synchronization induced by performer's inputs
Anderson et al. To freeze or not to freeze: A culture-sensitive motion capture approach to detecting deceit
Fassnidge The Visually-Evoked Auditory Response
Zhang et al. Mitigating Cybersickness Using Presence Enhancement by Situational Narratives in Virtual Reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181024

R150 Certificate of patent or registration of utility model

Ref document number: 6426105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees