JP6272829B2 - 注意測定方法 - Google Patents

注意測定方法 Download PDF

Info

Publication number
JP6272829B2
JP6272829B2 JP2015507393A JP2015507393A JP6272829B2 JP 6272829 B2 JP6272829 B2 JP 6272829B2 JP 2015507393 A JP2015507393 A JP 2015507393A JP 2015507393 A JP2015507393 A JP 2015507393A JP 6272829 B2 JP6272829 B2 JP 6272829B2
Authority
JP
Japan
Prior art keywords
eye
stimulus
measuring
attention
stimuli
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015507393A
Other languages
English (en)
Other versions
JP2015518402A (ja
Inventor
ハンス スペル,
ハンス スペル,
Original Assignee
ウニベルシタ デ バルセローナ
ウニベルシタ デ バルセローナ
インスティテューシオ カタラーナ デ レセルカ イ エストゥディス アバンサッツ
インスティテューシオ カタラーナ デ レセルカ イ エストゥディス アバンサッツ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウニベルシタ デ バルセローナ, ウニベルシタ デ バルセローナ, インスティテューシオ カタラーナ デ レセルカ イ エストゥディス アバンサッツ, インスティテューシオ カタラーナ デ レセルカ イ エストゥディス アバンサッツ filed Critical ウニベルシタ デ バルセローナ
Publication of JP2015518402A publication Critical patent/JP2015518402A/ja
Application granted granted Critical
Publication of JP6272829B2 publication Critical patent/JP6272829B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、人の注意を測定する方法、ならびにそのような方法を実行するのに適したコンピュータプログラム製品およびシステムに関する。
人間の脳に到達する感覚情報のほとんどは、目を通して行われる。人は見るときに、衝動性眼球運動により視覚的な環境にざっと目を通す。人は、毎秒2〜3回注視を移す。2つの連続的衝動性眼球運動の間に、目は、短時間、即ち通常100〜1000msの間は、静止状態を保持する。この安定した注視(または固視)期間に、中心窩における視覚情報は、より詳細に処理される。中心窩は、人の網膜の小さな中心領域であり、非常に高い視力を有する。中心窩は、視角の2〜3度を扱う。ゆえに世界がよく見えるように、脳は、注視物体の像が中心窩に収まるように目を向けなければならない。眼球運動は、ゆえに視覚認識にとって非常に重要である。この理由のために、目の固視(期間、場所、頻度、反復など)は、領域が被験者にとってどのくらい重要であり、どれくらい注意が向けられているかを知らせるものであると考えられている。
目の固視中に、人の周囲の物体は、人の認識から消える(トロクスラー効果)。これを防止するために、固視中に小さな眼球運動が行われる。固視中の微小衝動性眼球運動が、固視中の認識を妨げるものであることを実証する研究がある(Martinez−Conde,S.,Macknick,S.L.,Troncoso,X.G.,&Hubel, D.H.(2009)、微小衝動性眼球運動:神経生理学的解析、神経科学の傾向、32, 463−75)。しかしながら、固視の微小衝動性眼球運動は、実験室での人工物であり、視覚機能に何の役割も有していない可能性があることを示す議論を提供する研究もある(Collewijn、H.,&Kowler、E.(2008)、視覚および眼球運動制御のための衝動性眼球運動の意義、視覚学会誌、8(14)、20、1−21)。ゆえに、視覚認識の微小衝動性眼球運動の役割は、いまもなお討論されている。認識に加え、微小衝動性眼球運動が、視覚的注意に役割を有するかどうかも討論される。一方で、微小衝動性眼球運動の方向は、信頼性の高い進行中の注意の尺度(a reliable on−line measure of attention)となりうる(Engbert、R.,&Kliegl、R.(2003)。衝動性眼球運動は潜在的注意の方向付けを明らかにする、 視覚研究、43、1035−1045)。他方で、固視の眼球運動は、潜在的注意の指標となりえない(Horowitz, T.S., Fine, E.M., Fencsik, D.E., Yurgenson, S. and Wolfe, J.M.(2007)固視の眼球運動は、潜在的注意の指標ではない、 心理科学、18、356)。
目は、頭部で2つの目の位置が異なるため、わずかに異なる像の投影を受け取る。したがって、物体を見るときに、目は、像の投影が両目の網膜の中心となるように、縦軸の周りを回転しなければならない。両眼離反運動は、単一の両眼視を得るために、反対方向に両目を同時に動かすことをいう。輻輳は、互いに向かって両目を同時に内側へ移動させることであり、開散は、両目を同時に外側への移動させることである。ゆえに、近い物体を見るために、目が輻輳を実行するのに対し、離れた物体を見るためには、目は、開散を実行する。しかしながら、左右の目で異なる視点が観察されるので、空間の多く他の点は、対応する網膜の位置に該当しない。視覚的両眼視差は、両目の投影の点の間のこの差を画定する。脳は、奥行き情報を2次元網膜像から抽出するために、この両眼視差を使用する。このために、両眼離反運動は、奥行き認識のための重要な視覚的手がかりと見なされる。
注意および/または他の多少なりとも関連する認知行動を測定するための方法が、従来技術において知られている。それらの方法のほとんどが、注意についての結論を得るために、多くの異なる目の動き(例えば、衝動性眼球運動、瞬き、まぶた、固視、瞳孔拡張、開散など)を特定し測定しようとするものである。この種の方法の欠点は、この種の方法が、通常、大量のデータを収集すること、および当該収集されたデータにおける大量の計算を実行することを含むので、多少の非効率性をもたらすことがあり、ゆえに、強力で高価な計算リソースを必要とすることがあるということであろう。
もう1つの不都合な点は、これらの方法が多くの異なる目の動きを考慮しているので、注意を注意と異なる他の認知プロセス(例えば、認識、記憶、経験など)と混同する測定値を生成することがあり、注意のはっきりした指標を生成しないということであろう。
さらなる欠点は、これらの方法が、通常、数分にもなりうる、長い時間の尺度を考慮して状態(例えば、注意に関連した状態)を測定するので、時間がかかりすぎて、多少なりとも信頼できる結論を得ることができないことがあるということであろう。これらの長い時間の尺度は、異なる目の動きを考慮する結果として、これらの方法にとっては必要となり得るが、それらの一部は、収集されたデータの一致しない部分を導入することもある。非常に大量のデータを収集すること、および前記データにおいて複雑な計算を実行することが、ある意味で、このような一致しない部分を減衰/補償することを目的とする可能性があることを理解することは、理にかなっているようだ。
例えば、US2007291232A1は、先ほど説明された種類の方法を開示している。この方法は、タスクを実行する被験者における注視点、瞳孔の動き、瞳孔反射、および他のパラメータを監視し、データをデータベースに収集し、データベースのデータを分析し、ならびに被験者を、リアルタイムで被験者の具体的な精神習熟度を示すスコアに割り当てることにより、精神習熟度を決定することを目的とする。精神習熟とは、決定されたタスクを実行する際に、視覚的注意を払う能力を含むことができる。従って、この方法の目的が、注意を精神習熟のパラメータとして測定することであると理解できる。この方法は、前述の欠点を有する。
したがって、依然として、上述の問題の少なくとも一部を解決する、人の注意を測定する、新しい方法、コンピュータプログラム及びシステムの必要性が存在する。このような必要性を満たすことが、本発明の目的である。
第1の態様では、本発明は、人の注意を引くことを目的とした1または複数の刺激を提示すること、および 人の目の位置を取得することを含む、人の注意を測定する方法を提供する。方法は、1または複数の目の固視を、取得された目の位置から検出すること、および目の輻輳角を、検出された目の固視の1または複数の間に、取得された目の位置から経時的に測定することを含む。
輻輳運動(人が払う注意による)の後には、通常、開散運動が続くだろう(いったん注意が払われると、目は「通常の」位置に戻される)。このような開散運動は、輻輳の低下または負の輻輳と見ることができるのに対し、このような輻輳運動は、輻輳の増加または正の輻輳と見ることができる。以下では、簡単にするために「輻輳」という用語のみ(両眼離反運動でも開散でもない)が、前記2種類の運動を示すために使用されるだろう。この意味で、正の輻輳運動は、輻輳角が大きくなる運動として、および負の輻輳運動は、輻輳角が小さくなる運動として定義することができる。
注意は、無意識的視覚または意識的視覚と関連付けることができる。例えば、注意が向けられた刺激は、注意が向けられないものよりも上手く/早く意識的に見られる。輻輳は、意識的視覚または無意識的視覚のどちらかに関連した注意に関連する可能性がある。輻輳に調節が生じる場合には、刺激に、意識的に注意が向けられると見なすことができる。これに対して、輻輳に調節が生じない場合には、刺激に、注意が向けられない、または無意識に注意が向けられると見なすことができる。
固視中に輻輳を測定することに基づく、提案される方法は、無意識的視覚および意識的視覚の両方の種類に関連した注意を測定することが可能である。
提案される方法において、注視固視の場所で測定される輻輳は、対応する刺激の実際に固視/注視される領域への注意を示すとは限らず、別の領域への注意を示すこともある。
輻輳調節は、同時にまたは注意が移る前に、ならびに対応する刺激が意識的にまたは無意識的に見られる前に生じる。この時間差は、予測力を持つように輻輳調節を行う。この時間差は、刺激が、注意を向けられるか見られるかを予示することができる。
本発明に関連した多様な実験により、目の輻輳と注意との間に明確な関係を見つけ出すことができた。目の固視中に、輻輳角は、注意を捕える能力の機能として調節されると結論づけられた。輻輳角は、視覚的刺激後に大きくなるようで、この増加は、ボトムアップ型およびトップダウン型の注意と相関するようである。目の輻輳における調節の開始は、刺激の開始に固定されているようだが、その一方で、目の輻輳角の大きさは、刺激が受け取るまたは引く注意負荷で決まるようだ。
これらの結果は、被験者を手がかり/手がかりなしの典型例で試験することにより得られた。タスク中に、目の輻輳角が測定された。驚くべきことに、目の輻輳角の大きさは一定ではなかったが、視覚刺激により影響を受けた。視覚刺激がいったん提示されてしまうと(すなわち、刺激の提示および/または手がかり/手がかりなしの刺激の提示)、目の輻輳角は、瞬間的に大きくなった。目の輻輳角の増加は、刺激コントラストの機能であった。目の輻輳角の増加は、刺激コントラストが最も強いときに最も顕著であり、低いコントラストレベルに対して徐々に減少した。検出閾値未満の刺激に対して、目の輻輳角の大きさは、変化しなかった。検出された目的物に対する目の輻輳角の大きさは、検出されなかった目的物に対するものよりも大きかった。目の輻輳角の調節は、手がかり開始後に著しく大きいことがわかった。
観察された効果は、目の輻輳の性質(すなわち水平眼球運動)を反映せず、被験者のタスクへの関与次第で決まる。対照実験は、目の輻輳角において観察される変化の可能な説明として、瞳孔の大きさの変化または微小継続性眼球運動の発生を除外する。目の輻輳角での類似の効果は、一致する試みおよび一致しない試みにおいて、聴覚手がかりが視空間の注意を移した場合に観察された。得られた観察結果によると、目の固視中の小さな輻輳運動と、奥行きの手がかりのない2D(2次元)像での視覚的注意の移動との間には、つながりがある。
画期的な役割は目の輻輳によるものとする、提案される方法は、人がどれほど注意深くいられるかについて結論付けるために、1種類の目の動き(輻輳)のみを使用する利益を有する。特に、この方法は、目の輻輳を注意の指標として測定するために、目の固視の範囲内の目の位置を考慮するだけである。したがって、必要なデータや計算は、従来技術の方法と比較して大幅に削減される。さらに、行われた実験によれば、目の輻輳は、他の「攪乱する(disturbing)」認知プロセスから独立した、信頼できる注意の指標と見なされることができる。結論として、本発明は、非常に短い時間で、より効率的かつ明確な手法で、注意を測定することができる。注意を評価するには、数秒間の収集データで十分だろう。
この方法の利点は、人間の目の位置が1または複数の刺激の提示中にいったん取得されてしまえば、人の存在はもはや必要ではないことである。その後、経時的に取得された目の位置は、目の固視を検出し、輻輳角を測定するための計算を実行するために使用される。したがって、この文脈において、「検出する」という用語は、この場合、目の固視を検出するために、収集されたデータ(経時的な目の位置)において対応する計算を実行することを指す。同様に、「測定する」という用語は、経時的に輻輳角を取得し、および関連した注意測定値を取得するために、対応する計算を実行することを指す。
本発明の方法は、ウェブユーザビリティ、広告、スポンサーシップ、パッケージデザイン、自動車工学などの異なる分野へ適用することができる。目的物刺激の例は、ウェブサイト、テレビ番組、スポーツイベント、映画、コマーシャル、雑誌、新聞、パッケージ、棚ディスプレイ、消費者システム、ソフトウェアなどを含むことができる。結果的に得られたデータは、統計的に分析され、特定の視覚パターンの証拠を提供するために図表で示すことができる。目の輻輳を検査することにより、与えられた媒体または製品の有効性を判定することができる。
人は、画像を見るとき、場面の特定の領域への高速衝動性眼球運動を行うことにより像にざっと目を通し、視覚情報が認識される短い間に固視を実行する。しかし、すべての固視が、意識的に認識されるわけではなく、または動きに影響を与えるわけではなく、他よりもよく観察されるものもある。本発明は、この目の固視と認識との間の違いを分離することができる。
画像(広告、ウェブページ)を見ている間に、被験者が見た領域を検索することができ、これらの固視期間中の目の輻輳を計算および測定することができる。目の輻輳の大きな変動を示す関心領域は、より強く注意が向けられた領域、および、より上手く認識された領域を表示することができるのに対し、これらの領域が固視されたにもかかわらず、目の輻輳があまり変動を示さない領域は、あまり注意が向けられず認識されない領域を表示している。輻輳の調節は、調節の特性、すなわち、振幅、速度、開始遅延、持続時間などにしたがって、計算することができる。
したがって、本発明の方法は、例えば、広告のデザインなどに非常に有用となりうる。例えば、方法は、宣伝される製品を見る人の異なる特性を考慮して実行することができる。方法は、例えば、人々がより注意を向けた製品の部分についてのデータを提供することができ、どの部分およびどのような顕著さが最大の注意を引き付けるのかについての結論を得ることができる。
別の用途は、個人が情報をどのように認識し理解するかを説明する、認識様式の違いを明らかにすることだろう。本発明により、分析的な人と非合理的な人とを区別することができる。より分析的な状況独立型の観察者は、より非合理的な状況依存型の観察者より、目の輻輳を強く調節することが理解できる。分析技術は、様々な分野で需要の高い多くの仕事にとって重要であり、分析的な人々は、結論に達するために、データおよび事実の使用を享受する。予算アナリスト、コンピューターシステムアナリスト、市場調査オペレーター、および調査アナリストのような、ある種の仕事には、分析的な人が必要とされる。仕事の候補者の中から選択するために、例えば、手がかり/手がかりなしのタスクを実行しながら、眼球運動を記録することができる。試験後に、目のデータが分析され、輻輳を計算することができる。輻輳調節の高い候補者は、おそらくより分析的な人物であり、ゆえに、決定された仕事により適していると見なすことができる。
反復的なタスクを実行するとき、退屈になり、重要な細部を見落とすことは容易である。特に、組立作業、または視覚的に製品や画像を監視する場合においては、多くの活動が反復的である。本発明の方法は、タスクが退屈になり、ゆえにそれがミスにつながる可能性があるときを知るために、非常に有用であり得る。多くの反復的な作業中に、目の位置を記録することができ、目の輻輳を測定することができる。次に、輻輳の頻度が、活動の初期開始中に計算できる。この値は、基線レベルとして使用することができる。その後、タスク中に、目の輻輳を監視し、輻輳調節の初期頻度と比較することができる。目の輻輳における調節は、注意の移動に反映する。頻度が高いほど、注意の移動が頻繁であることを表す。人が退屈になった場合、目はまだ動くこともあるが、注意が移ることはほとんどない。輻輳の調節頻度が特定の閾値を下回る場合、これは、おそらく人の注意散漫な状態を示しており、その人は、休憩を取る、または交代する必要がある。
インターネットやデジタルメディアで閲覧すると、人々は、多くの広告および他の種類の刺激にさらされることがある。しかしながら、それらの多くは、ユーザには決して気づかれることがない。本発明は、広告又は類似の種類の他の刺激の視覚性を向上させるために使用することができる。テキストを閲覧するまたは読むときに、目の動きを、例えば適したウェブカメラ(目の追跡装置として作用する)を介して、記録することができ、目の輻輳を計算することができる。目の輻輳が増加し始めると、注意状態が増加する。この測定は、広告の提示または変更の瞬間に時間を計るために使用することができる。ユーザは、目の輻輳がより強いときに、現れた刺激に気づく可能性がより高い。したがって、宣伝の有効性は、目の輻輳を監視することにより、向上させることができる。
本発明の第2の態様では、コンピュータに、実質的に先述したような方法(本発明の第1の態様)を実行させるためのプログラム命令を含むコンピュータプログラム製品が提供される。本発明はまた、記憶媒体(例えば、コンピュータメモリまたは読み込み専用メモリにおけるCD−ROM、DVD、USBドライブ)で実施される、もしくはキャリア信号(例えば、電気キャリア信号または光キャリア信号における)で搬送される、そのようなコンピュータプログラム製品に関する。
本発明の第3の態様では、人の注意を測定するためのシステムが提供される。このシステムは、目の位置追跡装置、刺激を提示するためのデバイス、および計算システムを備える。この計算システムは、プロセッサおよびメモリを備え、前記メモリは、実行されると、前記計算システムに、実質的に先述したような方法(本発明の第1の態様)を実行させるコンピュータで実行可能な命令を記憶する。
本発明の実施形態のさらなる目的、利点および特徴は、説明を検討すれば当業者には明らかになり、または本発明の実施によって知ることができるだろう。
本発明の特定の実施形態は、添付の図面を参照しながら、非限定的な実施例により、以下で説明されるだろう。
本発明の実施形態による、注意を測定するための第1のシステムの概略図を示す。 本発明の実施形態による、注意を測定するための第2のシステムの概略図を示す。 本発明の実施形態による、順に提示される第1の組の刺激を図示する。 本発明の別の実施形態による、順に提示される第2の組の刺激を図示する。 本発明の実施形態による、目の輻輳に関する収集データを図示する。 本発明の実施形態による、正常な人およびADHDを有する人に関する目の輻輳についての収集データを図表で示す。 本発明の実施形態による、正常な人およびADHDを有する人に関する輻輳調節についてのデータを図表で示す。 意識的視覚に関連した注意が、通常、無意識的視覚に関連した注意よりも大きな輻輳調節を有することを図表で示す。
以下の説明において、多数の特定の詳細が, 本発明の完全な理解を提供するために述べられる。しかしながら、本発明は、これらの特定の詳細の一部または全てがなくても実施できるということが、当業者によって理解されるだろう。他の例において、よく知られた要素は、本発明の説明を不要に曖昧にしないように、詳細に説明されていない。
図7は、意識的視覚72に関連した注意が、通常、無意識的視覚73に関連した注意よりも大きな輻輳調節70を有することを図表で示す。示される図の縦軸70は、輻輳角を指し、その一方で、横軸71は、時間を指す。この図は、(意識的に)見られる刺激がより高い輻輳調節72をもたらし、見られない刺激がより低い輻輳調節73をもたらすことを示している。したがって、(輻輳の測定に基づく)注意を測定する提案された方法はまた、見られる刺激に関連した注意とみられない刺激に関連した注意との間の差の区別を助長することができる。
図1aは、人10の注意を測定するためのシステムを示す。このシステムは、刺激(例えば、スクリーン12など)を提示するためのデバイス、目の位置追跡装置(例えば、適するカメラ11)、および注意を測定するための方法の実施形態を実行するように構成されるコンピュータプログラムを実行するように構成される計算システム15を備える。コンピュータ15は、前記コンピュータプログラムにより必要とされるデータを記憶および検索するためのレポジトリ(従来のハードディスク16など)を備えることができる。
カメラ11は、人10の目の位置が、目の固視を検出し、目の輻輳角に関連したデータを計算するために、正確に取得できるような方法で、配置することができる。カメラ11およびスクリーン12の双方は、コンピュータ15に適切に接続することができ13、14、この結果、コンピュータ15は、主に対応する視覚刺激を提示するために、適する信号をスクリーン12と互にやり取りすることができ、かつ主に目の位置を取得するために、適する信号をカメラ11と互にやり取りすることができる。前記接続13、14は、有線接続および/または無線接続とすることができる。
図1aのシステムは、人10の頭を実質的に固定された位置に保持するための適切な手段を備えることができる。これらの固定手段は、図に示されていない。代替的には、システムは、そのような手段を備えていなくてもよく、その場合には、カメラ11が、人10の頭の動きを評価するための適するソフトウェア(またはコンピュータプログラム)を備えることができる。頭の動きは、何らかの方法で捕えられた目の動きを歪める可能性があるため、このソフトウェアは、前記潜在的な歪みを減衰するために、頭の動きを考慮することができる。カメラ11は、ゆえに、目の「はっきりした(clean)」位置を、コンピュータ15に送信することができるだろう。代替的には、カメラ11は、そのようなソフトウェアを備えていなくてもよく、その場合には、相当するコンピュータプログラムを、コンピュータ15に備えることができる。この場合、カメラ11は、頭(もちろん、目も含む)の捕えられた画像を表す信号をコンピュータ15に送信するだけであり、コンピュータ15は、頭の動きによる潜在的な歪みを減衰するだろう。
図1bは、図1aのシステムに非常に似ている人10の注意を測定するためのもう1つのシステムを示す。これらの唯一の違いは、図1bのシステムは、図1aのカメラ11とは異なる、目の追跡装置17を備えるということである。この場合、頭の動きを補償するためのソフトウェアは、目の追跡装置17が頭と一体化して動くので、必ずしも必要ではないだろう。
カメラ11および頭装着追跡装置17の代わりに、システムの実施形態は、電気眼球図記録法(EOG)の実行に適したデバイスを備えることができる。さらに、代替的には、システムの実施形態は、強膜コイル(scleral coil)を備えることができる。
概して、目の追跡装置は、測定システムに対する目の回転を必ず測定する。測定システムが、図1bのデバイス17のように、頭装着型である場合には、頭における目の角度(eye−in−head angles)が測定される。測定システムが、図1aのカメラ11のように、テーブル装着型である場合には、注視角度が測定される。
もっとも広く使用されている現在の設計は、映像ベースの目追跡装置である。受け手が何種類かの刺激を見ている間、カメラは1つ又は両方の目に焦点を当て、それらの動きを記録する。最新の目追跡装置は、瞳孔の中心を位置決めするためにコントラストを使用し、角膜反射を生成するために赤外線及び近赤外線非コリメート光を使用する。これら2つの特性間のベクトルは、個々についての簡単な較正後に表面との注視交点を計算するために使用することができる。
光、通常、赤外線は、目から反射して、ビデオカメラまたは他の特別に設計された光学センサによって検知される。情報は、次に、目の回転を反射の変化から抽出するために分析される。映像ベースの目追跡装置は、通常、角膜反射および瞳孔の中心を、経時的に追跡するための特性として使用する。より感度の高い種類の目追跡装置は、角膜の前面およびレンズの後ろからの反射を、追跡する特性として使用する。追跡のさらに感度の高い方法は、このような網膜血管などの目の内部からの特性を映し出し、目が回転する間、これらの特性を追うことである。
図1a及び図1bのシステムは、人の注意を引く目的の1または複数の刺激(画像)をスクリーン12上に提示すること、および目追跡装置11または17から、人の目の位置を取得することを含む方法を実行するのに適している。いったん画像が提示され目の位置が取得されると、方法は、目の固視が起こった時間間隔を、取得された目の位置から検出することを含むことができる。次に、前記目の固視の各々の範囲内で、目の輻輳角およびその経時的な変化を計算することができる。最終的に、いくつかの注意の指標または測定値は、前記計算された輻輳角から導き出すことができる。
輻輳角は、それを目的とした任意の適する既知のアルゴリズムを適用することにより、取得された目の位置から計算することができる。主に三角法の計算に基づく前記アルゴリズムはよく知られているので、それらについての具体的詳細は、本明細書中では述べられない。
いくつかの実施形態において、方法は、所定の条件が達成されるまで、複数の刺激(画像)を順に提示することを含むことができる。より具体的には、方法は、1または複数の組の関連した刺激(画像)を提示することを含むことができ、前記組の関連した刺激の各々は、第1の刺激および第2の刺激を含み、前記第2の刺激は、前記第1の刺激からの変化を含む。さらに具体的には、方法は、前記第1の刺激の前記提示と前記第2の刺激の前記提示との間に少なくとも1つの手がかりを提示することを含むことができ、前記手がかりは、前記第1の刺激に対する前記第2の刺激の前記変化が何であるかのヒントを提供する。
所定の条件は、所定の時間に達したときに達成したと見なすことができる。これに対する別の方法では、所定の条件は、所定数の提示された刺激に達したときに達成したと見なすことができる。
手がかりの目的は、注意を移す、または注意を誘導することである。輻輳が調節されるときには、手がかりは機能していると想定することができる。ゆえに、手がかりの有効性または成功を試験することができる。手がかりは、1または複数の視覚信号、1または複数の聴覚信号、ならびに/もしくは1または複数の触覚信号などを含むことができる。任意のこれらの異なる種類の信号は、異なる感覚経験が、特定の画像、特定の組の関連画像、特定の一連の画像、特定の一連の組の関連画像などの前で、どのようにより多くのまたはより少ない注意を引き起こすことができるかを評価するために、手がかりが有用でありうる方法において、同一の手がかりで組み合わせることができる。
視覚信号は、対応する刺激の特定の領域または対象を指すことができる。視覚信号を含むだけの手がかりの例が、図2および図3を参照して説明される。
聴覚信号を含む手がかりの例は、例えば、「車の車輪を見てください」または「見てください、車輪がすばらしいですよ」という音声とすることができる。前記第1の聴覚手がかりへの反応は、例えば、目の車輪への固視とすることができ、輻輳は調節されておらず、この場合、この手がかりは機能していないと想定することができる。しかしながら、第2の聴覚手がかりへの反応は、例えば、目の車輪への固視とすることができ、さらに、輻輳は調節され、この場合、この手がかりは機能していると想定することができる。
触覚手がかりの例は、例えば、手の特定の点が、第1の刺激に対する第2の刺激の変化はどこであるかというヒントを提供する方法で、前記手の特定の点を押す特定のデバイスとすることができる。
マルチメディア環境では、特にビデオゲームでは、視覚信号、聴覚信号および/または触覚信号を組み合わせる手がかりを使用することが非常に適している。例えば、プレーヤーの注意を大いに引き付けることが目的である場合に、衝撃画像、衝撃音声および操作レバーの衝撃振動を組み合わせる手がかりを使用することができる。本発明のシステムおよび方法の実施形態は、ゆえに、例えば、ビデオゲームなどの設計に非常に適しており、具体的には、前記実施形態は、ビデオゲームで決定された視覚的状況または出来事(本発明の文脈における手がかりを含む刺激)へのプレーヤーの注意に対する影響、およびそれゆえに正確な設計を評価するのに非常に適している。
図2は、1組の視覚刺激(または画像)を示しており、この中で、第1の刺激20がまず提示され、第2の刺激22が次に提示される。前記提示と提示との間の時間は、各試験の環境および目的次第で変化する可能性がある。第1の刺激20は、画像の中心に十字記号24を、および十字記号24周囲に複数の縦線23を含むことができる。第2の刺激22は、第1の刺激20に対して変化を含むことができる。この変化は、十字記号24を取り囲む縦線のうちの1つの傾き26とすることができる。傾きの角度は、例えば、試験ごとに、変更されてもよい。
図2の刺激の組は、ボトムアップ型の注意を試験することを目的としており、刺激22の顕著性またはコントラスト(傾斜線26)は、以前に提示された刺激20と非常にまたはわずかに異なるとすることができる。このテストは、自動的におよび/または意志に反して変化26に注意を向ける観察者の能力を評価することができる。輻輳角が増加すると、その後、刺激は、注意を引く際に有効となり、観察者に見られる可能性が高い。この試験は、人がどのくらい上手く変化26を無視する(すなわち、変化26に気を取られない)ことができるかを見るために使用することができる。
図3は、図2と同一の組の視覚刺激20、22を示すが、さらなる刺激/手がかりの提示が含まれる。この図はまた、時間の尺度36を示し、これに従って、刺激/手がかりの提示が前記尺度36の異なる点で実行される。この場合、(図2からの)第1の刺激20の前の刺激30は、初期時間31で提示される。その後、(図2からの)刺激20は、例えば、初期時間31の後300msでありうる時間32で提示される。次に、手がかり37は、例えば、初期時間31の後1300msでありうる時間33で提示される。その後、(図2からの)刺激20は、例えば、初期時間31の後1400msでありうる時間34で再び提示される。最終的に、(図2からの)刺激22は、例えば、初期時間31の後2400msでありうる時間35で提示される。手がかり37は、例えば、最後の刺激22の傾斜26を提示する縦線を指す矢印38を含むことができる。
図3の刺激/手がかりの順番は、観察者が注意を、最後の刺激22の提示前に、前記最後の刺激22において傾斜26して示されるだろう線まで動かすように命令されるトップダウン型注意の試験を目的とする。手がかり37は、変化26の検出の実行を向上させる。ゆえに、手がかり37の有効性を試験することができる。手がかり37が輻輳にほとんど変化を引き起こさない場合に、手がかり37は、ほとんど有効でないと見なすことができる。ボトムアップ型注意およびトップダウン型注意は、異なる脳の領域により処理実行されるので、図2および図3の順番は、注意に関連する異なる認知メカニズムを探るために適切であり得る。
関連した刺激の組を提示する代わりに、方法は、評価される人の側から自由に見るために手がかりなしに(and without cuues for free viewing on the part of the person to be evaluated)、関連のない刺激を提示することを含むことができる。刺激を提示するこの方法は、例えば広告のデザインに適用することができ、この場合、この方法は、人の注意において特定の効果を達成するために、どの部分が提示されるべきか、またはそれらがどのように顕著に提示されるべきかを結論付けるのに役立つことができる。
本発明の実施形態では、方法は、提示された刺激の1または複数に対して、少なくとも1つの自発的な行動を、提示された刺激に応じて人から取得することをさらに含むことができる。特に、1つ以上の組の関連する刺激を提示する実施形態では、方法は、(刺激の組の)第2の刺激の1または複数に対して、自発的行動を、第2の刺激に応じて人から取得することを含むことができる。
この人からの自発的行動は、例えば、提示された刺激のうちの1つについて何かを示すマウスのクリックとすることができる。前記刺激が関連する刺激の組の第2の刺激である場合に、マウスのクリックは、人が認識する第1の刺激に対し、どれが第2の刺激の変化であるかについて指し示すことができる。この自発的行動は、人の視覚システムが、無意識または意識的に何を選択したかを知るために役立つ可能性がある。輻輳は、刺激に注意が向けられたか、または刺激が認識されたかを示すだろう。したがって、固視は、何が見られているかを知ることであり、輻輳は、何に注意が向けられているかを知ることである。
図4は、本発明の実施形態による、目の輻輳に関する収集データの表示を示す。特に、この図は、輻輳角418が、第1の組の収集されたデータ407および第2の組の収集されたデータ406に従って、経時的に419動く可能性があるかを示す。目の前記収集された位置406、407は、図3に示された刺激/手がかりの順番に従って、異なる実験に対応することができる。図4はまた、数秒の収集されたデータ406、407が、注意についての結論を得るために十分でありうることを表している。この場合、収集された目の位置のわずか2.5秒(2,500ミリ秒)が、図4に示される。
図4は、刺激/手がかりの特定の順番を指し示すが、前記順番は、刺激および手がかりのかなり又はわずかに大きな順番のうちの部分的順番(sub−sequence)とすることもできる。この意味で、示された図表は、刺激および手がかりの前記大きな順番の間に収集された全体的なデータを表す多少なりとも大きな図表の部分的図表(または一部)とすることもできる。この「小さな」図表のみが、簡潔化の目的で図4に示されているが、当然のことながら続く説明を提供するために十分と見なされる。
方法の実施形態では、目の輻輳角を測定することは、輻輳角が実質的に変化する速度を測定することを含む。高速411は、例えば、高い注意の指標、またはすぐに注意を向ける能力を有する指標と想定することができる。低速410は、例えば、低い注意の指標、またはゆっくり注意を向ける欠点を有する指標と想定することができる。最高速度と最低速度との間の異なるレベルは、例えば、すぐにまたはゆっくり注意を向ける能力について、様々な人々を分類するためなどに、使用することができる。
いくつかの実施形態では、目の輻輳角を測定することは、輻輳角が実質的に変化しない時間を測定することを含むことができる。例えば、輻輳角は、経時的に高い閾値と低い閾値との間にあるときには、実質的に変化しないままであることが想定できる。図4は、輻輳角が実質的に変化しないままである時間間隔412の例を示す。例えば、目の輻輳角が実質的に一定である非常に長い時間間隔は、注意を払う能力が乏しいと想定できるのに対し、実質的に目の輻輳角が一定である非常に短い時間間隔は、注意を払う能力が優れていると想定できる。これらのレベルおよび中間レベルは、注意を払う能力に優れているか劣っているかについて様々な人々を分類するために使用することができる。
本発明の実施形態では、目の輻輳角を測定することは、目の固視414〜416の1または複数に対して、目の固視が実質的に開始するとき420から、輻輳角が目の固視の範囲内414〜416で実質的に増加し始めるときまでに実質的に経過した時間412を測定することを含む。固視の開始と輻輳の開始との間の時間が長い場合は、人が見られたものにすぐに注意を払うことができないことを示すことができる。固視の開始と輻輳の開始との間の時間の異なるレベルは、見られたものにすぐにまたはゆっくりと注意を向ける能力について様々な人々を分類するために使用することができる。
方法の実施形態は、目の固視414〜416の1または複数に対して、提示が理論的に目の固視414〜416を引き起こしている刺激37を決定すること、および決定された刺激37の1または複数に対して、刺激が実質的に提示されるとき415から、決定された刺激37により引き起こされる目の固視414〜416の範囲で、輻輳角が実質的に増加し始めるとき414までに実質的に経過した時間413を測定することをさらに含むことができる。刺激が有効性を探る場合、刺激37の提示415と輻輳の開始414との間の時間が長いことは、人の注意の問題を示すことがある。人が注意について正常と分類される場合、刺激の提示と輻輳の開始との間の時間が長いことは、刺激の無効を示すことができる。刺激の提示と輻輳の開始との間の異なるレベルの時間は、人々の注意の特性および/または刺激の有効性を分類するために定義することができる。
いくつかの実施形態では、目の輻輳角を測定することは、目の固視414〜416の1または複数に対して、目の固視414から416までの範囲内で、輻輳角が実質的に増加し始めるとき414から、輻輳角が実質的に減少し終わるとき416までに実質的に経過した時間417を測定することを含むことができる。輻輳増加の開始と輻輳減少の終了との間の時間が長いことは、例えば、注意を維持するための人の能力が優れていることなどを示すことができる。輻輳増加の開始と輻輳減少の終了との間の時間の異なるレベルは、注意を維持する能力について人々を分類するために定義することができる。
方法の実施形態において、目の輻輳角を測定することは、目の固視414〜416の1または複数に対して、目の固視が実質的に開始するときから、目の固視が実質的に終了するときまでの最大の輻輳角を取得することを含むことができる。より詳細には、目の輻輳角を測定することは、以前に取得された基線407の最大値408に対する最大の輻輳角405の差409を取得することを含むことができる。
この以前に取得された基線は、以前の方法の実行、または同一の実行の範囲内で以前の刺激/手がかりの部分的順番で以前に取得されている、第2の組の収集データ406から取得されたものに対応することができる。前記以前の方法の実行、および/または同一の実行の範囲内での以前の部分的順番は、同一の人に適用されたとすることができる。代替的には、以前の方法の実行は、例えば、決定された人の特性などに従って、他の人に適用された以前の実行とすることができる。
第1の組の収集されたデータ407(または以前取得された基線)と、第2の組の収集されたデータ406との比較は、例えば、医療用途において、非常に役立つ可能性がある。例えば、注意を改善することになっている薬の有効性は、前記原理を適用することによって試験することができる。この場合、第2の組の収集されたデータ406が、薬を服用した人から取得されたのに対し、第1の組の収集されたデータ407は、薬を服用しなかった同一の人から取得されたとすることができる。第1の組の収集されたデータ407(以前に取得された基線407)の最大値408に対する、第2の組の収集されたデータ406の最大の輻輳角405のかなりの差409は、かなりの注意の改善を示す可能性があり、この場合、薬の好ましい有効性を想定することができる。
第1の組の収集されたデータ407(または以前に取得された基線)と第2の組の収集データ406を比較するときに、他のパラメータ、例えば、輻輳角が実質的に変化する速度、輻輳角が実質的に変化しないままである時間、目の固視が実質的に開始するときから、輻輳角が前記目の固視の範囲内で実質的に増加し始めるときまでに、実質的に経過した時間、刺激が実質的に提示されるときから、輻輳角が実質的に増加し始めるときまでに実質的に経過した時間、輻輳角が実質的に増加し始めるときから、輻輳角が実質的に減少し終わるときまでに実質的に経過した時間などが、考慮されてもよい。
いくつかの実施形態では、方法は、例えば、輻輳角を測定した結果から、図4を参照して述べられる種類の図表を取得し提供することをさらに含むことができる。代替的には、方法は、注意および輻輳角を互いに関連付ける配列(すなわち、輻輳角の測定結果)から、注意のレベルを示す所定の値を取得し提供することをさらに含むことができる。代替的には、方法は、注意の測定された角度(すなわち、輻輳角の測定結果)によって決まる注意のレベルを提供する公式を適用することをさらに含むことができる。さらに代替的には、方法は、以下の情報要素、即ち、図4を参照して説明される種類の図表、注意および輻輳角を互いに関連付ける配列からの注意のレベル、適する公式を適用することによる注意のレベルのうちの任意の組み合わせを取得し提供することをさらに含むことができる。
配列は、例えば、注意の値および/または輻輳角の値の異なる尺度を、方法が使用される特定の環境に適用できるような方法で、カスタマイズすることができる。同様に、公式はまた、例えば、異なる因子および/または被加数ならびに/もしくは他のオペランドが、取得された輻輳角への適用のために定義できる方法であって、公式が、方法が使用される特定の環境に適合できる方法で、カスタマイズすることができる。
輻輳角に関する異なるパラメータが考慮される実施形態では、上記の配列は、各次元が前記パラメータのうちの1つを表すことができる多次元配列とすることができる。輻輳角に関するパラメータの例としては、例えば、輻輳角それ自体、輻輳角が実質的に変化する速度、輻輳角が実質的に変化しない状態を維持する時間などとすることができる。前記パラメータごとの異なるレベルを含む尺度は、パラメータごとに計算される値が、関連する尺度の前記異なるレベルと互いに関連付けできるように、定義することができる。例えば、いくつかの用途では、輻輳角の変化の速度に関する尺度は、例えば10のレベルを含むことができ、ここで、レベルSL−0は最小速度に対応し、レベルSL−10は最大速度に対応し、レベルSL−1〜SL−9は、レベルSL−0とレベルSL−10との間の中間速度に対応する中間レベルである。
例えば、この種の多次元配列では、1次元が、輻輳角に関連したレベルの尺度を表し、2次元が、輻輳角が実質的に変化する速度に関連したレベルの尺度を表し、3次元が、輻輳角が実質的に変化しない状態を維持する時間に関連したレベルの尺度を表すなどとすることができる。したがって、特定のレベルの注意は、異次元のレベルの組み合わせごとに定義することができる。例えば、注意AL−5(例えば、「中間の注意」を意味しうる)のレベルは、以下の次元レベルの組み合わせによるものとすることができる。CA−4(レベル4の輻輳角)、SL−6(レベル6の輻輳角が実質的に変化する速度)、およびUL−5(レベル5の輻輳角が実質的に変化しない状態を維持する時間)。同等の原則は、残りの注意レベルを対応するパラメータ(輻輳角、速度など)と互いに関連付けるために使用することができる。
注意障害および多動性障害(ADDを含むADHD)、ならびに3つの関連した部分型(ADHD−PIまたはADHD−I、ADHD−HIまたはADHD−H、およびADHD−C)は、小児および青年により頻繁に見られる(3〜6%)精神病理学的障害のうちの1つである。アンケート、ならびに発達検査、物理検査および精神検査に基づく、ADHD(ADDおよび関連部分型を含む)のルーチン評価には、多くの欠陥があり、不正確である。明確な症状が3歳で存在しても、現在の診断は、6歳前に行うことができず((DSM−IV/DSM−V)、ADHD(ADDおよび関連部分型を含む)に関連した個人的問題およびや社会的問題の防止、ならびにコストの抑制に必須である早期治療を禁止している。
両眼視における問題は、ADHD(ADDおよび関連部分型を含む)のように、多くの神経障害に共通している。人の両眼視の発達に重要な期間は、損傷に敏感な3か月〜8か月であり、せいぜい3歳までである。ゆえに、子供たちがADHD(ADDおよび関連部分型を含む)のような神経疾患を発症するかどうかを判断するためには、初期の発達段階(3か月〜2歳)での両眼の異常について子どもたちを評価することが重要である。現在の評価方法は、6歳になる前にADHD(ADDおよび関連部分型を含む)の診断を許可していない。
提案される方法の実施形態は、ADHD(ADDおよび関連部分型を含む)に関連する人(成人、小児、乳児や新新生児を含む)の神経学的障害を試験、検出、理解、および診断するために使用することができるだろう。
特に、人の注意を測定する方法の前述の実施形態のいずれかを含む、人のADHD(ADDおよび関連部分型を含む)を測定するための方法が提供される。(目の輻輳の測定に基づく)ADHDを測定するためのこの方法の利点は、ADHD(ADDおよび関連部分型を含む)の徴候が、幼児、子供における初期の発達段階だけではなく、大人でも検出できることだろう。視覚治療は、皮質の発達中の早い時期に開始できるので、早期検出は、視覚治療をより有効にすることができる。両眼視における問題は、検眼士により、視覚療法を通じて治療することができる。
精神障害を測定するために、患者または疑いのある人からの輻輳調節は、健康な人からの輻輳調節と比較することができ、および/または輻輳調節の比較は、異なる状態間で実行することができる。本明細書中に記載の注意を測定するための方法の実施形態のいずれかは、比較されるこのような輻輳調節を取得するために使用することができる。
概して、輻輳調節が存在しない、または正常な被験者の輻輳調節とは異なる場合、このことは、神経学的障害を示していることもある。異なる統計的技術は、輻輳調節間の差を測定するために使用することができる。確率的神経ネットワークのような異なるアルゴリズムは、分類目的のために使用することができる子供たちは、自分の年齢に対して設計された視覚的タスクの下で試験を行うことができる。
図5は、本発明の実施形態による、正常な人およびADHDを有する人に関する目の輻輳についての収集データを図表で示す。特に、この図は、手がかり/手がかりなしのタスクにおいて試験される両方の場合において、正常な子供(7歳)の輻輳の調節を反映する第1の図50、およびADHDを有する投薬治療されていない子供(8歳)の輻輳の調節を反映する第2の図51を示す。横軸53は、ミリ秒単位の時間を指し、縦軸52は、輻輳角を指す。
第1の図50は、正常な人により注意を向けられた刺激54に対する輻輳角52の展開を経時的に53示し(実線)、かつ正常な人により注意が向けらない刺激55に対する輻輳角52の展開を経時的に53示す(破線)。第2の図51は、ADHDを有する人により注意を向けられた刺激56に対する輻輳角52の展開を経時的に53示し(実線)、かつADHDを有するにより注意が向けらない刺激57に対する輻輳角52の展開を経時的に53示す(破線)。
第1の図50について、注意が向けられる状態54と注意が向けられない状態55との間での輻輳角52の著しい調節および著しい差が、正常な人の中に認識される。第2の図51について、注意が向けられる状態56と注意が向けられない状態57との間での輻輳角52の著しい調節および著しい差のどちらも、ADHDを有する人の中には認識されない。
図6は、本発明の実施形態による、正常な人およびADHDを有する人に関する輻輳調節についてのデータを図表で示す。縦軸60が輻輳調節を指すこの図において、6名の正常な人62、および7名のADHDを有する人63が示されている。この7名63は、DSM−IV法でADHDと診断されている。本明細書で提案される方法では、輻輳調整は、ADHDを有する子供63と比較して、正常な子供62の中で、著しく高いと結論付けることができる。閾値(破線)61は、健康な人とADHDを有する人とを区別するように定義することができるだろう。
本発明の任意の数の特定の実施形態及び実施例のみが、本明細書に開示されているが、他の代替的な実施形態および/または本発明及びその明白な修正及び同等物の使用が可能であることを、当業者は理解するだろう。さらに、本発明は、記載される特定の実施形態のすべての可能な組み合わせを包含する。従って、本発明の範囲は、特定の実施形態によって限定されるべきではなく、以下の特許請求の範囲の公正な読み取りによってのみ決定されるべきである。
さらに、図面を参照して説明した本発明の実施形態はコンピュータ装置およびコンピュータ装置で実行される処理を含むが、本発明はまた、コンピュータプログラム、具体的には、本発明を実施するために適合される、キャリア上またはキャリア中のコンピュータプログラムにも及ぶ。プログラムは、ソースコード、オブジェクトコード、部分的にコンパイルされた形式などのコード中間ソースおよびオブジェクトコードの形式であってもよく、本発明によるプロセスの実施で使用するのに適した任意の他の形式であってもよい。キャリアは、プログラムを搬送することができる任意のエンティティ又はデバイスであってもよい。
例えば、キャリアは、CD−ROMまたは半導体ROMなどのROM、もしくはフロッピー(登録商標)ディスクまたはハードディスクなどの磁気記録媒体のような記憶媒体を含むことができる。さらに、キャリアは、電気ケーブルまたは光ケーブルを介して、もしくは無線または他の手段によって搬送することができる電気信号または光信号などの伝送可能なキャリアであってもよい。
プログラムが、ケーブルもしくは他のデバイスまたは手段によって直接伝えられる信号で実施されるとき、キャリアは、そのようなケーブルもしくは他のデバイスまたは手段によって構成することができる。
代替的には、キャリアは、プログラムが埋め込まれた集積回路とすることができ、前記集積回路は、関連するプロセスをプログラミングするために、または関連するプロセスの実行で使用するために適合されている。
また、本願は以下に記載する態様を含む。
(態様1)
人の注意を引くことを目的とした1または複数の刺激を提示すること、
前記人の目の位置を取得すること、
1または複数の目の固視を、前記目の前記取得された位置から検出すること、および
前記目の輻輳角を、前記検出された目の固視の1または複数の間に、前記目の前記取得された位置から経時的に測定すること
を含む、人の注意を測定する方法。
(態様2)
1または複数の刺激を提示することは、所定の条件が達成されるまで、複数の刺激を順に提示することを含む、態様1に記載の方法。
(態様3)
前記複数の刺激は、1または複数の組の関連した刺激を含み、前記関連した刺激の組の各々は、第1の刺激および第2の刺激を含み、前記第2の刺激は、前記第1の刺激からの変化を含む、態様2に記載の方法。
(態様4)
前記1または複数の組の関連した刺激を提示することは、前記第1の刺激の前記提示と前記第2の刺激の前記提示との間に少なくとも1つの手がかりを提示することを含み、前記手がかりは、前記第1の刺激に対する前記第2の刺激の前記変化が何であるかのヒントを提供する、態様3に記載の方法。
(態様5)
前記提示された刺激の1または複数に対して、少なくとも1つの自発的な行動を、前記提示された刺激に応じて前記人から取得することをさらに含む、態様1から4のいずれか一項に記載の方法。
(態様6)
前記第2の刺激の1または複数に対して、自発的な行動を、前記第2の刺激に応じて前記人から取得することをさらに含む、態様3または4に記載の方法。
(態様7)
前記目の前記輻輳角を測定することは、前記輻輳角が実質的に変化する速度を測定することを含む、態様1から6のいずれか一項に記載の方法。
(態様8)
前記目の前記輻輳角を測定することは、前記輻輳角が実質的に変化しない状態を維持する時間を測定することを含む、態様1から7のいずれか一項に記載の方法。
(態様9)
前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視が実質的に開始するときから、前記輻輳角が前記目の固視の範囲内で実質的に増加し始めるときまでに実質的に経過した時間を測定することを含む、態様1から8のいずれか一項に記載の方法。
(態様10)
前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視の範囲内で、前記輻輳角が実質的に増加し始めるときから、前記輻輳角が実質的に減少し終わるときまでに実質的に経過した時間を測定することを含む、態様1から9のいずれか一項に記載の方法。
(態様11)
前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視が実質的に開始するときから、前記目の固視が実質的に終了するときまでの最大の輻輳角を取得することを含む、態様1から10のいずれか一項に記載の方法。
(態様12)
前記目の前記輻輳角を測定することは、以前に取得された基線に対する前記最大の輻輳角の差を取得することを含む、態様11に記載の方法。
(態様13)
前記目の固視の1または複数に対して、前記目の固視を理論的に引き起こした前記刺激を決定すること、および
前記決定された刺激の1または複数に対して、前記刺激が実質的に提示されるときから、前記輻輳角が、前記決定された刺激により引き起こされた前記目の固視の範囲内で、実質的に増加し始めるときまでに実質的に経過した時間を測定すること
をさらに含む、態様1から12のいずれか一項に記載の方法。
(態様14)
コンピュータに、態様1から13のいずれか一項に記載の人の注意を測定するための方法を実行させるためのプログラム命令を含む、コンピュータプログラム製品。
(態様15)
目の位置追跡装置、
刺激を提示するためのデバイス、ならびに
プロセッサおよびメモリを備える計算システムであって、前記メモリは、実行されると、前記計算システムに、
刺激を提示するための前記デバイスを介して、前記人の注意を引くことを目的とした1または複数の刺激を提示すること、
前記目の位置追跡装置を介して、前記人の前記目の位置を取得すること、
1または複数の目の固視を、前記目の前記取得された位置から検出すること、および
前記目の前記輻輳角を、前記検出された目の固視の1または複数の間に、前記目の前記取得された位置から経時的に測定すること
を含む方法を実行させる、コンピュータで実行可能な命令を記憶する、計算システム
を備える、人の注意を測定するためのシステム。
(態様16)
態様1から13のいずれか一項に記載の方法を含む、人の注意欠陥および多動性障害を測定する方法。
(態様17)
コンピュータに、態様16に記載の人の注意欠陥および多動性障害を測定するための方法を実行させるためのプログラム命令を含む、コンピュータプログラム製品。
(態様18)
人の注意欠陥および多動性障害を測定するための、態様1から13のいずれか一項に記載の人の注意を測定する方法の使用。

Claims (14)

  1. 人の注意を引くことを目的とした1または複数の刺激を提示すること、
    前記人の目の位置を取得すること、
    1または複数の目の固視を、前記目の前記取得された位置から検出すること、および
    前記目の輻輳角を、前記検出された目の固視の1または複数の間に、前記目の前記取得された位置から経時的に測定してその変化を計算すること
    を含む、人の注意を測定する方法。
  2. 1または複数の刺激を提示することは、所定の条件が達成されるまで、複数の刺激を順に提示することを含む、請求項1に記載の方法。
  3. 前記複数の刺激は、1または複数の組の関連した刺激を含み、前記関連した刺激の組の各々は、第1の刺激および第2の刺激を含み、前記第2の刺激は、前記第1の刺激からの変化を含む、請求項2に記載の方法。
  4. 前記1または複数の組の関連した刺激を提示することは、前記第1の刺激の前記提示と前記第2の刺激の前記提示との間に少なくとも1つの手がかりを提示することを含み、前記手がかりは、前記第1の刺激に対する前記第2の刺激の前記変化が何であるかのヒントを提供する、請求項3に記載の方法。
  5. 前記提示された刺激の1または複数に対して、少なくとも1つの自発的な行動を、前記提示された刺激に応じて前記人から取得することをさらに含む、請求項1から4のいずれか一項に記載の方法。
  6. 前記第2の刺激の1または複数に対して、自発的な行動を、前記第2の刺激に応じて前記人から取得することをさらに含む、請求項3または4に記載の方法。
  7. 前記目の前記輻輳角を測定することは、前記輻輳角が実質的に変化する速度を測定することを含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記目の前記輻輳角を測定することは、前記輻輳角が実質的に変化しない状態を維持する時間を測定することを含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視が実質的に開始するときから、前記輻輳角が前記目の固視の範囲内で実質的に増加し始めるときまでに実質的に経過した時間を測定することを含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視の範囲内で、前記輻輳角が実質的に増加し始めるときから、前記輻輳角が実質的に減少し終わるときまでに実質的に経過した時間を測定することを含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記目の前記輻輳角を測定することは、前記目の固視の1または複数に対して、前記目の固視が実質的に開始するときから、前記目の固視が実質的に終了するときまでの最大の輻輳角を取得することを含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記目の前記輻輳角を測定することは、以前に取得された基線に対する前記最大の輻輳角の差を取得することを含む、請求項11に記載の方法。
  13. 前記目の固視の1または複数に対して、前記目の固視を引き起こした前記刺激を決定すること、および
    前記決定された刺激の1または複数に対して、前記刺激が実質的に提示されるときから、前記輻輳角が、前記決定された刺激により引き起こされた前記目の固視の範囲内で、実質的に増加し始めるときまでに実質的に経過した時間を測定すること
    をさらに含む、請求項1から12のいずれか一項に記載の方法。
  14. 目の位置追跡装置、
    刺激を提示するためのデバイス、ならびに
    プロセッサおよびメモリを備える計算システムであって、前記メモリは、実行されると、前記計算システムに、請求項1から13のいずれか一項に記載の人の注意を測定する方法を実行させる、コンピュータで実行可能な命令を記憶する、計算システム
    を備える、人の注意を測定するためのシステム。
JP2015507393A 2012-04-24 2012-12-21 注意測定方法 Active JP6272829B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12380018.7 2012-04-24
EP12380018 2012-04-24
PCT/EP2012/076654 WO2013159841A1 (en) 2012-04-24 2012-12-21 Method of measuring attention

Publications (2)

Publication Number Publication Date
JP2015518402A JP2015518402A (ja) 2015-07-02
JP6272829B2 true JP6272829B2 (ja) 2018-01-31

Family

ID=47559428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015507393A Active JP6272829B2 (ja) 2012-04-24 2012-12-21 注意測定方法

Country Status (11)

Country Link
US (1) US10602972B2 (ja)
EP (1) EP2844146B1 (ja)
JP (1) JP6272829B2 (ja)
KR (1) KR20150013567A (ja)
CN (1) CN104254281B (ja)
BR (1) BR112014026072A2 (ja)
DK (1) DK2844146T3 (ja)
ES (1) ES2589000T3 (ja)
IN (1) IN2014DN08724A (ja)
PL (1) PL2844146T3 (ja)
WO (1) WO2013159841A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298994B2 (en) * 2014-01-09 2016-03-29 Harman International Industries, Inc. Detecting visual inattention based on eye convergence
US9363093B2 (en) * 2014-03-21 2016-06-07 International Business Machines Corporation Utilizing eye tracking to determine attendee engagement
KR101594839B1 (ko) * 2014-09-12 2016-02-17 고려대학교 산학협력단 전두엽 활성 게임 제공 방법 및 장치
JP6251412B2 (ja) 2014-09-30 2017-12-20 国立大学法人浜松医科大学 不注意の測定装置、システム、及び方法
US9978145B2 (en) 2014-12-16 2018-05-22 Koninklijke Philips N.V. Assessment of an attentional deficit
WO2017003719A2 (en) 2015-06-30 2017-01-05 3M Innovative Properties Company Illuminator
CN105147297A (zh) * 2015-07-29 2015-12-16 昌晓军 一种新型的儿童多动行为矫治系统
CN106551676A (zh) * 2015-09-30 2017-04-05 中国航天员科研训练中心 基于认知阶段理论的认知能力检测方法及检测装置
US11064881B2 (en) * 2015-11-13 2021-07-20 Hennepin Healthcare System, Inc Method for predicting convergence disorders caused by concussion or other neuropathology
JP6747172B2 (ja) * 2016-08-24 2020-08-26 株式会社Jvcケンウッド 診断支援装置、診断支援方法、及びコンピュータプログラム
EP3510505A1 (en) * 2016-09-07 2019-07-17 Koninklijke Philips N.V. Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network
CN108338798B (zh) * 2017-01-25 2020-11-06 北京数字新思科技有限公司 一种注意力测量方法和系统
CN107411761B (zh) * 2017-07-28 2020-08-18 北京航空航天大学 一种基于手指振动触觉刺激的定向注意力测量系统及方法
JP7123539B2 (ja) * 2017-09-21 2022-08-23 日清オイリオグループ株式会社 診断支援情報提供装置
WO2019106678A1 (en) * 2017-11-30 2019-06-06 Viewmind S.A. System and method for detecting neurological disorders and for measuring general cognitive performance
TWI672120B (zh) * 2017-12-21 2019-09-21 清弘生醫股份有限公司 眼球的連續性量測方法及眼球的連續性量測裝置
CN108309327B (zh) * 2018-01-30 2021-03-26 中国人民解放军海军总医院 一种视觉注意分配能力测评与训练方法
JP7380365B2 (ja) * 2020-03-19 2023-11-15 マツダ株式会社 状態推定装置
JP7409184B2 (ja) * 2020-03-19 2024-01-09 マツダ株式会社 状態推定装置
CN111772573B (zh) * 2020-07-06 2023-06-06 重庆能能科技有限公司 双眼聚散灵敏度检测装置及其数据处理方法
EP3964130A1 (en) 2020-09-03 2022-03-09 Tata Consultancy Services Limited System and method for eye-blink based assessment of sustained visual attention of a target
KR102557799B1 (ko) * 2021-07-14 2023-07-21 고려대학교 산학협력단 주의력 결핍 과잉 행동 장애 진단 장치 및 방법
EP4197425A1 (en) * 2021-12-17 2023-06-21 Carl Zeiss Vision International GmbH Determining a visual performance of an eye of a person
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH074343B2 (ja) 1992-09-29 1995-01-25 株式会社エイ・ティ・アール視聴覚機構研究所 奥行き知覚分析装置
EP1069855A4 (en) * 1998-04-10 2001-08-29 Visual Resources Inc METHOD AND APPARATUS FOR EXERCISING SUBJECT VISUAL ATTENTION CAPABILITIES
US6091334A (en) * 1998-09-04 2000-07-18 Massachusetts Institute Of Technology Drowsiness/alertness monitor
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
US6652458B2 (en) * 2000-06-20 2003-11-25 The Mclean Hospital Corporation ADHD detection by eye saccades
US6520921B1 (en) * 2000-06-20 2003-02-18 Eastman Kodak Company Method for determining attention deficit hyperactivity disorder (ADHD) medication dosage and for monitoring the effects of (ADHD) medication
AUPQ842800A0 (en) * 2000-06-28 2000-07-20 Aivision Pty Ltd Flat screen vision testing
US6565518B2 (en) * 2001-05-25 2003-05-20 Eastman Kodak Company Technique for diagnosing attention deficit hyperactivity disorder
JP5179686B2 (ja) * 2001-09-25 2013-04-10 株式会社豊田中央研究所 運転行動危険度演算装置
US6974414B2 (en) * 2002-02-19 2005-12-13 Volvo Technology Corporation System and method for monitoring and managing driver attention loads
US20080212032A1 (en) * 2002-05-09 2008-09-04 Seiller Barry L Visual skill diagnostic and therapeutic system and process
US6966905B2 (en) * 2003-11-20 2005-11-22 20/10 Perfect Vision Optische Geraete Gmbh Eye position control monitor for laser vision correction
JP4397228B2 (ja) * 2003-12-22 2010-01-13 株式会社ニデック 眼科装置
US7819818B2 (en) * 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
WO2005098777A1 (en) * 2004-03-22 2005-10-20 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
US7988287B1 (en) * 2004-11-04 2011-08-02 Kestrel Corporation Objective traumatic brain injury assessment system and method
US7438418B2 (en) 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
US8403480B2 (en) * 2006-01-24 2013-03-26 University Of Tennessee Research Foundation Adaptive photoscreening system
CA2639125A1 (en) 2006-03-13 2007-09-13 Imotions-Emotion Technology A/S Visual attention and emotional response detection and display system
WO2008070683A1 (en) * 2006-12-04 2008-06-12 Sina Fateh System, method, and apparatus for amblyopia and ocular deviation correction
GB0700770D0 (en) * 2007-01-15 2007-02-21 Univ Aberdeen Apparatus for detecting retinal neuropathy
RU2337607C1 (ru) * 2007-03-28 2008-11-10 ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" Способ оценки психофизического состояния человека
US20090298025A1 (en) * 2007-05-09 2009-12-03 Oregon Health & Science University Object recognition testing tools and techniques for measuring cognitive ability and cognitive impairment
CN101686815B (zh) * 2007-06-27 2011-03-30 松下电器产业株式会社 人的状态推定装置以及方法
CN101108120A (zh) * 2007-08-29 2008-01-23 中国人民解放军第三军医大学第一附属医院 眼动测试分析方法
CN101951829B (zh) * 2007-11-05 2013-11-20 Opko仪器公司 一种进行视敏度检查的系统
US8862217B2 (en) * 2008-07-09 2014-10-14 Laurence M. McKinley Optic function monitoring process and apparatus
JP4625544B2 (ja) * 2008-08-05 2011-02-02 パナソニック株式会社 運転注意量判定装置、方法およびプログラム
EP2334226A4 (en) * 2008-10-14 2012-01-18 Univ Ohio COGNITION AND LINGUISTIC TESTING BY EYE TRIAL
US20100280372A1 (en) * 2009-05-03 2010-11-04 Pieter Poolman Observation device and method
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern

Also Published As

Publication number Publication date
CN104254281B (zh) 2016-08-31
IN2014DN08724A (ja) 2015-05-22
US10602972B2 (en) 2020-03-31
EP2844146A1 (en) 2015-03-11
BR112014026072A2 (pt) 2017-06-27
KR20150013567A (ko) 2015-02-05
ES2589000T3 (es) 2016-11-08
US20150112224A1 (en) 2015-04-23
EP2844146B1 (en) 2016-07-13
CN104254281A (zh) 2014-12-31
PL2844146T3 (pl) 2016-12-30
WO2013159841A1 (en) 2013-10-31
DK2844146T3 (en) 2016-09-19
JP2015518402A (ja) 2015-07-02

Similar Documents

Publication Publication Date Title
JP6272829B2 (ja) 注意測定方法
Jyotsna et al. Eye gaze as an indicator for stress level analysis in students
Yamada et al. Detecting mental fatigue from eye-tracking data gathered while watching video: Evaluation in younger and older adults
Divjak et al. Eye Blink Based Fatigue Detection for Prevention of Computer Vision Syndrome.
Santini et al. Bayesian identification of fixations, saccades, and smooth pursuits
Postelnicu et al. EOG-based visual navigation interface development
Kuwahara et al. Eye fatigue estimation using blink detection based on Eye Aspect Ratio Mapping (EARM)
US20070066916A1 (en) System and method for determining human emotion by analyzing eye properties
Abdulin et al. User eye fatigue detection via eye movement behavior
CA3031251A1 (en) Platforms to implement signal detection metrics in adaptive response-deadline procedures
JP2016521411A (ja) 頭部及び眼球追跡
Mooney et al. Curveball: A tool for rapid measurement of contrast sensitivity based on smooth eye movements
JP6755839B2 (ja) 運動パフォーマンス推定装置、その方法、およびプログラム
JP2017522104A (ja) 目状態決定システム
Groth et al. Mitigation of cybersickness in immersive 360 videos
Gómez-Poveda et al. Evaluation of temporal stability of eye tracking algorithms using webcams
Yamada et al. Fatigue detection model for older adults using eye-tracking data gathered while watching video: Evaluation against diverse fatiguing tasks
Billones et al. Digital eye strain and fatigue recognition using electrooculogram signals and ultrasonic distance measurements
Wibble et al. Intensified visual clutter induces increased sympathetic signalling, poorer postural control, and faster torsional eye movements during visual rotation
Lee et al. PreventFHP: Detection and warning system for forward head posture
CN108495584B (zh) 用于通过触觉界面确定眼球运动的装置和方法
US20240016430A1 (en) Measuring and improving attention
KR20210072350A (ko) 전기 안구도 측정을 통한 안구 운동 상태 기반의 렌더링 방법
Vieira et al. iSVC–digital platform for detection and prevention of computer vision syndrome
Samara et al. Tracking and evaluation of pupil dilation via facial point marker analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180104

R150 Certificate of patent or registration of utility model

Ref document number: 6272829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250