JP2019505294A - 触覚インターフェースによって眼球運動を判定する装置及び方法 - Google Patents

触覚インターフェースによって眼球運動を判定する装置及び方法 Download PDF

Info

Publication number
JP2019505294A
JP2019505294A JP2018536250A JP2018536250A JP2019505294A JP 2019505294 A JP2019505294 A JP 2019505294A JP 2018536250 A JP2018536250 A JP 2018536250A JP 2018536250 A JP2018536250 A JP 2018536250A JP 2019505294 A JP2019505294 A JP 2019505294A
Authority
JP
Japan
Prior art keywords
image
touch display
eye movement
point
clear zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018536250A
Other languages
English (en)
Other versions
JP6911034B2 (ja
Inventor
アンジェラ シリグ
アンジェラ シリグ
ジャン−ルネ デュアメル
ジャン−ルネ デュアメル
ギヨーム リオ
ギヨーム リオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Original Assignee
Centre National de la Recherche Scientifique CNRS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS filed Critical Centre National de la Recherche Scientifique CNRS
Publication of JP2019505294A publication Critical patent/JP2019505294A/ja
Application granted granted Critical
Publication of JP6911034B2 publication Critical patent/JP6911034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

本発明は、眼球運動を判定する装置(1)に関し、
−タッチディスプレイ(11)と、
−少なくとも1つの関心点(301)を含む画像(300)を格納するデジタルメモリ(14)と、
−前記タッチディスプレイ(11)でユーザの接触点(325)の位置を判定し、前記タッチディスプレイ上に現在表示されている画像(320)内の対応する位置を特定するステップと、
−格納された前記画像から劣化画像(320)を生成するステップであって、前記劣化画像は、
−判定された前記接触点の位置及びその周囲を含むクリアゾーン(324)内の、格納された前記画像と実質的に同一であり、
−前記クリアゾーンを超えた周辺劣化パラメータで劣化するものであり、
−生成された前記劣化画像(320)を前記タッチディスプレイ(11)に表示するステップと、
−前記接触点(325)の連続した位置を前記タッチディスプレイ(11)で記録するステップと、
−のステップを繰り返し実行するように構成された処理装置(13)と、
を備えることを特徴とする。
【選択図】図8

Description

本発明は、眼球運動の追跡に関し、詳細には、眼球運動を正確に記録することを目的とする装置に関する。
人間の目は、比較的長期の視線の固定と交互に行われる、眼球のサッカードと呼ばれる、視線の急速な動きによって視覚空間を探査する。これらの動きは、所定の時間において、中心窩と呼ばれる網膜の中心領域に対応する数度の視角の範囲内でのみ網膜画像が明瞭であるため、必要である。約120°の角度の、大きく、色付いた、詳細な視野を有する主観的感覚は、実際、視覚又は眼球探査シーケンスによって得られた連続視(successive views)を統合する皮質で行われる構築プロセスから生じる。
視覚探査は、人間の目によって継続的に実行される自然で拘束のないタスクである。最適化された視覚探査は、知覚、運動及び認知の能力を非常に多く必要とする。従って、眼球の挙動の記録、定量化及び分析は、この病理学的結果が特有の視覚探査をもたらす場合、病理を検出するのに特に適した方法である。
一例として:
−アイコンタクトを避けることによって特徴づけられる挙動は、自閉症スペクトラムの障害の特徴であり、
−シーンの半分に焦点を当てた視覚探査は、半側空間無視(unilateral spatial neglect)を示す可能性がある。
従って、臨床的観点から、眼球運動計測(oculometry)は神経精神病の病状を診断及び監視する大きな可能性を有する方法である。
医療分野とは別に、視覚及び観察行動は、一般に、将来の行動を予測するための良好な手段であることも認められる。具体的には、物体は、拾い上げられる前に観察されることが多く、同様に、見られていない物体は拾い上げられない。この簡単な例は、眼球運動計測を、特に、ヒューマンマシンインタフェース、製品パッケージング、又は宣伝文書を最適化するための、人間工学で広く用いられているツールにしている。
観察者又は被験者による視覚探査を正確に分析するために用いられる既知のツールの中で、眼球運動計測装置を挙げることができる。眼球運動計測装置は、通常、観察者の眼球運動を記録するために、ディスプレイ、1つ以上の高速カメラ、1つ以上の赤外線照明器、計算プロセッサ及び適切なソフトウェアスイートを含むシステムを用いる。このような眼球運動計測装置は、眼球探査の正確な測定を行うが、非常に高い取得コスト及び使用コストを有する。従って、このような眼球運動計測装置は、一般の人々がアクセスすることはできない。このようなデバイスへのアクセスの制限のために、信頼性を保証するのに十分な数の観察者で研究を行うことは困難である。
さらに、このような眼球運動計測装置は、観察者の動きに制約を与える較正段階を有する制御された環境で使用されなければならない。これらの状態は、特定の観察者の病理又は子供のような集中スパンの短い観察者とは相容れないことがある。観察者は、特に、ディスプレイから制御された距離に配置されることが最も多くなければならず、視能矯正用の顎受けを用いて設定された位置にとどまっていなければならない。
米国特許出願公開第2011/270123号明細書は、医療用途において目検出装置を利用する方法及び装置に関する。目検出装置は、認知的及び視覚的ステップを実行することによってユーザに対して較正される。ユーザのワークフローの視覚的なプロファイルが判定され、ユーザ固有のデータベースが作成される。
米国特許出願公開第2011/205167号明細書は、脳震盪の発生を示す、アスリートの脳機能の低下を検出するための方法及び装置を開示している。画面上に移動アイコンが表示される。アスリートは、特に視覚的にアイコンを追いかけなければならない。アスリートのパフォーマンスは、テスト結果の履歴と比較される。
米国特許第5668622号明細書には、ビデオスクリーン上の目の固定点の位置を測定するための装置が記載されている。この装置は、照明システム及びビデオカメラを備えた、目の近くに配置された可動支持体を備える。
米国特許出願公開第2011/270123号明細書 米国特許出願公開第2011/205167号明細書 米国特許第5668622号明細書
本発明は、これらの欠点の1つ以上を解決することを目的とする。従って、本発明は、添付の特許請求の範囲に定義されるような眼球運動を判定する装置に関する。また、本発明は、添付の特許請求の範囲に定義されるような方法に関する。
当業者であれば、従属請求項の特徴の各々は独立請求項の特徴と独立して組み合わせることができるが、中間一般化(Intermediate Generalization)を形成するものではないことを理解するであろう。
本発明の他の特徴及び利点は、完全に限定されない表示によって、添付された図面を参照して、以下に与えられる説明からより明確になるであろう。
人間の目の概略断面図である。 中心窩に対する角度の関数としての相対視力のグラフである。 画像と、画像の関心中心に依存する眼球運動の一例を示す。 画像と、画像の関心中心に依存する眼球運動の一例を示す。 画像と、画像の関心中心に依存する眼球運動の一例を示す。 画像と、画像の関心中心に依存する眼球運動の一例を示す。 関心の中心が注目されているときの図3の画像の瞬時の知覚の一例を示す。 本発明の一実施例にかかる眼球運動を判定するための装置の概略図である。 眼球運動を判定するための装置に格納された画像の一例の図である。 図9の格納された画像から生成された完全にぼやけた画像の図である。 眼球運動を判定するための装置で、ユーザの接触点に応じて表示される画像の一例の図である。 英数字情報を含む画像から生成された劣化画像の一例である。 装置によって最適な眼球探査を保証するパラメータを示すグラフである。
図1は、人間の目9の概略断面図である。光情報は、角膜94を介して目に侵入し、光受容体を含む網膜91に到達する前に、房水95、水晶体93及び硝子体96を通過する。盲点98は、視神経97のレベルで定義される。
人間の視覚は、両眼視において視角約120°の広い領域にわたって広がっている。しかし、人間は、中心窩領域と呼ばれる、視野のわずかな部分でしか細部と色を完全に認識しない。中心窩領域(突起92によって示される網膜91のゾーン)は、1〜2°の間の円錐半角を有する領域を占める。中心窩領域を越えて、人間の網膜を覆う光受容体の密度は、まず約5°の円錐半角まで伸びる傍中心窩領域、そして、5°より大きい円錐半角の周辺領域で、大きく減少する。
人間の目の光受容体細胞の密度のグラフの一例が図2に示されている。相対視力はy軸上に示され、中心窩領域に対する角度はx軸上に示される。人間の視覚は、観察されたシーンがぼやけているかのように、中心窩領域を超えて比較的平均的な細部を識別する能力を有する。
それにもかかわらず、人間の環境に対する知覚は色づいており、非常に詳細である。具体的には、周囲の空間を捉えるために、目は連続的に移動して複数の画像を捕らえる。これらの様々な画像は、脳によって組み立てられる。人間が意識している全体的なイメージは、実際、眼球運動システム(oculomotor system)による環境の継続的な探査の統合の結果である。従って、眼球運動を記録することによって、可能性のある認知障害に関する多くの情報が得られる。
特に、網膜における光受容体の密度の急速な低下にもかかわらず、人間の眼球運動システムは、眼球運動探査行動を誘導するために、周辺領域から多くの情報を抽出することができる。
図3は、複数の関心点を含む例示的な画像8を示す。主な関心点は、ここでは大人のサルの顔81と子どものサルの顔82である。図4〜6は、これらの関心点に依存する眼球運動の例を示す。
図4において、画像8は被験者に提示される。被験者の注意及び視線は、大人のサルの顔81によって捕えられる。被験者の視覚は、顔81を含み、中心窩領域に対応する領域83において明確で詳細である。領域83は、視覚的分解能が明らかに低い傍中心窩領域84によって囲まれている。傍中心窩領域84の外側の周辺視野は、さらに低い分解能を有する。図7は、中心窩領域83が顔81の中心にあるときの、被験者による図3の画像8の知覚89を示す。中心窩領域83がはっきりとしており、傍中心窩領域84がわずかにぼやけていると知覚され、周辺領域はよりぼやけていると知覚される。
図5では、中心窩領域83の高解像度構造と、その周辺視野の低解像度情報に基づいて、被験者は、こどものサルの顔82が画像8中の別の関心点であると判定することができる。
図6に示すように、この他の関心点の詳細な視覚を得るために、サッカードと呼ばれる急速な眼球運動が、中心窩領域83を顔82に移動させる。
本発明は、例えば図3に対応する格納された画像に基づいて、例えば図7に対応する劣化画像をタッチスクリーン上に表示することを目的とする。劣化画像は、中心窩領域と周辺領域の間の視力の低下を再現することを目的とする。
本発明を実施するための眼球運動を判定する装置1の一例が図8に示されている。装置1は、例えば、携帯電話又はタッチタブレットの形態で実施される。装置1は、タッチディスプレイ11を備える。装置1は、1つ以上の画像を格納するデジタルメモリ14を含む。格納された各画像は、1つ以上の関心点を含む。画像は、遠隔サーバによって配信され、デジタルメモリ14に一時的にのみ格納されてもよい。さらに、装置1は、例えばソフトウェアアプリケーションによって制御されるプロセッサの形態で実施される処理装置13を備える。処理装置13は、デジタルメモリ14に格納された画像を読み取ることができる。さらに、装置1は、タッチディスプレイ11の表示を制御し、タッチディスプレイ11との接触点の座標を収集する通信インターフェース12を備える。通信インターフェースは処理装置13に接続されている。従って、一般的で慣習的なハードウェア構造を有する装置1を使用することができ、低価格の装置で本発明を実施することができる。
図9は、装置のデジタルメモリ14に格納された画像300の簡略化された例を示す。画像300は、関心点301を含む。例えば、関心点301は、画像300の背景302に対して、小さな面積及び色又は光のコントラストを有する。図示の例では、関心点301は湾曲した線の内側で、点付きの背景302よりも暗く、より小さい領域である。画像300はここでは単なる例示として提供され、1以上の関心点を含む他の画像を、当業者にそれ自体公知の方法で、使用することもできる。
図10は、格納された画像300から生成された全体的に劣化した画像310を示す。全体的に劣化するとは、画像310の領域の100%が劣化していることを意味する。ここで、劣化画像310は、画像300の領域全体をぼかすことによって生成される特定のケースである。従って、全体的な劣化画像310は、画像300の関心点301のぼかしに対応するぼかしゾーン311と、背景302のぼかしに対応するぼかしゾーン312を含む。
全体的に劣化した画像310は、タッチ探査の測定によって視覚探査を判定するために、タッチディスプレイ11に表示される第1画像であってもよい。従って、この画像310は、接触探査を開始するように機能することができ、被験者は、関心点301に対応するぼかしゾーン311を識別することができる。従って、被験者の第1接触点は、恐らくぼかしゾーン311に位置することになる。
図11は、格納された画像300から生成された部分的に劣化した画像320を示す。部分的に劣化した画像320は、画像320が格納された画像300と実質的に同一であるクリアゾーン324を含み、特に、ゾーン326は、クリアゾーン324内に存在する関心点301の部分に対応する。現在表示されている画像に対する最後の接触点325の位置が判定される。クリアゾーン324は、最後に判定された接触点325及びその周囲の位置を含むように配置される。人間工学的理由から、クリアゾーン324はここでは接触点325の上に位置しているため、クリアゾーン324は被験者の指によって覆い隠されない。以下、被験者の指で定義される接触点325について説明するが、スタイラス又は任意の他のポインティングデバイスとの接触点を想定することも可能である。
部分的に劣化した画像320は、クリアゾーン324の周辺の劣化ゾーン323を含む。劣化ゾーン321は、劣化ゾーン323に存在する関心点301のぼかしゾーン311に対応する。ゾーン324の劣化は、
−関心点301の他のゾーンに関する情報及び周辺視野に対応する情報を表示させ、この表示に含まれる情報を発見したいという欲求を喚起して探査的行動を促し、また、
−被験者に、この情報を発見する目的で劣化ゾーン323のタッチ探査を実行することを義務付け、タッチ運動が確かに眼球探査に対応するようにする。周辺画像が明瞭である場合、ユーザは、指を動かすことなく、表示された画像の視覚探査を実行することができる。
ゾーン323は、例えば、そのマクロ構造を維持しながら、画像の微細構造を知覚できないようにすることを目的とする。具体的には、表示された画像のマクロ構造は、周辺視野で検出可能であり、この画像の視覚探査を促す。
実際には、装置1は以下の方法を実施することができる。
−タッチディスプレイ11上に画像310を表示して、眼球運動の判定を開始する。
−タッチディスプレイ11との接触点325が判定されると、画像310に対する対応する位置を特定する。この第1接触の判定は、方法の持続時間を制限するために任意にカウントダウンを引き起こす。
−格納された画像300から第1劣化画像320、接触点325の判定された位置及びその周囲を含むクリアゾーン324、周辺劣化パラメータでの画像300の劣化に対応する劣化ゾーン323を生成する。
−以下の連続ステップを繰り返す:
−タッチディスプレイ11で最後の接触点325の位置を判定し、現在表示されている劣化画像内の対応する位置を特定する。
−最後の接触点325の位置をタッチディスプレイ11に記録する。
−格納された画像300から新たな劣化画像320を生成する。新たな劣化画像は、最後の接触点325の位置及びその周辺、周辺劣化パラメータでの画像300の劣化に対応する劣化ゾーン323を含む、クリアゾーン324内の格納された画像300と実質的に同一である。
−タッチディスプレイ11に新たな劣化画像320を表示する。
−テストを終了するための条件が満たされているかどうか(例えば、タッチ探査持続時間が予め設定された閾値に達したかどうか、又は、タッチ探査距離が予め設定された閾値に達したかどうか)を検証する。
格納された画像300と劣化画像320との間の劣化は、2004年4月4日、「IEEE transactions on image processing」、Vol.13、No.4において、Mrs. Zhou Wangらによって発行された「Image Quality Assessment: From Error Visibility to Structural Similarity」と題する刊行物に記載された方法を用いて、SSIM指標により判定することができる。
画像320のクリアゾーン324は、格納された画像300の同じゾーンと実質的に同一である。これらの2つのゾーン間で計算された平均SSIM指標が少なくとも0.9に等しい場合、劣化画像320のクリアゾーン324は、例えば、格納された画像300の対応するゾーンと実質的に同一であるとみなすことができる。
さらに、視覚探査を促進するために、ぼかしゾーン311と関心点301との間(又はゾーン323の関心点ゾーン321と、画像300の関心点301の対応するゾーンとの間)で計算された平均SSIM指標が、有利に0.4〜0.8、好ましくは0.4〜0.7、例えば0.45〜0.65に含まれる場合、ゾーン323は、周辺視野に対応する最適な劣化パラメータを使用していると見なすことができる。このような劣化は、特に、周辺領域が実際に視力の対応する低下を表すように、周辺領域が視覚的及び触覚的探査を誘発するのに十分な情報を含み、過度の情報ではないことを保証する。
平均SSIM指標が低すぎるとゾーン323から過剰な情報が取り除かれ、最適な探査が行われる。平均SSIM指標が高すぎると、被験者が眼球探査を忠実に再現する探査を指で確実に行うため、ゾーン323から十分な情報が除去されない。
関心点301と劣化ゾーン311との間の平均SSIM指標は、以下のSSIMm指標と呼ばれる。SSIMm指標は、例えば、関心点301のセットについて、以下のように計算される。
−顕著なゾーンからなる関心領域301のセットが画像300において選択される。
例えば、写真の場合、カメラが焦点を当てた領域の問題である。ぼやけた領域及び/又は均一な領域は、一般に、視覚探査を行う被験者にとってほとんど関心がない。画像310のぼかしゾーン311は、これらの関心領域301に対応する。
−関心領域301及びぼかしゾーン311は、有限数の輝度レベル、例えば256輝度レベルに変換される。
−SSIM指標は、11×11ピクセルサイズ及び1.5ピクセル標準偏差の対称で円形のガウス重み付けウィンドウを用いて、パラメータK1=0.01及びK2=0.03で局所的に計算される。
−SSIM指標の得られたマップIssimは、関心領域301及びぼかしゾーン311の寸法に補間される。このようにして、1つのSSIM指標値がピクセルごとに得られる。そして、
−関心領域において、SSIM指標値の平均値SSIMmが計算される。
有利には、クリアゾーン324の面積は、被験者の指の動きが眼球運動を忠実に再現するのに十分に小さい。S1がクリアゾーン324の面積を示し、S2がタッチディスプレイ11に表示される劣化画像320の面積を示す場合、比S1/S2は、視覚探査が移動される指の接触点を要求できるように、好ましくは最大で0.5に等しく、又はさらに最大で0.15に等しい。好ましくは、S1は最大で60cmに等しく、好ましくは最大で25cmに等しい。これらの寸法を越えると、クリアゾーン324は、おそらく中心窩視覚に対して面積が大きすぎると考えられる。
比S1/S2は、クリアゾーン324が被験者によって十分に認識可能であり、被験者にとって視覚適応が過度に厳しくならないように、好ましくは少なくとも0.01に等しいか、又はさらに少なくとも0.02に等しい。子供の場合、又はスタイラスを用いてテキストを分析する場合、比S1/S2はより低くてもよい。クリアゾーン324のそのような寸法は、比較的低い解像度を有する小さなサイズのタッチディスプレイ11にも適している。好ましくは、S1は少なくとも2cmに等しく、好ましくは少なくとも3cmに等しい。クリアゾーン324は、好ましくは、接触点325の上に少なくとも8mm、好ましくは少なくとも12mmの直径の円を含む。
図13は、装置により最適な眼球探査を保証するパラメータを概略的に示すグラフである。グラフは、x軸上の比S1/S2と、y軸上のパラメータSSIMm(関心点301とぼかしゾーン311との間)を示す。参照55に対応するゾーンは、指の動きと眼球運動との間の良好な忠実度を有する最適な視覚探査を可能にする。ゾーン50は、クリアゾーン324の面積が最大値を超えないという要件に対応し、視覚探査を忠実に再現するタッチ探査を誘導する。ゾーン51は、視覚探査に忠実に対応するタッチ探査には大きすぎるクリアゾーン324に対応する。ゾーン52は、視覚探査に忠実なタッチ探査に至るには不十分なゾーン323の劣化に対応する。ゾーン53は、主要構造を維持しながら、関心点301の微細構造を除去するのに適した劣化に対応する。このような劣化は、タッチ探査を求めるのに適していることが分かる。ゾーン54は、例えば、ゾーン321におけるマクロ構造の損失に対応する、ゾーン323における画像の過度の劣化に対応する。このような過度の劣化は、視覚探査とタッチ探査の両方に悪影響を与える。
非常に幅広い種類の画像劣化方法を使用することができる。特に、ガウシアンぼかしを適用すること、平均化フィルタを適用すること、サブサンプリングを適用すること、又は非常に高い圧縮度を有するJPEG符号化によって、格納された画像300を劣化させ、劣化ゾーン323を生成することを想定することが可能である。
図12は、格納された画像の関心点が英数字である部分的に劣化した画像400を概略的に示す。画像400は、被験者とタッチディスプレイとの接触点405を含むクリアゾーン404を含む。明確な英数字がゾーン404内に見られる場合がある。クリアゾーン404の外側には、劣化した英数字406を含む劣化ゾーン403がある。文字406はここでは解読可能であるが、実際に適用される劣化は、探査を誘発するために、それらを特定可能であるが判読不能にするように有利に実行される。クリアゾーン404の寸法は、英数字の寸法に合わせて調整することができ、クリアゾーンは、例えば、合計で1〜20文字の英数字を含むことができる。クリアゾーン404のサイズは、例えば、被験者を促進させ、テキストを読むことを誘発するように、パラメータ化可能であってもよい。
眼球運動計測によって測定された眼球探査と、本発明に係る方法によって測定されたタッチ探査との間の優れた相関を確認するための試験が行われる。これを行うために、本発明に係る眼球運動を判定するための方法を用いたタッチ探査を、基準の眼球運動計測装置で行われる眼球探査と比較した。
眼球探査を眼球運動により測定した基準眼球探査実験のパラメータは、以下の通りである。この基準眼球探査実験は、商標名Clearviewで販売されているデータ前処理ソフトウェアパッケージに関連した商品名TOBIIシリーズ50で販売されているシステムを用いて行った。5人の健康な被験者に対して試験を行った。
複数のテスト画像の提示のプロトコルは、以下の手順に従った。
−1− スクリーン上へ固定十字を表示し、時間経過後、被験者はボタンを用いて実験を開始する。
−2− スクリーン上へ1秒間、固定十字を事前表示する。
−3− 6秒間、非ぼかしテスト画像を表示し、自由探査する。
−4− 手順1に戻る。
合計66枚の画像が、1280×1024画素解像度のスクリーン上で、60cmの目とスクリーンとの間の距離(即ち、約40画素/視角)で、各被験者に提示された。各画像の解像度は、1280×1024及び1366×768解像度のスクリーン上で、変更せずに表示するために最適化されている。
刺激又は関心点は、人間の社会的シーン(32画像)を表す2つのシリーズの画像又は様々な種のサルの社会的シーン(34画像)を含むように選択された。
人間の社会的シーンはいくつかの理由から選ばれている。
−社会的なシーンをよく理解するには、予測可能で簡単に定量化できる特定の眼球探査行動が必要である。
−社会的シーンの最適な眼球探査には、完全な認知能力が必要である。
−社会的シーンの不十分な眼球探査は、潜在的に障害のある認知障害の兆候である可能性がある。
−多くの精神医学的及び神経学的病理(広汎性発達障害、自閉症、統合失調症、認知症など)には、確立された社会的シーンを理解することの困難が存在する。
眼球運動は、前処理ソフトウェアパッケージを用いて、サッカード/固定モデル(saccade/fixation model)でモデル化された。100ms以上の持続時間の固定のみが分析に残った。各被験者及び各画像について、固定時間で重み付けした500ピクセル分散のガウスカーネル(σ≒22.4ピクセル≒0.5°の視角)を用いたカーネル密度推定(Parzen-Rosenblatt法とも呼ばれる)によりヒートマップを推定した。最後に、ヒートマップを、正規化された個々のヒートマップの平均として各刺激について計算した。
得られたヒートマップは、実際には社会的シーンの眼球探査の特徴であった。社会的シーンの様々な主役は、健全な被験者によって正しく検出された。通常、適切な場合、被験者は目の領域に注目する傾向がある。
タッチ探査による眼球運動の判定は、以下のように実施された。各画像は1366×768ピクセルの解像度のタッチスクリーン上に表示された。格納された各画像について、中心窩視覚、傍中心視覚及び周辺視野の間の空間分解能の低下をシミュレートするために、劣化画像が生成された。この空間分解能の低下のシミュレーションは、中心窩視覚をシミュレートするために、接触点及びその周囲のクリアゾーンを維持しながら実施された。クリアゾーンは、被験者の目に対して2°の円錐半角に対応するように、すなわち半径80ピクセルの円に対応するように寸法決めされた。この例では、2°又は80ピクセルの標準偏差のガウス窓を適用することによって、クリアひいては中心窩ゾーン及び傍中心窩ゾーンが生成された。周辺視野は、傍中心窩ゾーンの外に標準偏差1°のガウスぼかしを適用することによってシミュレートした。
人間工学的理由から、クリアゾーンは、劣化画像において、判定されたタッチスクリーンとの接触点のわずかに上の位置(25ピクセル)に位置付けられた。色情報は、劣化画像内に一体的に保存されていた。
タッチ探査は、以下のパラメータで記録した:
−各接触点のx軸座標及びy軸座標、
−この接触点における連続接触の持続時間。
接触点における接触が1サンプリング周期Trより長い時間にわたって維持されるとき、眼の擬似固定が判定されてもよい。各擬似固定は、その位置及び接触の持続時間とともに記録されてもよい。
接触点が連続的に変化する場合、接触点の連続座標は、サンプリング周期Trに対応する間隔で記録される。
サンプリング周期Trの値は、一方では、タッチ運動の良好な記録を達成するために必要とされる時間分解能と、他方では、記録装置のタッチ容量との間の妥協点であり得る。20〜30msの間に含まれるサンプリング周期Trが適切であることが判明した。例えば、10〜50msのサンプリング期間が想定され得る。低い画像リフレッシュレート及び/又は高い処理能力を有する装置の場合、はるかに低いサンプリング周期値を用いることができる。
被験者のタッチスクリーンとの接触点の測定は、実際に、劣化画像上の指の動きが、非常に良好な相関関係で、視覚探査行動に対応することを特徴付けることを可能にした。
本発明によるタッチ探査は、眼球運動計測によって測定された眼球運動よりも遅い指の動きを明らかにした。各画像のそれぞれの探査時間は、それらを比較可能にするために、2つのタイプの探査に適合させた。タッチ探査は、例えば、眼球運動計測試験で用いられる予め設定された時間よりも長い、プリセットタイム後に中断されてもよい。タッチ探査持続時間は、少なくとも2秒に等しく、例えば、少なくとも5秒であることが有利である。
また、タッチ探査距離閾値を越えた場合にのみ、それを中断することによって、タッチ探査の継続時間を定義することを想定することも可能である。この距離閾値は、例えば、ピクセル数又は円錐半角の観点から表現されてもよい。タッチ探査距離は、6秒の時間の長さの被験者のグループによってカバーされる平均視覚探査距離に基づいて設定されてもよい。実施された試験では、この距離は、例えば、画像あたり2500ピクセルであり、およそ500ピクセルの標準偏差であると推定された。
各被験者及び各画像について、各擬似固定(最初のものを除く)について速度指標(speed index)を計算した。この計算は、2つの連続した擬似固定(例えば、指標n−1とnの間)に含まれる距離を、これら2つの擬似固定の最後の持続時間(この例では指標nの持続時間)で割ることによって行った。
各画像について、計算時間を最適化するために、分析から非常に急速な擬似固定を排除することを想定することが可能である。具体的には、非常に急速な擬似固定は、ほとんど情報を提供しない擬似サッカードに対応すると推定され得る。各画像について、例えば、疑似固定の最速20%を解析から除外することを想定することが可能である。
各被験者及び各画像について、疑似固定時間で重みづけした500ピクセル分散のガウスカーネル(σ≒22.4ピクセル≒0.5°の視角)を用いて、カーネル密度推定(Parzen-Rosenblatt法とも呼ばれる)によりヒートマップを推定した。最後に、ヒートマップを、正規化された個々のヒートマップの平均として各刺激について計算した。ヒートマップは、この画像の各被験者の各ヒートマップの平均として各刺激について計算された。
眼球運動計測及びタッチ探査によって得られたヒートマップは非常に類似していることが観察された。特に、2つの方法のヒートマップが、画像の同じ関心点に疑似固定を明確に反映することが観察された。
第1の定量的指標を用いて、2つの方法を用いて得られたヒートマップを定量化した。この第1の指標は、2つの方法を用いて得られたヒートマップ間の相関の単純な測定値であった。人間の社会的シーンの画像では0.341〜0.849の相関値が観察された。サルの社会的シーンの画像では0.385〜0.893の相関値が観察された。このような相関値は、眼球探査に関するタッチ探査の忠実度を保証するのに十分高い。一般に、複数の生物を示す画像は、特に障害の識別への応用の目的で、社会的シーンを含めるために、試験に好ましい。
従って、本発明に係るタッチ探査は、特に、タッチ探査が被験者の網膜で実行される処理をシミュレートする生体模倣アプローチを用いるため、眼球探査を忠実に再現する。
相関値のばらつきは、2つの方法の間の探査行動の実際の差異よりも、試験画像の複雑さに関連しているようである。具体的には、画像が複雑になればなるほど、被験者は画像発見の戦略においてランダムな動きをする傾向がより強くなる。

Claims (10)

  1. −タッチディスプレイ(11)と、
    −少なくとも1つの関心点(301)を含む画像(300)を格納するデジタルメモリ(14)と、
    −前記タッチディスプレイ(11)でユーザの接触点(325)の位置を判定し、前記タッチディスプレイ上に現在表示されている画像(320)内の対応する位置を特定するステップと、
    −格納された前記画像から劣化画像(320)を生成するステップであって、前記劣化画像は、
    −判定された前記接触点の位置及びその周囲を含むクリアゾーン(324)内の、格納された前記画像と実質的に同一であり、
    −前記クリアゾーンを超えた周辺劣化パラメータで劣化するものであり、
    −生成された前記劣化画像(320)を前記タッチディスプレイ(11)に表示するステップと、
    −前記接触点(325)の連続した位置を前記タッチディスプレイ(11)で記録するステップと、
    −のステップを繰り返し実行するように構成された処理装置(13)と、
    を備えることを特徴とする、
    眼球運動を判定する装置(1)。
  2. −タッチディスプレイ(11)と、少なくとも1つの関心点(301)を含む画像(300)を格納するデジタルメモリ(14)とを含む装置(1)を準備し、
    −前記タッチディスプレイ(11)でユーザの接触点(325)の位置を判定し、前記タッチディスプレイ上に現在表示されている画像(320)内の対応する位置を特定するステップと、
    −格納された画像から劣化画像(320)を生成するステップであって、前記劣化画像は、
    −判定された前記接触点(325)の位置及びその周囲を含むクリアゾーン(324)内の、格納された前記画像と実質的に同一であり、
    −前記クリアゾーンを超えた周辺劣化パラメータで劣化するもの(323)であり、
    −生成された前記劣化画像(320)を前記タッチディスプレイに表示するステップと、
    −前記接触点の連続した位置を前記タッチディスプレイで記録するステップと、
    −のステップを繰り返す、
    眼球運動を判定する方法。
  3. 前記劣化画像(320)は、前記クリアゾーン(324)を超えて、格納された前記画像(300)をぼかすことによって生成される、
    請求項2に記載の眼球運動を判定する方法。
  4. 格納された前記画像からの前記劣化画像(320)の生成は、格納された前記画像(300)と前記劣化画像(320)との間の平均SSIM指標が0.4から0.8の間に含まれるように構成され、前記クリアゾーン(324)の面積と生成された前記劣化画像(320)の面積との比は、0.01から0.5の間に含まれる、
    請求項2又は3に記載の眼球運動を判定する方法。
  5. 格納された前記画像からの前記劣化画像(320)の生成は、格納された前記画像(300)と前記劣化画像(320)との間の平均SSIM指標が0.4から0.7の間に含まれるように構成され、前記クリアゾーン(324)の面積と生成された前記劣化画像(320)の面積との比は、0.01から0.15の間に含まれる、
    請求項4に記載の眼球運動を判定する方法。
  6. 前記クリアゾーン(324)は、前記接触点(325)の上方に少なくとも8mmの直径の円を含む、
    請求項2〜5のいずれか1項に記載の眼球運動を判定する方法。
  7. 前記タッチディスプレイ(11)での前記ユーザの前記接触点(325)の位置は、10から50msの間に含まれる期間でサンプリングされる、
    請求項2〜6のいずれか1項に記載の眼球運動を判定する方法。
  8. 前記ステップの繰り返しが、少なくとも5秒間の長さの時間にわたって実行される、
    請求項2〜7のいずれか1項に記載の眼球運動を判定する方法。
  9. 格納された前記画像(300)は、それぞれが少なくとも1つの関心点を形成する複数の生物を示す、
    請求項2〜8のいずれか1項に記載の眼球運動を判定する方法。
  10. −請求項2〜9のいずれか1項に記載の眼球運動を判定する方法を実行するステップと、
    −前記接触点の記録された連続した位置と基準視覚探査経路とを比較するステップと、
    −前記接触点の記録された連続した位置が、前記基準視覚探査経路から所定の閾値よりも大きくそれるときに、視覚探査異常を判定するステップと、
    を備える、
    視覚探査異常を判定する方法。
JP2018536250A 2016-01-15 2016-12-27 触覚インターフェースによって眼球運動を判定する装置及び方法 Active JP6911034B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16305042.0 2016-01-15
EP16305042.0A EP3192434B1 (fr) 2016-01-15 2016-01-15 Dispositif et procédé de détermination des mouvements oculaires par interface tactile
PCT/EP2016/082730 WO2017121617A1 (fr) 2016-01-15 2016-12-27 Dispositif et procede de determination des mouvements oculaires par interface tactile

Publications (2)

Publication Number Publication Date
JP2019505294A true JP2019505294A (ja) 2019-02-28
JP6911034B2 JP6911034B2 (ja) 2021-07-28

Family

ID=55357947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018536250A Active JP6911034B2 (ja) 2016-01-15 2016-12-27 触覚インターフェースによって眼球運動を判定する装置及び方法

Country Status (7)

Country Link
US (1) US10779726B2 (ja)
EP (1) EP3192434B1 (ja)
JP (1) JP6911034B2 (ja)
CN (1) CN108495584B (ja)
CA (1) CA3049134C (ja)
ES (1) ES2702484T3 (ja)
WO (1) WO2017121617A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733203A (zh) * 2017-04-20 2018-11-02 上海耕岩智能科技有限公司 一种眼球追踪操作的方法和装置
JP7115424B2 (ja) * 2019-06-20 2022-08-09 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654808A (ja) * 1992-08-12 1994-03-01 A T R Shichokaku Kiko Kenkyusho:Kk 注視点マスキングによる医療診断装置
JP2006087743A (ja) * 2004-09-24 2006-04-06 National Institute Of Information & Communication Technology 認識能力測定装置及び認識能力測定方法
US20110205167A1 (en) * 2007-06-13 2011-08-25 Massengill Family Trust Brain concussion screening method & apparatus
JP2013510613A (ja) * 2009-11-13 2013-03-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人の両眼の屈折特性の少なくとも1つを自動的に測定するための方法及び装置
JP2015502238A (ja) * 2011-12-20 2015-01-22 アイチェック ヘルス コネクション, インコーポレイテッド 緑内障における視野欠損を監視するためのビデオゲーム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2731896B1 (fr) * 1995-03-24 1997-08-29 Commissariat Energie Atomique Dispositif de mesure de la position du point de fixation d'un oeil sur une cible, procede d'eclairage de l'oeil et application a l'affichage d'images dont les images changent en fonction des mouvements de l'oeil
CN101657144B (zh) 2007-04-13 2012-05-30 耐克国际有限公司 单一式视觉和协调测试中心
WO2010051037A1 (en) * 2008-11-03 2010-05-06 Bruce Reiner Visually directed human-computer interaction for medical applications
US9216133B2 (en) * 2013-01-16 2015-12-22 Elwha Llc Using a 3D display to train a weak eye
US10254863B2 (en) * 2014-12-19 2019-04-09 Lg Electronics Inc. Mobile terminal
JP2018506054A (ja) * 2014-12-22 2018-03-01 ノバサイト リミテッド 改善表示のためのシステム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654808A (ja) * 1992-08-12 1994-03-01 A T R Shichokaku Kiko Kenkyusho:Kk 注視点マスキングによる医療診断装置
JP2006087743A (ja) * 2004-09-24 2006-04-06 National Institute Of Information & Communication Technology 認識能力測定装置及び認識能力測定方法
US20110205167A1 (en) * 2007-06-13 2011-08-25 Massengill Family Trust Brain concussion screening method & apparatus
JP2013510613A (ja) * 2009-11-13 2013-03-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人の両眼の屈折特性の少なくとも1つを自動的に測定するための方法及び装置
JP2015502238A (ja) * 2011-12-20 2015-01-22 アイチェック ヘルス コネクション, インコーポレイテッド 緑内障における視野欠損を監視するためのビデオゲーム

Also Published As

Publication number Publication date
US10779726B2 (en) 2020-09-22
WO2017121617A1 (fr) 2017-07-20
EP3192434A1 (fr) 2017-07-19
CA3049134A1 (fr) 2017-07-20
CA3049134C (fr) 2023-08-01
JP6911034B2 (ja) 2021-07-28
ES2702484T3 (es) 2019-03-01
EP3192434B1 (fr) 2018-10-03
CN108495584B (zh) 2020-10-30
US20190021589A1 (en) 2019-01-24
CN108495584A (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
CN109219386B (zh) 显示系统和方法
CN110623629B (zh) 一种基于眼球运动的视觉注意检测方法及系统
US10888222B2 (en) System and method for visual field testing
JP6951327B2 (ja) 視覚の様相を検査する方法及びシステム
JP6774136B2 (ja) 自動視力診断の方法およびシステム
CN104254281B (zh) 测量注意力的方法
CN113693552A (zh) 视觉疲劳监测方法、装置、电子设备及可读存储介质
CN109758107A (zh) 一种vr视觉功能检查装置
CN106725531B (zh) 基于视线的儿童专注力测试分析系统和方法
JP6911034B2 (ja) 触覚インターフェースによって眼球運動を判定する装置及び方法
KR101984993B1 (ko) 사용자 맞춤형 시표 제어가 가능한 시야검사기
KR102625583B1 (ko) Vr 공간에 대한 시지각 분석 시스템, 시지각 분석 방법 및 시지각 분석 방법을 실행시키도록 기록매체에 저장된 컴퓨터 프로그램
Ueno et al. Relation between human alertness, velocity wave profile of saccade, and performance of visual activities
CN210330543U (zh) 一种vr视觉功能检查装置
US20220296092A1 (en) System and method for visual field assessment
KR20150107511A (ko) 공간주시특성을 이용한 공간탐색 특성정보 추출방법
CN117373075B (zh) 基于眼部特征点和眼部区域分割结果的情感识别数据集
US20240268660A1 (en) Determining a visual performance of an eye of a person
WO2017186721A1 (en) Eye movement monitoring system
EP4056101A1 (en) Method and device for determining a visual performance
US20230309824A1 (en) Accommodation tracking based on retinal-imaging
JPWO2017141141A1 (ja) 測定システム、評価システム、測定方法、及び評価方法
Quang et al. Mobile traumatic brain injury assessment system
Lazar et al. DEVELOPMENT OF EYE TRACKING PROCEDURES USED FOR THE ANALYSIS OF VISUAL BEHAVIOR-STATE OF ART
CN117474841A (zh) 一种图像主观质量评分和瞳孔数据同步采集方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6911034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150