JP2013052116A - 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 - Google Patents
自閉症診断支援方法およびシステム並びに自閉症診断支援装置 Download PDFInfo
- Publication number
- JP2013052116A JP2013052116A JP2011192387A JP2011192387A JP2013052116A JP 2013052116 A JP2013052116 A JP 2013052116A JP 2011192387 A JP2011192387 A JP 2011192387A JP 2011192387 A JP2011192387 A JP 2011192387A JP 2013052116 A JP2013052116 A JP 2013052116A
- Authority
- JP
- Japan
- Prior art keywords
- line
- illusion
- sight
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Social Psychology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
Abstract
【解決手段】撮像カメラ部を少なくとも具備する視線検出ユニットを用いて、被験者の自閉症を診断する支援方法であって、錯視画像面として錯視画像を、被験者の視線先の表示体上に表示し、該視線検出ユニットを用いて、該錯視画像面を見る被験者の視線位置情報を検出した後、該被験者の視線位置情報を、視線位置情報記憶部に入力し、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価することを特徴とする自閉症診断支援方法など。
【選択図】図1
Description
しかし、自閉症に対する有効性の確立された薬物療法は、見出されておらず、早期診断と、これに基づく早期(3歳未満)の教育的介入とが、予後を改善させる唯一の道筋である。
ところが、今日の標準的臨床的技法では、早期に自閉症の診断を確実に行うことは、容易でない。例えば、従来の自閉症診断では、小児科医・児童精神科医が乳幼児の行動から評価、診断を行っているが、専門家(専門医)が少なく、かつ早期診断が難しく、また、評価者毎の評価に相違があり、客観的な評価が困難な現状である。
現在、専門医の自閉症診断では、面談で経験的に外見から判断したり、血液採取による成分検査が行われている。しかし、外見判断では、専門医による豊富な経験を必要とし、また、数値化困難といった問題がある。他方、血液検査では、採取する煩雑さの問題がある。しかも、乳幼児の診察においては、面談での意志疎通がほぼ行えないことや、血液成分での判別では、3才未満の検証例がまだ研究段階であることから、現状では、有効、確実な検査手段となっていない。さらには、乳幼児が自閉症であるか親が気づかず、医師へ相談すること自体が行われない、或いは遅れてしまうという深刻な問題もある。
したがって、上記の現状において、大人だけに限らず、子ども、特に乳幼児の自閉症に対して、客観的評価にもとづく、専門家(専門医)の早期発見・早期確定診断を可能とする方法、装置や支援システムの開発が望まれている。
本発明者らは、この異常を正しく検出し、それを客観的な自閉症の早期診断指標として、好ましい視線検出技術を用いれば、活用できると、着目した。
また、上記特許発明の「視線検出技術」と類似した他の技術として、特許文献6には、ユーザの頭部の方向に光線を発する1つ又は複数の光源と、ユーザの頭部からの光線を撮像カメラにて受光し、そのピクチャを反復的に取り込む検知器と、眼の位置及び/又は凝視方向を決定するために前記検知器に接続された評価ユニットと、を備える眼検知装置であって、前記評価ユニットは、前記検知器によって取り込まれたピクチャ内の、単数又は複数の目の像が位置している領域を決定し、前記領域の決定後、前記検知器によって取り込まれた像の前記決定された領域に対応する連続的な、又は後続のピクチャに関する情報だけを前記評価ユニットに送るように前記検知器を制御するように構成されていることを特徴とする眼検知装置が開示されている。
また、特許文献7には、視線認識対象の眼球に光を照射し当該眼球の角膜上に3点以上の特徴点を持つ像を撮像カメラにて結像させ、前記角膜上に結像された像の特徴点から前記眼球の角膜曲率中心を求め、角膜曲率中心と瞳孔中心の位置情報から視線方向を認識する視線認識装置において、角膜曲率中心と瞳孔中心の位置関係から仮の視線方向を計算する仮視線計算手段と、仮の視線方向と瞳孔の位置情報から限定された角膜領域を求める角膜領域判定手段と、前記限定された角膜領域内に前記像の特徴点がある場合には、仮の視線方向を視線認識結果とし、限定された角膜領域内に像の特徴点の一部がない場合には、限定された角膜領域内に存在する像の特徴点を選択し、選択された像の特徴点から前記眼球の角膜曲率中心を求めて、角膜曲率中心と瞳孔中心の位置情報とから視線方向を認識し、視線認識結果とする処理手段とを備えることを特徴とする視線認識装置が開示されている。
さらに、特許文献8には、(a)ユーザの眼を監視する眼撮像手段(撮像カメラ)によって生成されたビデオデータを受信するビデオデータ入力手段と、(b)閾値よりも高い輝度を有する前記眼撮像手段によって生成された画像の部分の表示を提供する適応閾値手段、および前記画像の前記部分を所定の妥当性基準と比較することによって有効な基準スポットを選択するスポット同定手段を含む、点光源で前記ユーザの眼を照明することによって、前記ユーザの眼上に形成される基準スポットの位置を前記ビデオデータから決定するスポット位置指定手段と、(c)前記ビデオデータから、前記基準スポットに対する前記ユーザの眼の瞳孔の中心位置を決定して、前記ユーザの注視線を決定する瞳孔位置指定手段であって、前記瞳孔位置指定手段が、前記有効基準スポットの位置に対する前記瞳孔を含む前記眼撮像手段によって生成された前記画像の一部を含む瞳孔追跡ウィンドウを選択する選択手段、閾値よりも大きい勾配を有する前記瞳孔追跡ウィンドウ内の前記画像部分の勾配の前記部分の選択によって瞳孔の縁部を決定する縁部決定手段、および瞳孔の縁部について選択された点を参照することにより瞳孔の中心の位置を決定する中心決定手段を含み、前記該中心決定手段が、瞳孔画像データの複数の画素の中から、3つの閾値を超える画素を実質的に無作為に選択して、さらなる処理のための3つ組を形成する3つ組選択手段、および前記選択した画素の各々を通過する仮想円の中心および半径を決定する3つ組処理手段を含む、瞳孔位置指定手段と、(d)前記瞳孔およびスポット位置指定手段によって決定した前記ユーザの注視線から前記ユーザの注視点を表示する表示手段とを備えるユーザの眼運動を監視するための視標追跡システムが開示されている。
ちなみに、後述するが、本発明では、このような「視線検出技術」を適用できる位置づけであり、特に、上記特許文献1〜5に開示の技術は、瞳孔が小さく言葉を理解しえないことから指示どおり静止しないであろう乳幼児に適した技術の一つである。
なお、判別できると記載するが、自閉症の本態である社会性の障害に由来する徴候を視線の動きから検出し、もって客観的な早期診断指標を示唆することをいい、医療行為(確定診断)そのものを示すものではない。本発明によれば、専門家(専門医)が少ない地域の場合や、学校や保健所の集団検診など自閉症に関する専門家(専門医)がその場に不在となる場合においても、データ検出だけ行う検査自体は実施でき、評価結果に基づいた専門家(専門医)による確定診断は、その後または通信手段による遠隔地での早期発見を可能とすること、あるいは、分野の異なる医師などが評価結果を基に専門家(専門医)による確定診断を得るよう推奨を可能とすること、といった利便性を高めることができる支援方法を実現するものである。
錯視画像面として錯視画像を、被験者の視線先の表示体上に表示し、
該視線検出ユニットを用いて、該錯視画像面を見る被験者の視線位置情報を検出した後、該被験者の視線位置情報を、視線位置情報記憶部に入力し、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価することを特徴とする自閉症診断支援方法が提供される。
さらに、本発明の第3の発明によれば、第2の発明において、前記非錯視画像は、前記特定錯視画像と外観と色彩が近似するが、視線を少し外しても恰も動いているように錯覚を生じない画像であることを特徴とする自閉症診断支援方法が提供される。
さらに、本発明の第5の発明によれば、第4の発明において、前記定型発達者と自閉症者の視線動向の対比または相違は、錯視画像面のうち、錯視画像を表示したエリアの視線位置情報と、それ以外のエリア上に存在する被験者の視線位置情報それぞれのエリア内に存在した累計時間もしくは平均時間に基づき、または錯視画像を表示したエリアからそれ以外のエリアに移動した回数もしくはエリア内最長存在時間の長さに基づき、頻度を検出することを特徴とする自閉症診断支援方法が提供される。
(a)撮像カメラ部を少なくとも具備する視線検出ユニットを用いて、被験者の視線先に表示された錯視画像面を見る被験者の視線位置情報を検出する視線検出手段と、
(b)該被験者の視線位置情報を入力する手段と、
(c)該被験者の視線位置情報を、視線を少し外すと恰も動いているように錯覚を生ずる画像である錯視画像を表示画面の画面上に表示したときの位置情報に基づき、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価する視線評価手段と、
(d)該被験者の視線位置の評価結果を表示する表示手段とを、
具備することを特徴とする自閉症診断支援システムが提供される。
また、本発明の第8の発明によれば、第7の発明において、さらに、(e)前記被験者の視線位置の評価結果を記録する記録手段を具備することを特徴とする自閉症診断支援システムが提供される。
(i)視線検出手段を用いて、被験者の視線先に表示される錯視画像面を見る被験者の視線位置情報を、検出する視線検出部と、
(ii)該視線検出部により検出された視線位置情報を記録する視線位置情報記録部と、
(iii)該視線位置情報記憶部に記録された被験者の視線位置情報を表示する視線位置情報表示部と、
(iv)該視線位置情報表示部に表示された被験者の視線位置情報を、所定の自閉症診断支援アルゴリズムにより、自閉症者または定型発達者の視線位置情報との類比について評価する視線位置情報評価部と、
(v)該視線位置情報評価部で得られた評価結果を出力する評価結果出力部と、
(vi)該評価結果出力部が出力した評価結果または視線位置情報評価部が取得した評価結果を記録する評価結果記録部とを、
具備することを特徴とする自閉症診断支援装置が提供される。
本発明の自閉症診断支援方法は、視線検出ユニットを用いて、該錯視画像面を見る被験者の視線位置情報を検出した後、該被験者の視線位置情報を、視線位置情報記憶部に入力し、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価することを特徴とする。
また、本発明の自閉症診断支援システムは、
(a)撮像カメラ部を少なくとも具備する視線検出ユニットを用いて、被験者の視線先に表示された錯視画像面を見る被験者の視線位置情報を検出する視線検出手段と、
(b)該被験者の視線位置情報を入力する手段と、
(c)該被験者の視線位置情報を、視線を少し外すと恰も動いているように錯覚を生ずる画像である錯視画像を表示画面の画面上に表示したときの位置情報に基づき、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価する視線評価手段と、
(d)該被験者の視線位置の評価結果を表示する表示手段とを、
具備することを特徴とするものである。
本発明の自閉症診断支援方法およびシステムなどについて、詳細に説明する(以下の説明においては、便宜上、前記の自閉症診断支援システムと称して、自閉症診断支援方法や装置についても、説明することがある。)。
構成全体の説明として、本診断支援装置は、例えば、本体ユニット/視線位置検出ユニット/表示ユニットA/表示ユニットBからなり、うち視線位置検出ユニットには、撮像カメラ部/任意で撮像補助照明部から構成される。
上記本体ユニット/表示ユニットAは、検査者側に設けられ、一方、上記視線位置検出ユニット/表示ユニットBは、被験者側に設けられる。
但し、各ユニットは、構成上、適宜ほかのユニットに組み込まれることを妨げない。これは、近年市販のパソコンがディスプレイ一体型のものがあるように、本体ユニットや視線位置検出ユニットを表示ユニットAまたはB内に収納できるケースや、視線位置検出ユニットを本体ユニットとは別のパソコンを用意し、そこに収納できるケースもあるからである。例えば、極端に一体的な構成とするならば、被験者の診断と検査者の確認を同時に進行しないものとして、被験者と検査者のモードを切替式にすれば、構成すべて(表示ユニット本体ユニット全体)を一体にでき、兼用することも可能である。
他方、検査者側と被験者側のユニットは、同室に配置することを制限するものでなく、遠隔地の被験者を検査することや、記録された被験者の検査画像を後日に別の場所で評価することも、本発明に含むものである。
図1において、検査者側は、医師または代行者が担当するエリアであり、例えば、検査者側の構成は、以下のとおりである。尚、データ検出を行う検査自体は、医師でなくても、代行者で実施できる。
(1)本体ユニット(市販パソコン):ヒューレットパッカード社製デスクトップPC(型式:Pavilion Elite HPE)
(3A)表示ユニットA(市販液晶ディスプレイ):iiyama社製ディスプレイ(型式:ProLiteE2407HDS、仕様:液晶24inch)
(2)視線位置検出ユニット:静岡大学製注視点検出装置[情報科学技術フォーラム講演論文集(9(3),589−591,2010−08−20)で発表された装置、「頭部移動を許容するステレオカメラによる較正容易な注視点検出装置」]
(2A)撮像カメラ部(NTSC方式CCDカメラとして上記(2)装置に実装済のもの)
(2B)撮像補助照明部(LED発光回路として上記(2)装置に実装済のもの)
(3B)表示ユニットB(市販液晶ディスプレイ):NEC社製ディスプレイ(型式:LCD192VBK、仕様:液晶19inch)
(1)本体ユニット
本体ユニットは、市販のパソコンを用いることができる。
図1のように、本体ユニットは、表示ユニットBに対し、特定の表示画像情報を送信し、視線位置検出ユニットから被験者の視線位置情報を受信し、被験者の視線の動きを送信した表示画面情報の位置情報と時間情報を整合させた記録情報として、登録するように構成されている。
また、本体ユニットは、前記記録情報をもとに、リアルタイムまたは検出後において、自閉症者特有の視線の動きか、定型発達者の視線の動きかを集計し、また、集計後、任意で、基本となる定型発達者と認定された者の視線の動き(あるいは基本となる自閉症者と認定された者の視線の動き)と比較し、解析した結果を、表示ユニットA(外部出力を含む)へと検出結果情報として出力する。
その他、本体ユニットは、検出結果情報の出力として、表示ユニットAに表示するだけでなく、記録情報の各種情報や検出結果情報を外部機器と印刷、表示、転送することも、任意行う。
視線位置検出ユニット(以下、視線検出ユニットと称することもある。)は、被験者の見る表示ユニットBの付近に設置され、被験者の目を撮像カメラ部から(任意で撮像補助照明部も用いて)、被験者の視線の位置に関する情報(以下、視線位置情報と称することもある。)を得て、逐次本体ユニットに視線位置情報を出力する。これにより、本体ユニットは、被験者が表示ユニットBのどこを見ているかの視線位置情報を得る。
また、視線位置検出ユニットは、被験者の視線位置情報を検出できれば、市販、公知の各種検出手段や装置を、適用できる。
さらに、視線位置検出ユニットは、選択した装置に応じて、両目または片目による検出の方法のいずれでかであってもよい。
精度よい検出において、例えば、前記特許文献1〜5の視線検出技術(その他各種出願、公開中の発明も含め)の公報に挙げられた技術を視線検出ユニットとして適用すれば、(i)静止せず動き回る乳幼児、(ii)眼鏡をかけた被験者、(iii)被験者ごと異なる目の曲率などの補正において、誤差が少なく高い精度でかつ小型化、簡便に視線を検出できる構成とできるため、視線位置情報の検出において適格かつ簡便に視線を検出する技術の一つとして、極めて好適である。
連動していない場合は、本体ユニットや表示ユニット側において、視線位置検出ユニットから常時出力される視線位置情報を受信、集計し、解析によって、表示画像情報の各表示した絵柄の位置と、被験者の表示した際の視線位置とを特定すればよい。
表示ユニットA、Bは、市販のディスプレイを用いることができる。また、液晶ディスプレイ、CRTやプロジェクタなど、特に限定されず、表示部分の大きさや形状も任意である。
重要なことは、表示ユニットの表示面の大きさ、形状の違い、表示するまでの時間のタイムラグ、過去または基準となる記録情報との違いから、本体ユニットの解析や出力に影響しないよう配慮することであり、例えば、記録情報には、表示ユニットの表示速度や寸法等に関する各情報を付加し、比較時において補正を行うなど、表示までのタイムラグや寸法の違いに影響されないように、適切な解析や出力ができるよう適宜調整を行うとよい。
尚、表示ユニットには、近年、市販される立体表示ディスプレイでは表示画面に奥行き感を演出できるものを、適用してもよい。そして、極端な例であるが、視線位置情報が前述したように3次元で検出可能なものを適用するにおいて、表示ユニットBは、立体ディスプレイに限らず、費用労力さえ度外視すれば、ジオラマのような立体物による表示も含む。他方、2次元では、ディスプレイにかえてスライド撮像や紙芝居のように表示させることであっても、本発明の思想の実現できる範囲で否定するものではない。
本発明において、各ユニットが取り扱う情報は、大きく次の4つである。
(a)表示画像情報
(b)視線位置情報
(c)記録情報
(d)検出結果情報
以下、各情報について、説明する。
(a−1)表示画像情報に含まれる絵柄
本発明において、表示画像情報とは、主として表示ユニットBから被験者の視線先に展開させる画像情報(平面では画像面ともいう)をいう。ここで、画像情報とは、主として静止画、動画からなる絵柄であり、絵柄には、図形、文字、イラスト、人物や風景などの各種があり、なかでも錯視を生ずるものを、錯視画像と位置づける。
本発明では、この錯視画像を、表示画像情報として適用するものである。
ここで、国内外で特定錯視画像の発表がインターネットに掲載されているので記載しておく。
日本文献例:http://www.adm.fukuoka−u.ac.jp/fu844/home2/Ronso/Jinbun/L40−1/L4001_0001.pdf
英文文献例:http://www.jneurosci.org/content/25/23/5651.full.pdf
このような特定錯視画像の具体的な例として、代表作を数例、表1に示す。
その効果は、総じて色盲・色弱・盲目といった目の不自由な者でない限り、同じ効果を見る者に感じさせることができるとされている。なお、色盲・色弱の者については、本人が判別できる配色やグレーの画像を選択するとよい。
ここで、好ましいものを例示する。
上記表2の(ii)非錯視画像(α)は、錯視画像でない画像の一つであり、表示ユニットB全面のうち、左側の錯視画像と並べて右側に表示させる例であり、ここでは、非錯視画像としてキャラクターの顔と、錯視画像として、例えば特定錯視画像のうち最適化型フレーザー・ウィルコックス錯視タイプIVの基本図形を、一例として画面全体に並べて表示したものである(図18参照。)。
また、(iii)非錯視画像(β)は、並べて表示する特定錯視画像とは外観(形状や模様、色彩等の形態構成要素)が近似するが、視線を少し外した部分の絵柄が上下左右方向や回転方向にゆらいで動いているように見せかける錯視要素を生じないようになっている非錯視画像の一つであり、表示ユニットB全面のうち、左側には(ii)で用いた特定錯視画像と並べて右側に表示させる例である(図19参照。)。
さらに、(iii)非錯視画像(β)のような錯視要素を生じないような画像を用意するには、たとえば、上の特定錯視画像の場合(8つの点で1つの輪とし、計4つの輪が構成)では、絵柄の影(点ごとの配色)の付け方を替える(一方向からの光源により生じる影の位置にする)等により、錯視要素を生じなくすることができる。
すなわち、被験者は、表示ユニットBに表示された画面のいずれか一部を見ることとなるが、錯視画像によって錯視要素を感じさせることや、被験者が目線を動かすと、画面の一部つまり特定錯視画像によって視線を少し外した部分の画像に錯視要素を感じさせることができる。ここで、被験者が錯視要素を感じた際に、その部分に視線を誘導することや、特定錯視要素画像ではその部分に視線を合わせると、その視線を合わせた部分に錯視要素が生じなくなることを看取させることができるから、被験者の視線を画面上で、頻繁に移動させることができる。
しかし、被験者が自閉症者である場合には、錯視要素を感じない、または感じたとしても、本人が興味のある部分を注視する意志が強いことから、自然と、錯視要素の影響を受けない傾向が生じる、つまり、自閉症者の視線は、画面上で頻繁に移動する傾向が希薄となるのである。
ここで、表示した錯視画像と非錯視画像のいずれかまたは双方を、時折左右に動かす、点滅させるなどにより、被験者の目線を意図的に特定の位置へと誘導しやすくしてもよいが、表示画面情報に、静止画像を採用することこそ、被験者の視線を誘導する行為を行わず、より自然な状態で被験者の視線の移動を検出することができ、他方、言葉による意思伝達がしえない乳幼児においても、特に望ましいのである。
また、特定錯視画像と非錯視画像(α)とを、表示ユニットB全面に表示した場合は、表2の(ii)の例では、非錯視画像(α)としてキャラクターを示したが、本装置は、まず、表示画面全体において、右側全体の画像(キャラクター)と、左側全体の画像(特定錯視画像)の2種類があることを位置関係として示し、大きく2種類の画像(要素)があることを、被験者に把握させる。
ここで、被験者が右側に表示されたキャラクターを見たときの視線の位置において、視野の左側に位置する部分の特定錯視画像が上下左右方向や回転方向にゆらいで動いているように見せかける錯視要素を看取させ、意識的に特定錯視画像を見させるようになり、続き特定錯視画像自体に視点を合わせると、錯視要素が消失していき静止したように看取される感覚を与えることができる。
このように、キャラクターとの位置関係により、特定錯視画像に錯視要素を生じることを利用して、被験者に特定錯視画像と非錯視画像(α)との間の視線の移動を生じさせることができる。
これによって、被験者は、絵柄の違いなどの刺激によって視線が誘導されることなく、被験者自らの意志により、一見同じように見える特定錯視画像と、特定錯視画像でない画像との組み合わせによって、見たい位置を誘導させない、規制させない、より自然な状態で、被験者に視線の移動を生じさせることができ望ましい。
ここで、被験者は、表示ユニットBの画面全体に表示された画像のそれぞれを、自らの意志で見る中で、一見同じように見える特定錯視画像と特定錯視画像でない画像のうち錯視要素を画面の一部に錯視要素を看取し、錯視要素を感じた位置を見ると錯視要素が消失していき静止して看取され、また、画面に表示された絵柄それぞれを、自らの意志で見る(一見して同じ絵柄にも係わらず、動きのある部分とない部分に違和感、不自然さを感じさせ、それに興味をもつ。)中で、再度視野の中に錯視要素を生じる絵柄があることを看取することを利用して、被験者の特定錯視画像と非錯視画像(β)との間の視線の移動を生じさせることができる。
表示する錯視画像は、1種でもよいし、同じ錯視画像1種を複数個、または、異なる錯視画像2種以上を同時に表示してもよい。また、左右上下にゆっくりと動くなど動画として表示してもよい。
このようにすれば、表示に用いる錯視画像や特定錯視画像を複数種用いることによって、被験者ごと視線移動の特徴から評価しやすい錯視画像が選択できて、有益である。
なお、表示は、1回に限らず、複数回、あるいは特定錯視画像を表示した前後や複数回表示する合間に、特定錯視画像を含まない画像だけの表示を混在してもよい。
特定錯視画像を含まない画像だけの表示を混在させることで、意図的に、特定の位置に表示される画像へと事前に視線を誘導させない、または、被験者の慣れる意識をリフレッシュするなどにおいて、解析に有効となる条件を検証するに有益と考えるためである。
本発明において、錯視画像をみると、定型発達者では、視線の移動が顕著に表れるのに対し、自閉症者では、視線の移動が少ない傾向が表れるという定型発達者と自閉症者の視線動向の対比または相違に基づくものとしているが、これは、表示画像情報に含まれる画像(要素)にエリアの設定をする診断支援アルゴリズムをもって、実現するものである。
上記のように表示される各絵柄(画像)には、画像に応じて、次のような2種類の画像エリアとして、「錯視エリアS」と「非錯視エリアN」とが設定される。
この画像エリアとは、表示ユニットに表示されたときの画像の位置に関する情報(以下、エリア情報ともいう)である。
先ず、錯視画像の表示される画面上の範囲を「錯視エリアS」と定義する。
この錯視エリアSは、表示体上の錯視画像全体の外周を囲む範囲の内側全体に設定するものであり、前記範囲は、外周範囲の画像の無い部分をより拡大する方向に、画像外周との間隔をより広げて、任意に設定することができる。
例えば、複雑な外形の外周を有する画像であれば、画像全体をとり囲んだ矩形や円形など任意の枠を錯視エリアSと設定すればよく、さらに、相似形に図柄と重なる2重3重の錯視エリアSを設けてもよい(図20参照。)。この場合は、便宜上、外側の錯視エリアからS1,S2、S3・・・とし、内側の錯視エリアは、図柄よりも狭く、外側の錯視エリアは、図形よりも少し広めに設定しても、差し支えない。
この設定は、たとえば被験者が画像を看取するとき、外周(輪郭)付近を見ているときであっても、輪郭のやや外側で視線位置を検出しても錯視画像の輪郭付近を見ていると判定するためや、視線位置検出ユニット固有の精度幅の誤差範囲を考慮し、錯視画像を見ていると判定するにおいて、望ましいためである。
このように錯視エリアごとの分割、あるいは、そのほかの一つの錯視エリアをさらに細かく分割(例えば、1図柄を縦や横に真半分2分割する等)にして、それぞれを設定しても差し支えないが、いずれもエリアの範囲内をより細かく設定できることによって、記録情報を解析する際に、複数分割した錯視エリアごと被験者が錯視エリア中特にどの部分に視線が集中しているか、錯視画像自体でなく錯視エリア以外も周囲をどの程度見ているかといった情報での把握や、視線位置検出ユニット固有の精度幅の誤差範囲を広げて設定しておく等、集計や比較する上で調整でき、有効である。
ここで錯視エリアSの外周より外側の非錯視エリアN中には、錯視画像でない画像(図柄)を表示してもよい(図22の下2番目の図)。
この画像も、非錯視エリアNに含むものとする。この場合は、錯視エリアSの定義と同様であるが、便宜上、錯視画像でない画像(図柄)が複数在るときは絵柄ごと非錯視エリアNa,非錯視エリアNb・・・と設定し、また絵柄ごと相似形に拡大する2重3重のエリアを設ける場合には、外側の非錯視エリアから非錯視エリアNa1、非錯視エリアNa2・・・・・とする。
ちなみに、非錯視エリアNの設定で留意すべきは、採用する視線位置検出ユニットの仕様にもよるが、表示ユニットBの表示面の外側全体について、どこまで非錯視エリアNとして集計するか、はたまた、表示面全体の外は対象外(エラー等)として集計するかを、明確に定めておくと良い。
これは、視線位置検出ユニットの仕様によって、いずれかで選択して差し支えないが、過去との比較において非錯視エリアNの集計の仕方が違うことにより、検出結果情報に影響しないよう配慮することが望ましいためである。
当然ながら、時間ごと変化する画像においては、時間ごと被験者に表示する画像に応じて、錯視エリアSと非錯視エリアNの情報が整合するものであり、立体的な表示においては三次元的な情報が付加される。
すなわち、表示ユニットBの画面全体を均一の升目に数分割し、その分割した升目に全体または半分以上画像が重なるかどうかで、錯視エリアSか非錯視エリアNかを設定してもよい。
この場合は、升目をできるだけ細かく分割するのが望ましいが、表示させる画像の大きさや形状、位置によっては、ある程度升目を粗く均一に分割したり画像に合わせて、升目を均一にせず部分的に粗くし、画像の外枠にあった大きさになるように、升目の分割を調整して、升目ごとに錯視エリアSか非錯視エリアNかを設定すればよい。
より極端には、錯視画像の外形大きさ以下の粗い升目に分割して、この画像の輪郭の一部が枠内に含まれたエリアまでをエリアSと設定し、それ以外(錯視画像が全く入らない枠)は、すべて非錯視エリアNに設定することもできる。
画像エリアを設定したのち、次に、上記のように、視線位置情報は、画像情報に対して前記までの「錯視エリアS」、「非錯視エリアN」の各エリア情報が表示ユニットBに表示する画像全てを対象に、本体ユニットにおいて付与されて構成される。
この付与とは、本体ユニットにおいて画像ごと各エリア情報を画面の色データから自動的に判別させてもよいし、検査者等において手動的に画像ごと各エリア情報を設定や調整ができるようにしてもよい。
また、表示画像そのものに、被験者に見えないよう透明の線で画像として情報を保持してもよいし、また、別の画像や位置情報として別々に保持し、解析の段階で整合させるてもよい。
なお、付与するタイミングは、被験者へ表示画像を表示する前後を問わない。本体ユニットが、被験者の視線を記録情報として受信し解析する時点までに、行われればよい。
図23の左図は、前記(3)表示ユニットBの液晶ディスプレイに表示した例である。
ディスプレイのドット(横ドット数:縦ドット数=1280:1024)を単位として合わせて、画面向かって左上角を座標(X=0、Y=0)、右下角を(X=374、Y=298)とした視線位置とエリア位置がディスプレイドット位置で整合させた例である。
ここで、図23の右図のように、錯視要素画像としては、画面全体の左半分に表示させたとすると、エリアSを左上(座標X=0、Y=0)〜右下(座標X=187、Y=298)で囲む矩形と設定すればよい。また、エリアNを左上(座標X=187、Y=0)〜右下(座標X=374、Y=298)で囲む矩形と設定すればよい。
このようにエリアを設定すれば、どのような画像でも表示ユニットBの表示画像の画面上の表示されるドット位置座標から枠ごとに共通してエリアで整合できるので、エリア位置情報をこのように本体ユニットが保持しておくことにより、受信した視線位置情報に応じて、いつどの位置を被験者が見ていたかを、錯視エリアS内か非錯視エリアN内かを、ディスプレイのドット座標で、簡便に特定することができる。
視線位置検出ユニットから本体ユニットが入力する視線位置情報とは、本体ユニットが表示ユニットBの画面のどの位置を被験者が見ていたかを確認できる視線位置座標データを含む情報である。
一例として、視線位置情報は、被験者の視線が位置情報として表示ユニットBの画面上の2次元データ(X,Y座標)とすればよい。
ここで、視線位置情報として、本体ユニットまたは視線位置検出ユニットが表示された表示画像情報のどの位置に、いつ被験者の視線が向けられたかが明確に分かる時間情報、たとえば電波時計等を利用した実時間情報を、検出した視線位置情報に付与しておくと、のちに記録情報の整合が確実にできて好ましい。
すなわち、本体ユニットの解析において、表示画像情報と視線位置情報の位置や時間を合致して特定できればよいものであり、数値データや画像データいずれに限定するものでない。
なお、視線位置情報とは、前記説明した画面上の平面的な2次元データ(X,Y座標)に限るものでなく、立体的な3次元データ(X,Y,Z座標)であってもよい。
つまり、この3次元データの場合には、両目の先の視線の交点いわゆる“視点”となるが、本発明の“視線”として2次元の場合での表示装置の表示面との交点と考えればよく、換言すれば、視線位置情報が得られるものであれば平面的な位置情報でなく立体的な位置情報として、視点として検出することも本発明の視線の定義に含むものである。
前記(2)視線位置検出ユニットでは、被験者の視線位置情報を、1秒間に60回、設定したディスプレイのどの位置を見ているかを、ディスプレイのドット座標X,Yデータとして位置を出力できるように調整した。
このようにすれば、たとえば前記したように、19インチ液晶ディスプレイにおいて60秒錯視要素画像を左半分に表示した場合には、30回×40秒として、1200数の視線位置情報をディスプレイのドット座標(横ドット数:縦ドット数=1280:1024)として得ることができる。
具体的には、後述するが図25に示すような、視線位置情報のデータが本体ユニットに加工し得られる。
記録情報とは、本体ユニットにおいて、表示ユニットBに送信する表示画像情報(エリア情報を含む)と、視線位置検出ユニットから入力した被験者の視線位置情報を保管して、両者の位置情報を整合し、解析するための視線の位置に関するデータとして保管される情報をいう。
この記録情報には、前述したエリア位置情報と視線位置情報以外にも、補完的な情報を付加しても差し支えない。例えば、画像ファイルのタイトル名や表示した時間歴、使用したユニットに関する仕様情報、被験者に関する個人情報、過去の診断履歴等を補完的な情報として含んでもよい。
この所望の解析とは、視線位置情報と表示画像情報から、被験者が表示画像情報のエリア情報のいつどの位置、エリアを見ていたか、特定のエリア間の移動する頻度がどの程度あるかを集計して表示するものである。
ここまでを、図25で説明すると、「位置座標」が視線位置情報であり、検出位置座標として表示ユニットBのX、Y座標に合致した位置情報を保存した例であり、ここでさらに、「番号」が検出順を確認する番号で「取得時間」が抽出した時点の時間(秒)であり、記録情報として補完的な情報を得ている。さらに、「存在area」が画像ごと図24で設定した枠(錯視エリアSか非錯視エリアNか)のエリア情報で視線位置情報を判定した情報、「S→N」「N←S」が錯視エリアSと非錯視エリアNとの間の移動があったかの有無を、示しており、これらを検出順にカンマ区切りのテキストデータとして得たものである。
また、集計では、被験者に表示した画像の全体をまとめた集計、または一部の時間あたり、または表示した個別の画像ごと分割した集計を行うとよい。
さらに、必要に応じて、これらと、同一の画像による基準・対象となる定型発達者や自閉症者の記録情報との差違の集計を行うことが望ましい。
ここで解析において重要なことは、被験者の視線の動きの頻度について、これを特定の画像とエリアを設定したことにより、視線の移動頻度を集計できる基準を得ること、定型発達者や自閉症者の記録情報を視線動向の対比または相違に基づき、評価できるようにすることにある。
本体ユニットは、前記1200の視線位置情報と、表示画像情報のエリア位置情報から、例えば、次のような情報に集計することができる。
(i)錯視エリアSに存在した総プロット数(全1200数中998数)
(ii)非錯視エリアNに存在した総プロット数(全1200数中202数)
(iii)錯視エリアSから非錯視エリアNに移動した初回のプロット数(計2回)
(iv)非錯視エリアNから錯視エリアSに移動した初回のプロット数(計2回)
このように、上記(i)と(ii)はプロット数の和がほぼ総プロット数(全1200数)、(iii)と(iv)は往復する傾向からほぼ同数となるのでそれぞれいずれか一方でもよいが、検出した情報の検証のうえで両方を集計することが望ましい。
このような各エリアに存在していた累計数や移動回数を集計するほか、同じエリアに連続して存在していた最長数や平均数などを集計することも、容易である。
また、錯視エリアSや非錯視エリアNが1つの画像中に複数存在する場合や、複数の画像を用いる際には、それぞれに錯視エリアSと非錯視エリアNが存在するので、その場合は、各エリアSやNの総数を集計するとよく、他方、錯視エリアS1、錯視エリアS2のように個別に集計することも任意にしてもよい。
あるいは、プロットのうちプロット間の移動量から視線をベクトル方向と量に換算して、目線の動きの頻度や早さの程度を一つの情報として集計してもよい。
さらに、本体ユニットがこのような記録情報を持つことによって、同じ画像情報を対象として、過去の同被験者の傾向の変化、または異なる被験者との傾向の相異が行えるのである。
そのほかにも、既に定型発達者であると医師に確定診断された者や、自閉症であると医師に確定診断された者で行った同じ画像情報による記録情報と、比較することも容易となる。
またさらに、このような記録情報とすることで、過去の被験者が、のちに定型発達者または自閉症と確定診断された場合には、その被験者の過去の記録情報に補足情報として保存することで、基準・比較対象を補強することも、可能となるほか、専門家(専門医)が少ない地域の場合や、学校や保健所の集団検診など自閉症に関する専門家(専門医)がその場に不在となる場合においても、記録情報を取得する検査自体は、実施でき、評価結果に基づいた専門家(専門医)による確定診断は、その後または通信手段による遠隔地での早期発見を可能とすること、あるいは、分野の異なる医師などが評価結果を基に専門家(専門医)による確定診断を得るよう推奨し、記録情報を専門家(専門医)に通知する等を可能とすること、といった利便性を高めることができる。
なお、これら情報においては、検査者の所望する検討、より検証を考察したいために、基準・比較対象を、年齢別、男女別、外見的な特徴別など、さまざまな傾向ごとに区分できるような補足情報を付加することも、好適な一つである。
ここで、本発明では、過去の被験者の視線位置情報および該被験者に対する自閉症であるか否かの確定診断情報を記録したデータベースに基づいて、前記錯視画像面エリアと非錯視画像面エリアを相互に移動する視線の移動頻度について、閾値を設定することが好ましい。
検出結果情報とは、本体ユニットにおいて、記録情報を解析した内容を検査者の所望する様式で、検査者に対して表示し、印刷し、あるいは転送するものであり、表示ユニットAだけでなく、画面情報や録画情報をプリンターなどの印刷媒体や外部の保存媒体、再生媒体、別の表示媒体へと出力することを含む。
また、検出結果情報は、前記(i)〜(xi)のような数値である必要はなく、前記(i)(ii)のように視線の集合した数や時間による濃度分布など各種分布に変換した図表であったり、記録情報の解析した内容以外にも表示画像情報と視線位置情報を録画した画像やその視線を軌跡や重畳した色別変化を付けて表示する等々、各種再現して表示することも含む。
尚、比較表示するデータは、各々に測定した個人データ、特定の条件により選択したデータの平均値、標準値や、これら組み合わせ等、必要により適宜選択し表示するとよい。
このように記録情報の解析した内容を示せば、検査者への自閉症の症状の可能性を示す視線位置情報として好適となる。
次に、自閉症診断支援システムにおける視線位置検出の具体的なフローを説明する。以下の工程がある。
工程I:検出準備
工程II:検出開始
工程III:視線位置データの処理
工程IV:視線位置の評価結果の表示
先ず、工程Iの検出準備として、被験者を、例えば、ディスプレイの真正面、距離は約80cm離れて座らせる。被験者が乳幼児や幼児の場合は、母親等の膝上に座らせても良い。このとき、ディスプレイ画面は、被験者の顔の高さで、被験者から画面全体が十分に視界に入るような顔の位置にセットされる。
用意された画像は、各画像ごとに時間変化に応じたエリア情報「錯視エリアS」と「非錯視エリアN」を含むものである。
表示する画像は、1種類でもよいが、自閉症者ごと正確や興味を広く確認する上でも複数種類順次表示するとよく、そのなかに表2の(iii)(図19)のように左側が錯視を生じる画像側で、右側が錯視を生じない画像側と、なっているものを用意しておくと良い。
次に、医師(検査者)からの検出開始の合図を、パソコン(PC:本診断支援装置)が受けると、PCは、検出に用いられる特定画像を表示させる。時間は、1画面当たり数秒から数十秒程度であり、医師の要求により、表示時間は、適宜調整すればよい。
こうして、被験者が用意された画像をみることになる。
用意された画像の特定錯視要素画像に応じた、乳児の視線位置情報が、視線検出ユニットからPCに、時系列で送信される。このとき、視線位置情報には、タイムスタンプが付される。
なお、被験者が画面を見ない、または瞬きをしたことで、評価に適さない視線位置情報については、この段階または以降の段階で評価に不要な情報として、除外するためのマーキング情報を付すか、または削除処理をするとよい。或いは、被験者が乳幼児であると余りに画面を見ない場合もあり得るのでこの際は、検出のやり直しまたは中断のうえ再開をしたり、ディスプレイの方向から音楽や親の声など興味を与える刺激を行うなども、適宜行ってよい。
医師の要求に応じた用意された画像が全て表示し終わると、検出は、完了となる。
集められた視線位置情報としては、PCにより、図4のように、タイムスタンプごとに、表示されていた特定画像に含まれた、前記の「錯視エリアS」または「非錯視エリアN」のいずれかに判定された各視線位置情報が、エリア情報に応じて、評価点として加算される。
評価点が加算される対象は、視線位置情報を数値自体で評価してもよいし、視線位置のプロット表示を含む画像自体で評価してもよく、任意である。
なお、「錯視エリアS」または「非錯視エリアN」のいずれかを含む評価点として、ここでは、視線を誘発させる要素がディスプレイのドットX,Yに応じた位置のそれぞれのエリア内に存在した累計時間もしくは平均時間に基づき、または錯視画像を表示したエリアからそれ以外のエリアに移動した回数もしくはエリア内最長存在時間の長さに基づき、判定し、評価する。
さらに、過去の被験者の視線位置情報および該被験者に対する自閉症であるか否かの確定診断情報を記録したデータベースに基づいて、自閉症者または定型発達者の視線位置情報とを、前記錯視画像面エリアと非錯視画像面エリアを相互に移動する視線の移動頻度と、類比して評価してもよい。
検査で表示した特定画像全体の評価点の加算を終了すれば、データ処理は、完了となる。
上記のようにして、視線位置の評価結果が、図26A、Bのように、PCに表示される。
医師は、PCに表示された視線位置の評価結果により、定型発達者と自閉症者の視線動向の違いから、自閉症者の傾向を判別でき、結果として、自閉症患者の早期確定診断を可能にするものとなる。
また、本発明の視線検出支援装置は、錯視画像を用いて自閉症診断を支援する自閉症診断支援装置であって、
(i)視線検出手段を用いて、被験者の視線先に表示される錯視画像面を見る被験者の視線位置情報を、検出する視線検出部と、
(ii)該視線検出部により検出された視線位置情報を記録する視線位置情報記録部と、
(iii)該視線位置情報記憶部に記録された被験者の視線位置情報を表示する視線位置情報表示部と、
(iv)該視線位置情報表示部に表示された被験者の視線位置情報を、所定の自閉症診断支援アルゴリズムにより、自閉症者または定型発達者の視線位置情報との類比について評価する視線位置情報評価部と、
(v)該視線位置情報評価部で得られた評価結果を出力する評価結果出力部と、
(vi)該評価結果出力部が出力した評価結果または視線位置情報評価部が取得した評価結果を記録する評価結果記録部とを、具備することを特徴とするものである。
定型発達者(7才の定型発達児を対象とした)1名および自閉症者(7才の自閉症児を対象とした)1名について、本明細書の視線位置検出のフローに基き、工程I〜IVの自閉症診断支援システムにおける視線位置検出を実施した。
具体的には、予め用意した、図3に示す錯視画像面(左側の上下4つの輪が錯視を生じる画像側で、右側の上下4つの輪が錯視を生じない画像側)を、医師の検出開始の合図に、パソコン(PC)上に、表示させ、被験者である前記2名(定型発達者1名および自閉症児1名)に、この錯視画像を6秒間みせたところ、図4のような、視線位置データがカウントされた特定画像の評価点が含まれた視線位置の評価結果が表示された。
上記集計結果情報を、次の表3に示す。
尚、上記の実施例は、幼児を測定した場合で示したものであるが、乳幼児および成人においても、同様の集計結果が得られることを、別途確認している。
Claims (9)
- 撮像カメラ部を少なくとも具備する視線検出ユニットを用いて、被験者の自閉症を診断する支援方法であって、
錯視画像面として錯視画像を、被験者の視線先の表示体上に表示し、
該視線検出ユニットを用いて、該錯視画像面を見る被験者の視線位置情報を検出した後、該被験者の視線位置情報を、視線位置情報記憶部に入力し、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価することを特徴とする自閉症診断支援方法。 - 前記錯視画像面は、被験者の視線を誘導させずに又は被験者の自由意思により表示画面を見させるために、画面上に、視線を少し外すと恰も動いているように錯覚を生ずる画像である特定錯視画像と錯視を生じない非錯視画像とを並列して表示することを特徴とする請求項1に記載の自閉症診断支援方法。
- 前記非錯視画像は、前記特定錯視画像と外観と色彩が近似するが、視線を少し外しても恰も動いているように錯覚を生じない画像であることを特徴とする請求項2に記載の自閉症診断支援方法。
- 前記所定の自閉症診断支援アルゴリズムは、錯視画像をみると、定型発達者では視線の移動頻度が大きいのに対し、自閉症者では視線の移動頻度が少ない傾向であるという定型発達者と自閉症者の視線動向の対比または相違に基づくことを特徴とする請求項1〜3のいずれかに記載の自閉症診断支援方法。
- 前記定型発達者と自閉症者の視線動向の対比または相違は、錯視画像面のうち、錯視画像を表示したエリアの視線位置情報と、それ以外のエリア上に存在する被験者の視線位置情報それぞれのエリア内に存在した累計時間もしくは平均時間に基づき、または錯視画像を表示したエリアからそれ以外のエリアに移動した回数もしくはエリア内最長存在時間の長さに基づき、頻度を検出することを特徴とする請求項4に記載の自閉症診断支援方法。
- 前記所定の自閉症診断支援アルゴリズムは、過去の被験者の視線位置情報および該被験者に対する自閉症であるか否かの確定診断情報を記録したデータベースに基づいて、前記錯視画像面エリアと非錯視画像面エリアを相互に移動する視線の移動頻度について、閾値を設定することを特徴とする請求項1、4、5のいずれかに記載の自閉症診断支援方法。
- (a)撮像カメラ部を少なくとも具備する視線検出ユニットを用いて、被験者の視線先に表示された錯視画像面を見る被験者の視線位置情報を検出する視線検出手段と、
(b)該被験者の視線位置情報を入力する手段と、
(c)該被験者の視線位置情報を、視線を少し外すと恰も動いているように錯覚を生ずる画像である錯視画像を表示画面の画面上に表示したときの位置情報に基づき、所定の自閉症診断支援アルゴリズムにより、該被験者の視線位置を評価する視線評価手段と、
(d)該被験者の視線位置の評価結果を表示する表示手段とを、
具備することを特徴とする自閉症診断支援システム。 - さらに、(e)前記被験者の視線位置の評価結果を記録する記録手段を具備することを特徴とする請求項7に記載の自閉症診断支援システム。
- 錯視画像を用いて自閉症診断を支援する自閉症診断支援装置であって、
(i)視線検出手段を用いて、被験者の視線先に表示される錯視画像面を見る被験者の視線位置情報を、検出する視線検出部と、
(ii)該視線検出部により検出された視線位置情報を記録する視線位置情報記録部と、
(iii)該視線位置情報記憶部に記録された被験者の視線位置情報を表示する視線位置情報表示部と、
(iv)該視線位置情報表示部に表示された被験者の視線位置情報を、所定の自閉症診断支援アルゴリズムにより、自閉症者または定型発達者の視線位置情報との類比について評価する視線位置情報評価部と、
(v)該視線位置情報評価部で得られた評価結果を出力する評価結果出力部と、
(vi)該評価結果出力部が出力した評価結果または視線位置情報評価部が取得した評価結果を記録する評価結果記録部とを、
具備することを特徴とする自閉症診断支援装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011192387A JP5912351B2 (ja) | 2011-09-05 | 2011-09-05 | 自閉症診断支援システム及び自閉症診断支援装置 |
EP12829614.2A EP2754397A4 (en) | 2011-09-05 | 2012-09-04 | ASSISTANCE PROCEDURE FOR DIAGNOSIS OF AUTISM, SYSTEM AND AUXILIARY DEVICE FOR AUTHENTIC DIAGNOSIS |
US14/342,760 US9538947B2 (en) | 2011-09-05 | 2012-09-04 | Method, system and device for assisting diagnosis of autism |
PCT/JP2012/072440 WO2013035684A1 (ja) | 2011-09-05 | 2012-09-04 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011192387A JP5912351B2 (ja) | 2011-09-05 | 2011-09-05 | 自閉症診断支援システム及び自閉症診断支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013052116A true JP2013052116A (ja) | 2013-03-21 |
JP5912351B2 JP5912351B2 (ja) | 2016-04-27 |
Family
ID=47832129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011192387A Active JP5912351B2 (ja) | 2011-09-05 | 2011-09-05 | 自閉症診断支援システム及び自閉症診断支援装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9538947B2 (ja) |
EP (1) | EP2754397A4 (ja) |
JP (1) | JP5912351B2 (ja) |
WO (1) | WO2013035684A1 (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6092888A (ja) * | 1983-10-27 | 1985-05-24 | Tokyo Electric Co Ltd | 電子タイプライタ− |
JPS6097052A (ja) * | 1983-09-26 | 1985-05-30 | イー・アイ・デュ・ポン・ドゥ・ヌムール・アンド・カンパニー | シアノヒドリン化触媒 |
WO2013141098A1 (ja) * | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
JP2014071779A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 診断支援装置および診断支援方法 |
JP2014068932A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 診断支援装置および診断支援方法 |
WO2014208761A1 (ja) * | 2013-06-28 | 2014-12-31 | 株式会社Jvcケンウッド | 診断支援装置及び診断支援方法 |
WO2015016233A1 (ja) * | 2013-07-31 | 2015-02-05 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP2015027423A (ja) * | 2013-06-28 | 2015-02-12 | 株式会社Jvcケンウッド | 制御装置、診断支援装置、制御方法及び制御プログラム |
JP2015177953A (ja) * | 2013-07-31 | 2015-10-08 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP2015181798A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
JP2015181797A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
WO2016052646A1 (ja) * | 2014-09-30 | 2016-04-07 | 国立大学法人浜松医科大学 | 不注意の測定装置、システム、及び方法 |
JP2017158866A (ja) * | 2016-03-10 | 2017-09-14 | 株式会社Jvcケンウッド | 診断支援装置、診断支援方法、トレーニング支援装置、及びトレーニング支援方法 |
JP2018019777A (ja) * | 2016-08-01 | 2018-02-08 | 株式会社トプコン | 眼科検査装置 |
US10159408B2 (en) | 2014-03-25 | 2018-12-25 | JVC Kenwood Corporation | Detection apparatus and detection method |
JP2021037385A (ja) * | 2020-12-09 | 2021-03-11 | 株式会社トプコン | 眼科検査装置 |
JP2021192802A (ja) * | 2017-06-30 | 2021-12-23 | 株式会社テクリコ | 高次脳機能検査用の三次元表示装置 |
US11583221B2 (en) | 2017-11-14 | 2023-02-21 | Osaka University | Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014051010A1 (ja) | 2012-09-28 | 2014-04-03 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
WO2014093546A2 (en) | 2012-12-11 | 2014-06-19 | Ami Klin | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
US9463132B2 (en) * | 2013-03-15 | 2016-10-11 | John Castle Simmons | Vision-based diagnosis and treatment |
KR20160106552A (ko) | 2013-10-17 | 2016-09-12 | 칠드런스 헬스케어 오브 애틀란타, 인크. | 눈 추적을 통해 유아와 아이의 성장을 평가하는 방법 |
US20160029938A1 (en) * | 2014-07-31 | 2016-02-04 | JVC Kenwood Corporation | Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium |
CN104299497A (zh) * | 2014-11-07 | 2015-01-21 | 江南大学 | 一种圆环视错觉仪 |
US10699116B2 (en) * | 2015-02-20 | 2020-06-30 | Hewlett-Packard Development Company, L.P. | Eye gaze authentication |
JP2019017800A (ja) * | 2017-07-19 | 2019-02-07 | 富士通株式会社 | コンピュータプログラム、情報処理装置及び情報処理方法 |
US11138429B2 (en) * | 2018-03-12 | 2021-10-05 | Tobii Ab | Iris recognition using eye-tracking system |
JP6786176B2 (ja) * | 2018-04-26 | 2020-11-18 | 日本電信電話株式会社 | 錯覚装置、画像生成装置、オブジェクト生成装置、錯覚方法、画像生成方法、および、プログラム |
CA3176116A1 (en) | 2020-03-27 | 2021-09-30 | Osaka University | Cognitive impairment diagnostic device and cognitive impairment diagnostic program |
US11903711B2 (en) | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004283609A (ja) * | 1999-04-23 | 2004-10-14 | Neuroptics Inc | 瞳孔不規則性検出・瞳孔追跡・瞳孔反応検出機能、緑内障検査機能、角膜解剖学的測定機能、頭蓋内圧検出機能、および、眼異常測定機能を備えた瞳孔計 |
JP2012510830A (ja) * | 2008-12-05 | 2012-05-17 | ジ・オーストラリアン・ナショナル・ユニバーシティー | 瞳孔の評価方法および評価装置 |
JP2012520691A (ja) * | 2009-03-20 | 2012-09-10 | ジョセリン・フォベール | 軽度知覚障害を測定するためのデバイスおよび方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3453911B2 (ja) | 1995-03-02 | 2003-10-06 | 富士ゼロックス株式会社 | 視線認識装置 |
US6820979B1 (en) * | 1999-04-23 | 2004-11-23 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability |
GB0119859D0 (en) | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
SE524003C2 (sv) | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
JP4517049B2 (ja) | 2003-12-25 | 2010-08-04 | 国立大学法人静岡大学 | 視線検出方法および視線検出装置 |
JP4491604B2 (ja) | 2004-12-17 | 2010-06-30 | 国立大学法人静岡大学 | 瞳孔検出装置 |
JP4528980B2 (ja) | 2005-08-23 | 2010-08-25 | 国立大学法人静岡大学 | 瞳孔検出装置及び瞳孔検出方法 |
JP4452835B2 (ja) | 2006-07-31 | 2010-04-21 | 国立大学法人静岡大学 | 瞳孔を検出する方法及び装置 |
JP4452836B2 (ja) | 2006-07-31 | 2010-04-21 | 国立大学法人静岡大学 | 瞳孔を検出する方法及び装置 |
US8371693B2 (en) * | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
-
2011
- 2011-09-05 JP JP2011192387A patent/JP5912351B2/ja active Active
-
2012
- 2012-09-04 EP EP12829614.2A patent/EP2754397A4/en not_active Withdrawn
- 2012-09-04 US US14/342,760 patent/US9538947B2/en active Active
- 2012-09-04 WO PCT/JP2012/072440 patent/WO2013035684A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004283609A (ja) * | 1999-04-23 | 2004-10-14 | Neuroptics Inc | 瞳孔不規則性検出・瞳孔追跡・瞳孔反応検出機能、緑内障検査機能、角膜解剖学的測定機能、頭蓋内圧検出機能、および、眼異常測定機能を備えた瞳孔計 |
JP2012510830A (ja) * | 2008-12-05 | 2012-05-17 | ジ・オーストラリアン・ナショナル・ユニバーシティー | 瞳孔の評価方法および評価装置 |
JP2012520691A (ja) * | 2009-03-20 | 2012-09-10 | ジョセリン・フォベール | 軽度知覚障害を測定するためのデバイスおよび方法 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6097052A (ja) * | 1983-09-26 | 1985-05-30 | イー・アイ・デュ・ポン・ドゥ・ヌムール・アンド・カンパニー | シアノヒドリン化触媒 |
JPS6092888A (ja) * | 1983-10-27 | 1985-05-24 | Tokyo Electric Co Ltd | 電子タイプライタ− |
WO2013141098A1 (ja) * | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
JP2013223713A (ja) * | 2012-03-21 | 2013-10-31 | Hamamatsu Univ School Of Medicine | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
JP2014071779A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 診断支援装置および診断支援方法 |
JP2014068932A (ja) * | 2012-09-28 | 2014-04-21 | Jvc Kenwood Corp | 診断支援装置および診断支援方法 |
JP2015027423A (ja) * | 2013-06-28 | 2015-02-12 | 株式会社Jvcケンウッド | 制御装置、診断支援装置、制御方法及び制御プログラム |
WO2014208761A1 (ja) * | 2013-06-28 | 2014-12-31 | 株式会社Jvcケンウッド | 診断支援装置及び診断支援方法 |
US10123695B2 (en) | 2013-07-31 | 2018-11-13 | JVC Kenwood Corporation | Diagnosis supporting device and method of supporting diagnosis |
JP2015177953A (ja) * | 2013-07-31 | 2015-10-08 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
EP3028644A4 (en) * | 2013-07-31 | 2017-03-01 | JVC KENWOOD Corporation | Diagnosis assistance device and diagnosis assistance method |
JP2015043964A (ja) * | 2013-07-31 | 2015-03-12 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
WO2015016233A1 (ja) * | 2013-07-31 | 2015-02-05 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP2015181798A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
JP2015181797A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
US10159408B2 (en) | 2014-03-25 | 2018-12-25 | JVC Kenwood Corporation | Detection apparatus and detection method |
US10413176B2 (en) | 2014-09-30 | 2019-09-17 | National University Corporation Hamamatsu University School Of Medicine | Inattention measurement device, system, and method |
WO2016052646A1 (ja) * | 2014-09-30 | 2016-04-07 | 国立大学法人浜松医科大学 | 不注意の測定装置、システム、及び方法 |
JPWO2016052646A1 (ja) * | 2014-09-30 | 2017-08-31 | 国立大学法人浜松医科大学 | 不注意の測定装置、システム、及び方法 |
JP2017158866A (ja) * | 2016-03-10 | 2017-09-14 | 株式会社Jvcケンウッド | 診断支援装置、診断支援方法、トレーニング支援装置、及びトレーニング支援方法 |
JP2018019777A (ja) * | 2016-08-01 | 2018-02-08 | 株式会社トプコン | 眼科検査装置 |
JP2021192802A (ja) * | 2017-06-30 | 2021-12-23 | 株式会社テクリコ | 高次脳機能検査用の三次元表示装置 |
US11583221B2 (en) | 2017-11-14 | 2023-02-21 | Osaka University | Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program |
JP2021037385A (ja) * | 2020-12-09 | 2021-03-11 | 株式会社トプコン | 眼科検査装置 |
JP7034243B2 (ja) | 2020-12-09 | 2022-03-11 | 株式会社トプコン | 眼科検査装置 |
Also Published As
Publication number | Publication date |
---|---|
US20140213930A1 (en) | 2014-07-31 |
JP5912351B2 (ja) | 2016-04-27 |
US9538947B2 (en) | 2017-01-10 |
EP2754397A4 (en) | 2015-06-17 |
EP2754397A1 (en) | 2014-07-16 |
WO2013035684A1 (ja) | 2013-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5912351B2 (ja) | 自閉症診断支援システム及び自閉症診断支援装置 | |
JP5926210B2 (ja) | 自閉症診断支援システム及び自閉症診断支援装置 | |
RU2716201C2 (ru) | Способ и устройство для определения остроты зрения пользователя | |
JP6774136B2 (ja) | 自動視力診断の方法およびシステム | |
Kinateder et al. | Using an augmented reality device as a distance-based vision aid—promise and limitations | |
Morgan et al. | Digital imaging of the optic nerve head: monoscopic and stereoscopic analysis | |
US20150282705A1 (en) | Method and System of Using Eye Tracking to Evaluate Subjects | |
CN102387740B (zh) | 诊断和治疗已定义的病症的系统 | |
US20110242486A1 (en) | Autism diagnosis support apparatus | |
JP2018520820A (ja) | 視覚の様相を検査する方法及びシステム | |
WO2018046957A2 (en) | A reading system, text display method and apparatus | |
JP2007267802A (ja) | 検査システム、訓練システムおよび視覚情報呈示システム | |
KR20190141684A (ko) | 사용자의 건강 상태를 평가하기 위한 시스템(system for assessing a health condition of a user) | |
JP6269377B2 (ja) | 診断支援装置および診断支援方法 | |
CN110772218A (zh) | 视力筛查设备及方法 | |
CN104185020A (zh) | 一种检测立体视觉疲劳度的系统及方法 | |
JP6330638B2 (ja) | トレーニング支援装置およびプログラム | |
JP2005192637A (ja) | 脳機能計測方法及び脳機能計測システム | |
Bindiganavale et al. | Development and preliminary validation of a virtual reality approach for measurement of torsional strabismus | |
US10342421B2 (en) | Method for measuring visual acuity | |
JP6187347B2 (ja) | 検出装置および検出方法 | |
TWI840224B (zh) | 眼睛健康監測與媒合系統 | |
EP4142570B1 (en) | Method and device for determining a refractive error | |
WO2023112994A1 (ja) | 瞳孔径測定機能付きアイウェア | |
EP4011273A1 (en) | Method and device for determining at least one astigmatic effect of at least one eye |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20140818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140901 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140818 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20150526 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151006 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5912351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |