JP2015177953A - 診断支援装置および診断支援方法 - Google Patents

診断支援装置および診断支援方法 Download PDF

Info

Publication number
JP2015177953A
JP2015177953A JP2014133219A JP2014133219A JP2015177953A JP 2015177953 A JP2015177953 A JP 2015177953A JP 2014133219 A JP2014133219 A JP 2014133219A JP 2014133219 A JP2014133219 A JP 2014133219A JP 2015177953 A JP2015177953 A JP 2015177953A
Authority
JP
Japan
Prior art keywords
image
unit
viewpoint
subject
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014133219A
Other languages
English (en)
Other versions
JP6245093B2 (ja
Inventor
首藤 勝行
Katsuyuki Shudo
勝行 首藤
賢 二宮
Masaru Ninomiya
賢 二宮
修二 箱嶋
Shuji Hakojima
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to PCT/JP2014/067289 priority Critical patent/WO2014208761A1/ja
Priority to JP2014133219A priority patent/JP6245093B2/ja
Publication of JP2015177953A publication Critical patent/JP2015177953A/ja
Priority to US14/980,077 priority patent/US9579054B2/en
Priority to US15/398,906 priority patent/US10149643B2/en
Application granted granted Critical
Publication of JP6245093B2 publication Critical patent/JP6245093B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】診断の精度を向上する。
【解決手段】表示部と、被験者を撮像する撮像部と、撮像部により撮像された撮像画像から、被験者の視線方向を検出する視線検出部と、視線方向に基づいて、表示部の表示領域における被験者の視点を検出する視点検出部と、対象物の画像と、対象物を指し示す人物の画像と、を含む診断画像を表示部に表示させる出力制御部と、診断画像が表示されたときの視点検出部により検出された視点に基づいて被験者の評価値を算出する評価部と、を備える。
【選択図】図3

Description

本発明は、診断支援装置および診断支援方法に関する。
最近、発達障がい者が増加傾向にあると言われている。発達障がいは、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障がいの診断支援装置が求められている。
発達障がい早期発見のためには、例えば1歳半検診時に診断できることが理想的である。発達障がい児(特に自閉症)の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。また、発達障がい児は、人物映像より幾何学模様の映像を好むことが知られている。
また、カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障がいを診断支援する方法が提案されている。
特開2005−185431号公報 特開2008−125619号公報 特開2005−198743号公報 特開2011−206542号公報
Pierce K et al.,"Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.",Arch Gen Psychiatry. 2011 Jan;68(1):101-109.
発達障がいの被験者の診断を支援する方法が知られているが、さらに高精度の検出方法が求められていた。
本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置および診断支援方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、表示部と、被験者を撮像する撮像部と、前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、対象物の画像と、前記対象物の方向を示す人物の画像と、を含む診断画像を前記表示部に表示させる出力制御部と、前記診断画像が表示されたときの前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、を備えることを特徴とする。
本発明にかかる診断支援装置および診断支援方法は、診断の精度を向上できるという効果を奏する。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。 図2は、第1の実施形態の診断支援装置の機能の概要を示す図である。 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。 図4は、2台のカメラを使用した場合の目および距離の検出の一例を示す図である。 図5−1は、診断画像の一例を示す説明図である。 図5−2は、診断画像の一例を示す説明図である。 図6は、診断支援処理の一例を示すフローチャートである。 図7−1は、診断画像の他の例を示す説明図である。 図7−2は、診断画像の他の例を示す説明図である。 図8は、診断支援処理の他の例を示すフローチャートである。 図9は、診断支援処理の他の例を示すフローチャートである。 図10は、複数の診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。 図11は、複数の診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。 図12−1は、診断画像の他の例を示す説明図である。 図12−2は、診断画像の他の例を示す説明図である。 図12−3は、診断画像の他の例を示す説明図である。 図12−4は、診断画像の他の例を示す説明図である。 図13は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図14は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図15は、診断支援装置の機能の概要を示す図である。 図16は、図15に示す各部の詳細な機能の一例を示すブロック図である。 図17は、第2の実施形態の診断支援装置により実行される処理の概要を説明する図である。 図18は、2つの光源を用いる方法と、1つの光源を用いる第2の実施形態との違いを示す説明図である。 図19は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。 図20は、第2の実施形態の算出処理の一例を示すフローチャートである。 図21は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。 図22は、第2の実施形態の視線検出処理の一例を示すフローチャートである。 図23は、変形例の算出処理を説明するための図である。 図24は、変形例の算出処理の一例を示すフローチャートである。
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
(第1の実施形態)
乳幼児の発達障がいの診断支援では、発達障がいが関連した情報の検出精度を上げるため、複数のテストが行われ、総合的に判断される。診断テストには、発達障がい児は人物の目を見ないという特徴を利用したテストや、発達障がい児は人物映像より幾何学模様映像を好むという特徴を利用したテストが考えられる。
例えば、発達障がいの乳幼児は、保護者が指差した対象物を見ない、保護者が顔を向けて注視する対象物を見ない、および、自分が欲しい物を指差して要求しないなどの特徴がある。そこで、本実施形態の診断支援装置は、人物と、人物が複数の注視対象物のいずれかを指し示す映像を表示する。また本実施形態の診断支援装置は、人物が指などで指し示した対象物を含む領域、および、対象物以外の対象物を含む領域などの各領域に対する注視点の停留時間を測定して、発達障がいの評価値を演算する。これにより、高精度の発達障がいリスクの評価支援を実現する。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF(interface)部208と、制御部300と、記憶部150と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部351と、視点検出部352と、出力制御部353と、評価部354と、を備えている。
視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を検出する処理が含まれる。視点検出部352は、検出された視線方向を用いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部351による視線検出方法、および、視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。
この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位置および視線を検出してもよい。
視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。表示画面101には、診断画像が表示される。後述するように、診断画像は、例えば、対象物の画像と、当該対象物を指し示す人物の画像と、指し示すために用いる指などの指示物の画像と、を含む。なお、指示物は指に限られるものではなく、他の物体を指し示すことができるものであれば、例えば棒状の物体などの任意の物体を適用できる。
図3に戻り、出力制御部353は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部353は、診断画像、および、評価部354による評価結果などの表示部210に対する出力を制御する。出力制御部353は、対象物の画像と、対象物を指し示す人物の画像と、を含む診断画像を表示部210に表示させる。
評価部354は、診断画像と、視点検出部352により検出された注視点とに基づいて、発達障がいの程度に関する指標として評価値を算出する。評価部354は、例えば、後述する図5−1および図5−2のような診断画像を表示した際の被験者の注視点の位置に基づいて評価値を算出する。評価値の算出方法の具体例は後述する。評価部354は、診断画像と注視点とに基づいて評価値を算出すればよく、その算出方法は、実施の形態に限定されるものではない。
図5−1および図5−2は、診断画像の一例を示す説明図である。図5−1および図5−2は、人物が対象物を指し示す様子を表す画像の例である。なお、画像は、静止画および動画(映像)のいずれでもよいが、動画の方が注視されやすいので望ましい。図5−1および図5−2に示すように、人物は、対象物を注視しながら、注視する対象物を指し示している。
対象物を含む領域をT、指示物(手など)を含む領域をF、顔を含む領域をEとする。画面のそれ以外の領域をCとする。画面は、例えば、左上が(0、0)、右下が(Xmax、Ymax)となる座標で位置を表現する。つまりX座標は右が正であり、Y座標は下が正である。
図5−1および図5−2のように、対象物、指示物、および、顔をそれぞれ1つ含む診断画像を用いる場合の診断支援処理について説明する。図6は、この場合の診断支援処理の一例を示すフローチャートである。
まず、出力制御部353は、映像の再生を開始する(ステップS101)。出力制御部353は、映像の再生時間より僅かに短い時間を計測するタイマをリセットする(ステップS102)。評価部354は、評価値の算出に用いる以下のような各カウンタをリセット(初期化)する(ステップS103)。
・顔を含む領域Eを注視した時にカウントアップするカウンタCE
・指示物(手など)を含む領域Fを注視した時にカウントアップするカウンタCF
・対象物を含む領域Tを注視した時にカウントアップするカウンタCT
・上記領域以外の領域Cを注視した時にカウントアップするカウンタCC
注視点測定は、例えば、同期して撮像するステレオカメラの1フレームごとに行う。すなわち注視点は所定の時間間隔ごとに測定される。また、各カウンタのカウント値は注視時間(注視点の停留時間)に対応する。
次に、視点検出部352は、注視点検出を行う(ステップS104)。視点検出部352は、注視点検出が失敗したか否かを判断する(ステップS105)。瞬きなどにより瞳孔および角膜反射の画像が得られない場合などに、注視点検出が失敗する。また、注視点が表示画面101内に存在しない場合(被験者が表示画面101以外を見ていた場合)も、失敗としている。
注視点検出が失敗した場合(ステップS105:Yes)、各カウンタに影響させないため、ステップS117に移動する。注視点検出が成功した場合(ステップS105:No)、視点検出部352は、注視点の座標から被験者の注視点がいずれの領域内に存在するかを検出する(ステップS106)。次に、視点検出部352は、注視点が領域Eに存在するかを判断する(ステップS107)。注視点が領域Eに存在する場合(ステップS107:Yes)、視点検出部352は、カウンタCEをカウントアップする(ステップS108)。注視点が領域Eに存在しない場合(ステップS107:No)、視点検出部352は、注視点が領域Fに存在するか否かを判断する(ステップS109)。注視点が領域Fに存在する場合(ステップS109:Yes)、視点検出部352は、カウンタCFをカウントアップする(ステップS110)。注視点が領域Fに存在しない場合(ステップS109:No)、視点検出部352は、注視点が領域Tに存在するかを判断する(ステップS111)。注視点が領域Tに存在する場合(ステップS111:Yes)、視点検出部352は、カウンタCTをカウントアップする(ステップS112)。注視点が領域Tに存在しない場合(ステップS111:No)、すなわち、注視点が領域E,F,Tのいずれの領域にも存在しない場合、視点検出部352は、カウンタCCをカウントアップする(ステップS115)。
これにより、注視した領域のカウンタの計数値が上がり、注視の停留時間を計測することが可能となる。
次に、出力制御部353は、タイマが完了したかを判断する(ステップS117)。タイマが完了していない場合(ステップS117:No)、ステップS104に戻り処理を繰り返す。タイマが完了した場合(ステップS117:Yes)、出力制御部353は、映像の再生を停止する(ステップS118)。
次に、評価部354は、各領域の注視点の停留時間をもとに、発達障がいリスクの診断支援に関する評価演算を行う(ステップS119)。次に、評価部354は、評価値を出力して終了する(ステップS120)。
ステップS119の評価演算は、多数の方法が適用できる。最も簡易的なものは、対象物を含む領域Tにおける注視点の停留時間そのもの(カウンタCTの計数値)を評価値として算出する方法である。定型発達の被験者は、指し示した方向の物体を注視する傾向が高い。従って、停留時間の値が低いほど、発達障がいの可能性が高くなる。
また、定型発達の被験者は、人物の顔を見る傾向が高く、指し示した時の視線の先を見る傾向がある。従って、顔を含む領域(領域E)における注視点の停留時間を加味すると、さらに精度が向上する。例えば、以下の(1)式により算出される評価値ANSを用いてもよい。Kt、Keは重み付けの係数である。Kt>Keとなる。
ANS=(Kt×CT)+(Ke×CE)・・・(1)
さらに、定型発達の被験者は、指示物(指差しする手など)を見る傾向が高いので、領域Fにおける注視点の停留時間を加味すると、さらに精度が向上する。例えば、以下の(2)式により算出される評価値ANSを用いてもよい。Kfは重み付けの係数である。
ANS=(Kt×CT)+(Kf×CF)・・・(2)
さらに、上記(1)式および(2)式を総合し、以下の(3)式により算出される評価値ANSを用いてもよい。
ANS=(Kt×CT)+(Ke×CE)+(Kf×CF)・・・(3)
発達障がいリスクの高い被験者は、所定の領域外Cを注視する確率が高い。このため、領域Cにおける注視点の停留時間を加味すると、さらに精度が向上する。例えば、以下の(4)式により算出される評価値ANSを用いてもよい。Kcは重み付けの係数である。
ANS=
(Kt×CT)+(Ke×CE)+(Kf×CF)−(Kc×CC)・・・(4)
図5−1および図5−2の診断画像は一例であり、診断に用いる診断画像はこれらに限られるものではない。例えば、複数の対象物を含む診断画像を用いてもよい。
図7−1および図7−2は、診断画像の他の例を示す説明図である。図7−1および図7−2は、指し示される対象物に類似した他の対象物をさらに含む診断画像の例である。図7−1および図7−2では、他の対象物を含む2つの領域をそれぞれ領域Aおよび領域Bとしている。発達障がいの被験者は、領域Tと比較して領域Aまたは領域Bを注視する確率が高い。従って、図7−1および図7−2のような診断画像を用いることにより、検出の精度が向上する。
図7−1および図7−2のように、複数の対象物、指示物、および、顔を含む診断画像を用いる場合の診断支援処理について説明する。図8は、この場合の診断支援処理の一例を示すフローチャートである。
図6とは、ステップS213、ステップS214、および、ステップS216が追加される点が異なる。また、ステップS203でカウンタCABをさらにリセット(初期化)する点が異なる。また、ステップS219の評価演算がステップS119と異なる。その他の各ステップは図6と同様の処理であるため説明を省略する。
ステップS213、ステップS214、および、ステップS216は、領域Aおよび領域Bに関する処理である。
視点検出部352は、注視点が領域Tに存在しない場合(ステップS211:No)、注視点が領域Aに存在するか否かを判断する(ステップS213)。注視点が領域Aに存在する場合(ステップS213:Yes)、視点検出部352は、カウンタCABをカウントアップする(ステップS216)。注視点が領域Aに存在しない場合(ステップS213:No)、視点検出部352は、注視点が領域Bに存在するか否かを判断する(ステップS214)。注視点が領域Bに存在する場合(ステップS214:Yes)、視点検出部352は、カウンタCABをカウントアップする(ステップS216)。注視点が領域Bに存在しない場合(ステップS214:No)、視点検出部352は、カウンタCCをカウントアップする(ステップS215)。
このように、図8の例では、カウンタCABが用いられる。カウンタCABは、領域Aまたは領域Bを注視した時にカウントアップするカウンタである。ステップS219の評価演算は、以下のようにカウンタCABを用いる点が、ステップS119と異なる。すなわち、評価部354は、以下の(5)式により算出される評価値ANSを用いてもよい。
ANS=(Kt×CT)+(Ke×CE)−(Kab×CAB)・・・(5)
さらに、定型発達の被験者は、指示物(指差しする手など)を見る傾向が高いので、領域Fにおける注視点の停留時間を加味すると、さらに精度が向上する。例えば、以下の(6)式により算出される評価値ANSを用いてもよい。
ANS=(Kt×CT)+(Kf×CF)−(Kab×CAB)・・・(6)
さらに、上記(5)式および(6)式を総合し、以下の(7)式により算出される評価値ANSを用いてもよい。
ANS=
(Kt×CT)+(Ke×CE)+(Kf×CF)−(Kab×CAB)・・・(7)
発達障がいリスクの高い被験者は、所定の領域外Cを注視する確率が高い。このため、領域Cにおける注視点の停留時間を加味すると、さらに精度が向上する。例えば、以下の(8)式により算出される評価値ANSを用いてもよい。
ANS=(Kt×CT)+(Ke×CE)+(Kf×CF)
−(Kc×CC)−(Kab×CAB)・・・(8)
複数の対象物を含む診断画像を用いる場合の診断支援処理の他の例について説明する。図9は、この場合の診断支援処理の他の例を示すフローチャートである。この例では、人物が対象物を指し示さない状態で映像が開始され、開始から所定時間の経過後に、人物が対象物Tを注視しながら、対象物Tを指し示す診断画像を用いる。すなわち、被験者が、手や指の動きに注意を喚起された後に、手や指が示す方向を見る傾向を活かした診断支援処理を実現する。このような構成により、さらに診断の精度が向上する。
図9では、ステップS302−1が追加される点が、図8と異なる。ステップS302−1では、視点検出部352が、タイマ等を用いて、所定時間の経過を待機する処理を行う(ステップS302−1)。所定時間は、人物が対象物を指し示す動作を完了するまでの時間である。これにより、指し示す動作を完了した後の被験者の注視点を測定することが可能になる。なお、図9では視点検出部352が、タイマ等を用いて、所定時間の経過を待機する処理を行うようにしているが、これに代えて評価部が所定時間経過後の視点検出部から出力された値に基づいて評価値を算出するようにしてもよい。
これまでは、1つの診断画像を用いる例を説明したが、複数の診断画像を用いてもよい。図10および図11は、複数の診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。図10および図11は、例えば図7−1と図7−2のような2つの映像を連続的に表示させて総合的に評価する場合の例である。2つの映像は、例えば連結されている。なお、3以上の映像を連続的に表示する場合も同様の手順が適用できる。
図10で図8と異なる点は、ステップS403が追加される点である。ステップS403では、視点検出部352が、1つ目の映像(映像1)に対する各領域(領域E,F,T,A,B)を設定する。2つの異なる映像が表示されるため、このステップで各映像に対応した領域設定が行われる。また、図11で図8と異なる点は、ステップS422が追加される点である。ステップS422では、視点検出部352が、2つ目の映像(映像2)に対する各領域(領域E,F,T,A,B)を設定する。例えば、視点検出部352は、映像ごとに予め定められ、記憶部150などに記憶された座標値を参照し、映像ごとの領域を設定する。
図10および図11の例では、対象物および人物の位置が相互に異なる2つの映像に対して連続的に各領域での注視点の停留時間を計測していく。この方法により、被験者が映像を観察する場合の嗜好や傾向の影響を排除できる。例えば、図7−1および図7−2に示すように、対象物と人物の位置が左右対称となる2つの診断画像を用いれば、左側ばかり見やすい被験者や右側ばかり見やすい被験者であっても、被験者の傾向の影響を排除して、より高精度な診断を実現できる。また、対象物の画像は発達障がい児が好んで見る傾向にある幾何学模様画像でない画像が好ましい。例えばキャラクタの画像や自然画(動物、植物、自然の景観等)や乗り物等であって人物の画像と区別がつくものが好ましい。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)乳幼児の指差しに対する反応を測定することが可能になる。
(2)複数の対象物を表示して指し示した後の反応を測定できるので精度が向上する。
(3)人物の指先や顔も注視する特性も加味することができるので精度が向上する。
(変形例1)
上記例では、対象物を指し示す人物の画像と、指し示すために用いる指などの指示物の画像と、を含む診断画像を用いた。診断画像は上記例に限られるものではない。上記のように、発達障がいの乳幼児は、保護者が顔を向けて注視する対象物を見ないという特徴を有する。本変形例では、この特徴を考慮し、人物が対象物に顔を向けて、対象物を注視する診断画像を用いる。
図12−1〜図12−4は、診断画像の他の例を示す説明図である。図12−1および図12−2は、注視対象物の方向に人物が顔を向け、注視対象物を注視する様子を示す画像の例である。診断画像中の人物は、対象物を注視しながら、その方向に顔を向けている。
図12−1および図12−2では、対象物を含む領域をT、顔を含む領域をEとする。画面のそれ以外の領域をCとする。画面は、例えば、左上が(0、0)、右下が(Xmax、Ymax)となる座標で位置を表現する。つまりX座標は右が正であり、Y座標は下が正である。
図12−1および図12−2のような診断画像を用いる場合の診断支援処理は、例えば図6と同様のフローチャートで実現できる。本変形例の診断画像は、指示物を含む領域Fを含まないので、図6のフローチャートで領域Fに関連する、例えば以下の処理は省略できる。
・ステップS103内でのカウンタCFの初期化
・ステップS109
・ステップS110
本変形例でも、以下のように様々な評価演算の方法を適用できる。
・対象物を含む領域Tにおける注視点の停留時間そのもの(カウンタCTの計数値)を評価値として算出する方法
・上記(1)式により算出される評価値ANSを用いる方法
・上記(4)式と類似する下記の(9)式により算出される評価値ANSを用いる方法
ANS=(Kt×CT)+(Ke×CE)−(Kc×CC)・・・(9)
図12−3および図12−4は、診断画像の他の例を示す説明図である。図12−3および図12−4は、対象物に類似した他の対象物をさらに含む診断画像の例である。図12−3および図12−4では、他の対象物を含む2つの領域をそれぞれ領域Aおよび領域Bとしている。発達障がいの被験者は、領域Tと比較して領域Aまたは領域Bを注視する確率が高い。従って、図12−3および図12−4のような診断画像を用いることにより、検出の精度が向上する。
図12−3および図12−4のような診断画像を用いる場合の診断支援処理は、例えば図8と同様のフローチャートで実現できる。本変形例の診断画像は、指示物を含む領域Fを含まないので、図8のフローチャートで領域Fに関連する、例えば以下の処理は省略できる。
・ステップS203内でのカウンタCFの初期化
・ステップS209
・ステップS210
図12−3および図12−4を用いる場合は、以下のような評価演算の方法を適用してもよい。
・上記(5)式により算出される評価値ANSを用いる方法
・上記(8)式と類似する下記の(10)式により算出される評価値ANSを用いる方法
ANS=(Kt×CT)+(Ke×CE)
−(Kc×CC)−(Kab×CAB)・・・(10)
上記図9と同様に、所定時間経過後に人物が対象物を注視する診断画像を用いてもよい。すなわち、人物が対象物に顔を向けず注視しない状態で映像が開始され、開始から所定時間の経過後に、人物が対象物Tに顔を向けて、対象物Tを注視する診断画像を用いてもよい。上記変形例1では、人物の顔の向きについて説明しているが、顔の向きに限らず目の向きでもよい。すなわち、被験者が、人物の顔や目の動きに注意を喚起された後に、顔や目が示す方向を見る傾向を活かした診断支援処理を実現する。このような構成により、さらに診断の精度が向上する。また、人物の顔の向きと目の向きの両方により実現してもよいし、対象物を指し示すために用いる指などの指示物の向きと顔の向きと目の向き全てにより実現してもよい。
上記図10と同様に、複数の映像を連続的に表示させて総合的に評価する方法を適用してもよい。例えば図12−1と図12−2、または、図12−3と図12−4のような2つの映像を連続的に表示させて総合的に評価してもよい。2つの映像は、例えば連結されており、双方所定の時間で構成されている。
以上のように、本変形例によれば、上記第1の実施形態の効果に加え、例えば以下のような効果が得られる。
(1)指差しを含まないので、動きにつられた視線の動きが抑制され、測定の特異度が上がる。
(第2の実施形態)
第2の実施形態では、第1の実施形態よりも一層、装置構成を簡略化できる視線検出装置および視線検出方法を実現する。
以下に、第2の実施形態の視線検出装置および視線検出方法を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
本実施形態の視線検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
図13および14は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。なお、第1の実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。
図13に示すように、第2の実施形態の診断支援装置は、表示部210と、ステレオカメラ2102と、LED光源2103と、を含む。ステレオカメラ2102は、表示部210の下に配置される。LED光源2103は、ステレオカメラ2102に含まれる2つのカメラの中心位置に配置される。LED光源2103は、例えば波長850nmの近赤外線を照射する光源である。図13では、9個のLEDによりLED光源2103(照明部)を構成する例が示されている。なお、ステレオカメラ2102は、波長850nmの近赤外光を透過できるレンズを使用する。
図14に示すように、ステレオカメラ2102は、右カメラ2202と左カメラ2203とを備えている。LED光源2103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ2102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ2202、左カメラ2203)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示画面101の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図15は、第2の実施形態の診断支援装置2100の機能の概要を示す図である。図15では、図13および14に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図15に示すように、診断支援装置2100は、右カメラ2202と、左カメラ2203と、LED光源2103と、スピーカ105と、駆動・IF(interface)部208と、制御部2300と、記憶部150と、表示部210と、を含む。図15において、表示画面101は、右カメラ2202および左カメラ2203との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ2102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ2102に含まれる各部と、制御部2300とのインタフェースとなる。
制御部2300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図16は、図15に示す各部の詳細な機能の一例を示すブロック図である。図16に示すように、制御部2300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2202、左カメラ2203が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置2100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置2100の内部に備えるように構成してもよい。
制御部2300は、診断支援装置2100全体を制御する。制御部2300は、第1算出部2351と、第2算出部2352と、第3算出部2353と、視線検出部2354と、視点検出部2355と、出力制御部2356と、評価部2357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部2351、第2算出部2352、第3算出部2353、および、視線検出部2354が備えられていればよい。
制御部2300に含まれる各要素(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354、視点検出部2355、出力制御部2356、および、評価部2357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1算出部2351は、ステレオカメラ2102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部2352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。第1算出部2351および第2算出部2352が、瞳孔の中心を示す第1位置と、角膜反射の中心を示す第2位置と、を検出する位置検出部に相当する。
第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線(第1直線)と、から角膜曲率中心(第4位置)を算出する。例えば、第3算出部2353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部2353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部2353は、まず目標位置(第3位置)を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線(第2直線)と、角膜反射中心とLED光源2103とを結ぶ第1直線と、の交点を算出する。そして第3算出部2353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面101の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部2356が、表示画面101上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面101の中央に限られるものではなく、任意の位置でよい。表示画面101の中央を目標位置とすれば、表示画面101の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。第3算出部2353が、LED光源2103の位置と、表示部上の目標画像を示す所定の位置(第3位置)と、瞳孔中心の位置と、角膜反射中心の位置と、から角膜曲率中心(第4位置)を算出する算出部に相当する。
視線検出部2354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部2354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部2355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部2355は、例えば、表示画面101で被験者が注視する点である視点(注視点)を検出する。視点検出部2355は、例えば図14のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部2356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部2356は、表示部210上の目標位置に目標画像を出力させる。また、出力制御部2356は、診断画像、および、評価部2357による評価結果などの表示部210に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
評価部2357は、診断画像と、視点検出部2355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部2357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
出力制御部2356が第1の実施形態と同様の診断画像を表示し、評価部2357が第1の実施形態の評価部354と同様の評価処理を行ってもよい。言い換えると、第1の実施形態の視線検出処理(視線検出部351)を、第2の実施形態の視線検出処理(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354)で置き換えてもよい。これにより、第1の実施形態の効果に加えて、第2の実施形態の効果(装置構成の簡略化など)を達成可能となる。
図17は、本実施形態の診断支援装置2100により実行される処理の概要を説明する図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源2103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
図18は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
方法Aは、LED光源2103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
これに対し、本実施形態では、LED光源2103を照射したときの、角膜反射中心522とLED光源2103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源2103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
図19は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
目標位置605は、表示部210上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示画面101の中央位置としている。直線613は、LED光源2103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部2353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図20は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部2356は、表示画面101上の1点に目標画像を再生し(ステップS501)、被験者にその1点を注視させる。次に、制御部2300は、LED駆動制御部316を用いてLED光源2103を被験者の目に向けて点灯させる(ステップS502)。制御部2300は、左右カメラ(右カメラ2202、左カメラ2203)で被験者の目を撮像する(ステップS503)。
LED光源2103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部2351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。第1算出部2351は、例えば目を含む一定領域の中で最も暗い部分を含む所定の明るさ以下の領域を瞳孔部分として検出し、最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。また、第2算出部2352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部2351および第2算出部2352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS504)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
第1算出部2351および第2算出部2352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS505)。第3算出部2353は、求めた角膜反射中心の世界座標と、LED光源2103の中心位置の世界座標とを結ぶ直線を求める(ステップS506)。次に、第3算出部2353は、表示画面101の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS507)。第3算出部2353は、ステップS506で算出した直線とステップS507で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS508)。第3算出部2353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS509)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部210上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部210内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図21は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源2103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示画面101上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
図22は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図22の視線検出処理を実行することができる。診断処理では、図22の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部2357による評価処理などが実行される。
ステップS601〜ステップS605は、図20のステップS502〜ステップS506と同様であるため説明を省略する。
第3算出部2353は、ステップS605で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS606)。
視線検出部2354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS607)。このベクトルが、被験者が見ている視線方向を示している。視点検出部2355は、この視線方向と表示画面101との交点の三次元世界座標値を算出する(ステップS608)。この値が、被験者が注視する表示部210上の1点を世界座標で表した座標値である。視点検出部2355は、求めた三次元世界座標値を、表示部210の二次元座標系で表される座標値(x,y)に変換する(ステップS609)。これにより、被験者が見つめる表示部210上の視点(注視点)を算出することができる。
(変形例2)
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図19および図20で説明した方法に限られるものではない。以下では、算出処理の他の例について図23および図24を用いて説明する。
図23は、本変形例の算出処理を説明するための図である。図13〜図16および図19で説明した要素については同一の符号を付し説明を省略する。
線分1101は、目標位置605とLED光源103とを結ぶ線分(第1線分)である。線分1102は、線分1101と平行で、瞳孔中心611と直線613とを結ぶ線分(第2線分)である。本変形例では、以下のように、線分1101、線分1102を用いて瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図24は、本変形例の算出処理の一例を示すフローチャートである。
ステップS701〜ステップS707は、図20のステップS501〜ステップS507と同様であるため説明を省略する。
第3算出部2353は、表示部101の画面上の1点に表示される目標画像の中心と、LED光源103の中心とを結ぶ線分(図11では線分1101)を算出するとともに、算出した線分の長さ(L1101とする)を算出する(ステップS708)。
第3算出部2353は、瞳孔中心611を通り、ステップS708で算出した線分と平行な線分(図23では線分1102)を算出するとともに、算出した線分の長さ(L1102とする)を算出する(ステップS709)。
第3算出部2353は、角膜曲率中心615を頂点とし、ステップS708で算出した線分を下辺とする三角形と、角膜曲率中心615を頂点とし、ステップS709で算出した線分を下辺とする三角形とが相似関係にあることに基づき、瞳孔中心611と角膜曲率中心615との間の距離616を算出する(ステップS710)。例えば第3算出部2353は、線分1101の長さに対する線分1102の長さの比率と、目標位置605と角膜曲率中心615との間の距離に対する距離616の比率と、が等しくなるように、距離616を算出する。
距離616は、以下の(11)式により算出することができる。なおL614は、目標位置605から瞳孔中心611までの距離である。
距離616=(L614×L1102)/(L1101−L1102)・・・(11)
第3算出部2353は、算出した距離616を記憶部150などに記憶する(ステップS711)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(2)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
100、2100 診断支援装置
101 表示画面
102、2102 ステレオカメラ
105 スピーカ
150 記憶部
202、2202 右カメラ
203 赤外LED光源
204、2203 左カメラ
205 赤外LED光源
208 駆動・IF部
210 表示部
300、2300 制御部
351、2354 視線検出部
352、2355 視点検出部
353、2356 出力制御部
354、2357 評価部
2351 第1算出部
2352 第2算出部
2353 第3算出部

Claims (10)

  1. 表示部と、
    被験者を撮像する撮像部と、
    前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
    前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、
    対象物の画像と、前記対象物の方向を示す人物の画像と、を含む診断画像を前記表示部に表示させる出力制御部と、
    前記診断画像が表示されたときの前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、
    を備えることを特徴とする診断支援装置。
  2. 前記人物の画像は、前記対象物の方向を指で指し示す人物の画像であること、
    を特徴とする請求項1に記載の診断支援装置。
  3. 前記人物の画像は、前記対象物の方向を顔または目の向きで示す人物の画像であること、
    を特徴とする請求項1または2に記載の診断支援装置。
  4. 前記評価部は、前記対象物の画像を含む領域で前記視点が検出される時間を表す第1停留時間と、前記人物の画像を含む領域で前記視点が検出される時間を表す第2停留時間と、の少なくとも一方に基づいて前記評価値を算出すること、
    を特徴とする請求項1から3のいずれか1項に記載の診断支援装置。
  5. 前記評価部は、さらに、前記対象物の画像を含む領域および前記人物の画像を含む領域以外の領域で前記視点が検出される時間を表す第3停留時間に基づいて前記評価値を算出すること、
    を特徴とする請求項1から4のいずれか1項に記載の診断支援装置。
  6. 前記評価部は、さらに、前記対象物の方向を示す指示物の画像を含む領域で前記視点が検出される時間を表す第4停留時間に基づいて前記評価値を算出すること、
    を特徴とする請求項1から5のいずれか1項に記載の診断支援装置。
  7. 前記出力制御部は、第1の診断画像を前記表示部に表示させた後、前記対象物の画像の位置、および、前記人物の画像の位置が前記第1の診断画像と異なる第2の診断画像を前記表示部に表示させ、
    前記評価部は、前記第1の診断画像が表示されたときに前記視点検出部により検出された前記視点、および、前記第2の診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記評価値を算出すること、
    を特徴とする請求項1から6のいずれか1項に記載の診断支援装置。
  8. 前記出力制御部は、表示が開始されてから所定時間が経過した後に、前記人物が前記対象物の方向を示す画像が表示される診断画像を前記表示部に表示させ、
    前記評価部は、前記診断画像の表示が開始されてから前記所定時間が経過した後に、前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出すること、
    を特徴とする請求項1から7のいずれか1項に記載の診断支援装置。
  9. 光を照射する光源を含む照明部と、
    複数の撮像部と、
    前記照明部によって光が照射され、前記撮像部によって撮像された被験者の眼球の画像から瞳孔の中心を示す第1位置と、角膜反射の中心を示す第2位置と、を算出する位置検出部と、
    前記光源の位置と、表示部上の第3位置と、前記第1位置と、前記第2位置とに基づいて、角膜の曲率中心を示す第4位置を算出する算出部と、をさらに備え、
    前記視線検出部は、前記第1位置と前記第4位置に基づいて前記被験者の視線を検出すること、
    を特徴とする請求項1から8のいずれか一項に記載の診断支援装置。
  10. 被験者を撮像する撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出ステップと、
    前記視線方向に基づいて、表示部の表示領域における前記被験者の視点を検出する視点検出ステップと、
    対象物の画像と、前記対象物の方向を示す人物の画像と、を含む診断画像を前記表示部に表示させる出力制御ステップと、
    前記診断画像が表示されたときの前記視点検出ステップにより検出された前記視点に基づいて前記被験者の評価値を算出する評価ステップと、
    を含む診断支援方法。
JP2014133219A 2013-06-28 2014-06-27 診断支援装置および診断支援方法 Active JP6245093B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2014/067289 WO2014208761A1 (ja) 2013-06-28 2014-06-27 診断支援装置及び診断支援方法
JP2014133219A JP6245093B2 (ja) 2013-07-31 2014-06-27 診断支援装置および診断支援方法
US14/980,077 US9579054B2 (en) 2013-06-28 2015-12-28 Diagnosis supporting device and diagnosis supporting method
US15/398,906 US10149643B2 (en) 2013-06-28 2017-01-05 Control device, diagnosis supporting device, control method and a non-transitory storage medium that stores control program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2013159682 2013-07-31
JP2013159682 2013-07-31
JP2014035949 2014-02-26
JP2014035949 2014-02-26
JP2014133219A JP6245093B2 (ja) 2013-07-31 2014-06-27 診断支援装置および診断支援方法

Publications (2)

Publication Number Publication Date
JP2015177953A true JP2015177953A (ja) 2015-10-08
JP6245093B2 JP6245093B2 (ja) 2017-12-13

Family

ID=54262455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133219A Active JP6245093B2 (ja) 2013-06-28 2014-06-27 診断支援装置および診断支援方法

Country Status (1)

Country Link
JP (1) JP6245093B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016032587A (ja) * 2014-07-31 2016-03-10 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP2017099513A (ja) * 2015-11-30 2017-06-08 株式会社Jvcケンウッド 診断支援装置および診断支援方法
WO2018003986A1 (ja) * 2016-06-30 2018-01-04 国立大学法人筑波大学 対面インタラクション装置、これを用いた装着デバイス、及び対面促進方法
WO2019188152A1 (ja) * 2018-03-26 2019-10-03 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
JP2019171022A (ja) * 2018-03-26 2019-10-10 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208205A1 (en) * 2009-01-15 2010-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
JP2011206542A (ja) * 2010-03-30 2011-10-20 National Univ Corp Shizuoka Univ 自閉症診断支援用装置
JP2013052116A (ja) * 2011-09-05 2013-03-21 Hamamatsu Univ School Of Medicine 自閉症診断支援方法およびシステム並びに自閉症診断支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208205A1 (en) * 2009-01-15 2010-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
JP2011206542A (ja) * 2010-03-30 2011-10-20 National Univ Corp Shizuoka Univ 自閉症診断支援用装置
JP2013052116A (ja) * 2011-09-05 2013-03-21 Hamamatsu Univ School Of Medicine 自閉症診断支援方法およびシステム並びに自閉症診断支援装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016032587A (ja) * 2014-07-31 2016-03-10 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP2017099513A (ja) * 2015-11-30 2017-06-08 株式会社Jvcケンウッド 診断支援装置および診断支援方法
WO2018003986A1 (ja) * 2016-06-30 2018-01-04 国立大学法人筑波大学 対面インタラクション装置、これを用いた装着デバイス、及び対面促進方法
WO2019188152A1 (ja) * 2018-03-26 2019-10-03 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
JP2019171022A (ja) * 2018-03-26 2019-10-10 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
JP7167737B2 (ja) 2018-03-26 2022-11-09 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
US11925464B2 (en) 2018-03-26 2024-03-12 Jvckenwood Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium

Also Published As

Publication number Publication date
JP6245093B2 (ja) 2017-12-13

Similar Documents

Publication Publication Date Title
US10149643B2 (en) Control device, diagnosis supporting device, control method and a non-transitory storage medium that stores control program
JP6217445B2 (ja) 診断支援装置および診断支援方法
JP6210023B2 (ja) 視線検出支援装置および視線検出支援方法
US10159408B2 (en) Detection apparatus and detection method
JP6201956B2 (ja) 視線検出装置および視線検出方法
JP6245093B2 (ja) 診断支援装置および診断支援方法
JP6269377B2 (ja) 診断支援装置および診断支援方法
JP6142822B2 (ja) 診断支援装置および診断支援方法
JP6380178B2 (ja) 診断支援装置および診断支援方法
JP6135550B2 (ja) 診断支援装置および診断支援方法
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP6593133B2 (ja) 診断支援装置および診断支援方法
JP6217446B2 (ja) 制御装置、診断支援装置、制御方法及び制御プログラム
JP6327171B2 (ja) 注視点検出装置および注視点検出方法
JP6187347B2 (ja) 検出装置および検出方法
JP6142825B2 (ja) 診断支援装置および診断支援方法
JP6471533B2 (ja) 視線検出装置および視線検出方法
JP6269177B2 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
JP2015181797A (ja) 検出装置および検出方法
JP2016157326A (ja) 視線検出装置および視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6245093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150