JP6142824B2 - 診断支援装置および診断支援方法 - Google Patents

診断支援装置および診断支援方法 Download PDF

Info

Publication number
JP6142824B2
JP6142824B2 JP2014039246A JP2014039246A JP6142824B2 JP 6142824 B2 JP6142824 B2 JP 6142824B2 JP 2014039246 A JP2014039246 A JP 2014039246A JP 2014039246 A JP2014039246 A JP 2014039246A JP 6142824 B2 JP6142824 B2 JP 6142824B2
Authority
JP
Japan
Prior art keywords
image
unit
viewpoint
subject
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014039246A
Other languages
English (en)
Other versions
JP2015043965A (ja
Inventor
首藤 勝行
勝行 首藤
賢 二宮
賢 二宮
修二 箱嶋
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014039246A priority Critical patent/JP6142824B2/ja
Priority to EP14818648.9A priority patent/EP3015075B1/en
Priority to PCT/JP2014/067289 priority patent/WO2014208761A1/ja
Publication of JP2015043965A publication Critical patent/JP2015043965A/ja
Priority to US14/980,077 priority patent/US9579054B2/en
Priority to US15/398,906 priority patent/US10149643B2/en
Application granted granted Critical
Publication of JP6142824B2 publication Critical patent/JP6142824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、診断支援装置および診断支援方法に関する。
最近、発達障がい者が増加傾向にあると言われている。発達障がいは、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障がいの診断支援装置が求められている。
発達障がい早期発見のためには、例えば1歳半検診時に診断できることが理想的である。発達障がい児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。また、発達障がい児は、人物映像より幾何学模様の映像を好むことが知られている。
また、カメラで人の顔を撮影して、角膜反射と瞳孔の位置を算出することにより注視点を検出する方法などを応用して、発達障がいを診断支援する方法が提案されている。
特開2005−185431号公報 特開2008−125619号公報 特開2005−198743号公報 特開2011−206542号公報
Pierce K et al.,"Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.",Arch Gen PsychiatrY2011 Jan;68(1):101-109.
1歳半程度の被験者は、動きの少ない物体を注視しない傾向がある。このため、従来のように注視点を検出する方法では、適切に診断を支援できない場合があり、さらに高精度の検出方法が求められていた。
本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置および診断支援方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、表示部と、被験者を撮像する撮像部と、前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、人物の画像と幾何学模様の画像とを含み、前記人物の画像と前記幾何学模様の画像との少なくとも一方の画像のコントラストが時間の経過とともに変化する診断画像を前記表示部に表示させる出力制御部と、前記診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、を備えることを特徴とする。
本発明にかかる診断支援装置および診断支援方法は、診断の精度を向上できるという効果を奏する。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。 図2は、第1の実施形態の診断支援装置の機能の概要を示す図である。 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。 図4は、2台のカメラを使用した場合の目および距離の検出の一例を示す図である。 図5−1は、診断画像の一例を示す説明図である。 図5−2は、診断画像の一例を示す説明図である。 図5−3は、診断画像の一例を示す説明図である。 図5−4は、診断画像の一例を示す説明図である。 図5−5は、診断画像の一例を示す説明図である。 図6−1は、人物映像と幾何学模様映像の時間に対する属性の変化の一例を示す図である。 図6−2は、人物映像と幾何学模様映像の時間に対する属性の変化の一例を示す図である。 図7−1は、人物映像と幾何学模様映像の時間に対する属性の変化の他の例を示す図である。 図7−2は、人物映像と幾何学模様映像の時間に対する属性の変化の他の例を示す図である。 図8−1は、診断画像の他の例を示す説明図である。 図8−2は、診断画像の他の例を示す説明図である。 図8−3は、診断画像の他の例を示す説明図である。 図8−4は、診断画像の他の例を示す説明図である。 図8−5は、診断画像の他の例を示す説明図である。 図9は、表示部に表示される画像の座標の一例を示す図である。 図10は、表示部に表示される画像の座標の他の例を示す図である。 図11は、1つの映像(診断画像)を用いる診断支援処理の一例を示すフローチャートである。 図12−1は、2つの映像を用いる診断支援処理の一例を示すフローチャートである。 図12−2は、2つの映像を用いる診断支援処理の一例を示すフローチャートである。 図12−3は、2つの映像を用いる診断支援処理の一例を示すフローチャートである。 図13は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図14は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図15は、診断支援装置の機能の概要を示す図である。 図16は、図15に示す各部の詳細な機能の一例を示すブロック図である。 図17は、第2の実施形態の診断支援装置により実行される処理の概要を説明する図である。 図18は、2つの光源を用いる方法と、1つの光源を用いる第2の実施形態との違いを示す説明図である。 図19は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。 図20は、第2の実施形態の算出処理の一例を示すフローチャートである。 図21は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。 図22は、第2の実施形態の視線検出処理の一例を示すフローチャートである。
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
(第1の実施形態)
従来のように人物映像と幾何学模様とを並列表示して、被験者がいずれを注視する割合が高いかを調べる方法は、映像の特徴によっては検出感度が上がり難い問題があった。これは、例えば、色彩や動きが派手な幾何学模様を用いた場合、定型発達の被験者も幾何学模様を見ることがあること、逆に、色彩や動きが地味な幾何学模様を用いた場合、発達障がいの被験者であっても、幾何学模様を注視しない場合があること、などが原因である。このように、高精度の診断支援のためには、バランスのよい映像を制作することが望ましいが、個人差もあり難しいものとなっていた。
そこで、第1の実施形態の診断支援装置は、人物映像を表示する映像領域と幾何学模様映像を表示する映像領域とを設け、表示時間内において人物映像と幾何学模様映像とをそれぞれ、コントラスト、色の濃さ、または、透過度などの少なくとも1つを変化させて表示する。これにより、映像の個別差による発達障がい検出感度のブレを少なくし、高精度の検出を実現する。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF(interface)部208と、制御部300と、記憶部150と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部351と、視点検出部352と、出力制御部353と、評価部354と、を備えている。
視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を検出する処理が含まれる。視点検出部352は、検出された視線方向を用いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部351による視線検出方法、および、視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。
この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位置および視線を検出してもよい。
視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。表示画面101には、診断画像が表示される。後述するように、診断画像は、例えば、人物の画像(人物映像)と幾何学模様の画像(幾何学模様映像)とを含む。
図3に戻り、出力制御部353は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部353は、診断画像、および、評価部354による評価結果などの表示部210に対する出力を制御する。出力制御部353は、人物の画像と幾何学模様の画像とを含む診断画像を表示部210に表示させる。また、出力制御部353は、人物の画像または幾何学模様の画像のコントラスト、色の濃さ、透過度のうち少なくとも1つが、時間の経過とともに変化する診断画像を表示部210に表示させる。
診断画像は、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含んでいればよい。例えば、発達障がいの被験者が好む画像以外の画像として自然画を用いてもよい。自然画は、幾何学画像以外の、自然物または自然物を連想させるような画像であればよい。例えば、人物、動物、植物、および自然の景観などをカメラで撮像した画像(静止画、動画)を自然画として用いてもよい。また、人物および動物などを模したキャラクタの画像(静止画、動画)を自然画として用いてもよい。
評価部354は、診断画像と、視点検出部352により検出された注視点とに基づいて、発達障がいの程度に関する指標として評価値を算出する。評価部354は、例えば、後述する図5−1〜図5−5および図8−1〜図8−5のような診断画像を表示した際の被験者の注視点の位置に基づいて評価値を算出する。評価値の算出方法の具体例は後述する。評価部354は、診断画像と注視点とに基づいて評価値を算出すればよく、その算出方法は、実施の形態に限定されるものではない。
図5−1〜図5−5は、診断画像の一例を示す説明図である。なお、診断画像は、静止画および動画(映像)のいずれでもよいが、動画の方が注視されやすいので望ましい。図5−1に示すように、診断画像は、表示画面101の右に幾何学模様映像を表示する領域(幾何学模様領域A)と、表示画面101の左に人物映像を表示する領域(人物領域B)とを含む。
図6−1および図6−2は、人物映像と幾何学模様映像の時間に対する属性の変化の一例を示す図である。図6−1および図6−2で、横軸は時間を示し、縦軸は映像のコントラスト、色の濃さおよび透過度を示す。コントラストは、例えば、最もコントラストが小さい状態を0%とし、最もコントラストが大きい状態を100%とした割合で表される。色の濃さは、例えば、濃さ(濃度)を0とした状態を0%とし、元の画像の濃さと同じ値とした状態を100%とした割合で表される。なお、色の濃さを変化させる代わりに、透過度を変化させてもよい。例えば、透過度100%が色の濃さ0%に対応し、透過度0%が色の濃さ100%に対応するように変化させてもよい。
コントラストおよび色の濃さは同時に変化させることが望ましいが、いずれか一方のみを変化させてもよい。また、背景に対して人物映像および幾何学模様映像をそれぞれ重ねて表示する場合、透過度を変化させればよい。
映像全体は時刻t4で表示を終了する。出力制御部353は、表示開始の時刻t0から時刻t2までは幾何学模様映像は変化させず、人物映像のコントラストおよび色の濃さ(透過度)を20%(80%)〜100%(0%)に変化させる。また、出力制御部353は、時刻t2から時刻t4にかけて人物映像は変化させず、幾何学模様映像のコントラストおよび色の濃さ(透過度)を100%(0%)〜20%(80%)に変化させる。前述の括弧内の記述は、透過度に関する記述である。つまり、表示開始の時刻t0から時刻t2までは幾何学模様映像は変化させず、人物映像のコントラストおよび色の濃さを20%〜100%に変化させる。そして、時刻t2から時刻t4にかけて人物映像は変化させず、幾何学模様映像のコントラストおよび色の濃さを100%〜20%に変化させる。また、透過度においては、表示開始の時刻t0から時刻t2までは幾何学模様映像は変化させず、人物映像の透過度を80%〜0%に変化させる。そして、時刻t2から時刻t4にかけて人物映像は変化させず、幾何学模様映像の透過度を0%〜80%に変化させる。これにより、時刻t2まで徐々に人物映像がはっきりと浮き上がり、時刻t2以降徐々に幾何学模様映像がフェードアウトする映像となる。
図6−2は、人物映像と幾何学模様映像の変化の状態を図6−1に対して入れ替えた場合の例を示す。出力制御部353は図6−2のような診断画像を表示してもよい。図6−1および図6−2に示すように、出力制御部353は、人物映像と幾何学模様映像のコントラスト、色の濃さ、透過度などが、時間の経過とともに相反して変化する診断画像を表示してもよい。
図5−1〜図5−5は、図6−1のように変化させた場合に表示される映像の例を示している。図5−1は、図6−1の時刻t0における診断画像の例である。説明の便宜のため、人物映像および幾何学模様映像とも各図で同一の画像となっているが、実際には動画なので異なるシーンに対応する異なる画像が表示される。図5−2は、時刻t1における診断画像の例である。図5−3は、時刻t2における診断画像の例である。図5−4は、時刻t3における表示画面である。図5−5は、時刻t4における表示画面である。
図7−1および図7−2は、人物映像と幾何学模様映像の時間に対するコントラスト、色の濃さ、透過度の変化の他の例を示す図である。図6−1および図6−2と同様に、図7−1および図7−2の横軸は時間を示し、縦軸は映像のコントラスト、色の濃さおよび透過度を示す。コントラストおよび色の濃さは同時に変化させることが望ましいが、いずれか一方のみを変化させてもよい。また、背景に対して人物映像および幾何学模様映像をそれぞれ重ねて表示する場合、透過度を変化させればよい。
映像全体は時刻t4で表示を終了する。出力制御部353は、時刻t0〜時刻t4において、人物映像のコントラストおよび色の濃さ(透過度)を20%(80%)〜100%(0%)に変化させる。また、出力制御部353は、幾何学模様映像のコントラストおよび色の濃さ(透過度)を100%(0%)〜20%(80%)に変化させる。前述の括弧内の記述は、透過度に関する記述である。つまり、表示開始の時刻t0〜時刻t4にかけて、人物映像のコントラストおよび色の濃さを20%〜100%に変化させ、幾何学模様映像のコントラストおよび色の濃さを100%〜20%に変化させる。また、透過度においては、表示開始の時刻t0〜時刻t4にかけて、人物映像の透過度を80%〜0%に変化させ、幾何学模様映像の透過度を0%〜80%に変化させる。これにより、徐々に人物映像がはっきりと浮き上がり、徐々に幾何学模様映像がフェードアウトする映像となる。
図7−2は、人物映像と幾何学模様映像の変化の状態を図7−1に対して入れ替えた場合の例を示す。出力制御部353は図7−2のような診断画像を表示してもよい。
図6−1、図6−2、図7−1および図7−2に示す変化は一例であり、これらに限られるものではない。図6−1、図6−2、図7−1および図7−2は、コントラスト、色の濃さ、透過度が連続的に変化する例であるが、コントラスト、色の濃さ、透過度を段階的に変化させてもよい。また、コントラスト、色の濃さ、透過度は直線的に変化する必要はなく、曲線的に変化させてもよい。急激に変化すると被験者の注意を引きやすいため、単位時間あたりの属性の変化の割合が一定値以下となるように変化させることが望ましい。コントラストおよび色の濃さを表す数値は一例であり、これらに限られるものではない。本実施例では、コントラスト、色の濃さ、透過度を変化させているが、いずれか1つを変化させてもよい。
図8−1〜図8−5は、診断画像の他の例を示す説明図である。図8−1〜図8−5は、図7−1のように変化させた場合に表示される映像の例を示している。図8−1は、図7−1の時刻t0における診断画像の例である。説明の便宜のため、人物映像および幾何学模様映像とも各図で同一の画像となっているが、実際には動画なので異なるシーンに対応する異なる画像が表示される。図8−2は、時刻t1における診断画像の例である。図8−3は、時刻t2における診断画像の例である。図8−4は、時刻t3における診断画像の例である。図8−5は、時刻t4における診断画像の例である。
図9は、表示部210に表示される画像の座標の一例を示す図である。表示部210上の座標は左上が原点となっており、前述の注視点検出用の世界座標(空間座標)とは異なる。
表示部210の画素数は、Xmax×Ymaxとなっている。幾何学模様領域Aの左辺のX座標をX1、右辺のX座標をX2、上辺のY座標をY1、下辺のY座標をY2とする。人物領域Bの左辺のX座標をX3、右辺のX座標をX4、上辺のY座標をY3、下辺のY座標をY4とする。図9では、Y1=Y3、Y2=Y4となる例が示されている。
図10は、表示部210に表示される画像の座標の他の例を示す図である。図10は、図9に対して人物映像および幾何学模様映像の配置が異なる診断画像の例である。すなわち、図10では、左が幾何学模様映像、右が人物映像となる。
図9または図10のような診断画像を用いた診断支援処理の一例について、図11および図12−1〜図12−3を用いて説明する。
図11は、1つの映像(診断画像)を用いる診断支援処理の一例を示すフローチャートである。この例では人物映像と幾何学模様映像とが予め合成されているものとする。
まず、出力制御部353は、映像(診断画像)の再生を開始する(ステップS101)。次に、出力制御部353は、映像の再生時間より僅かに短い時間を計測するタイマをリセットする(ステップS102)。視点検出部352は、幾何学模様領域A内を注視した時にカウントアップするカウンタ1と、人物領域B内を注視した時にカウントアップするカウンタ2をリセット(初期化)する(ステップS103)。次のステップS103bの処理については後述する。このステップS103bは実行しなくてもよい。
注視点測定は、例えば、同期して撮像するステレオカメラの1フレームごとに行う。すなわち注視点は所定の時間間隔ごとに測定される。カウンタ1、カウンタ2のカウント値は注視時間に対応する。
次に、視点検出部352は、注視点検出を行う(ステップS104)。視点検出部352は、注視点検出が失敗したか否かを判断する(ステップS105)。瞬きなどにより瞳孔および角膜反射の画像が得られない場合などに、注視点検出が失敗する。また、注視点が表示画面101内に存在しない場合(被験者が表示画面101以外を見ていた場合)も、失敗としている。
注視点検出が失敗した場合(ステップS105:Yes)、カウンタ1、カウンタ2に影響させないため、ステップS116に移動する。注視点検出が成功した場合(ステップS105:No)、視点検出部352は、検出した注視点の表示部210上のx座標がX1より大きいかを調べる(ステップS106)。大きい場合(ステップS106:Yes)、視点検出部352は、表示部210上のx座標がX2より小さいかを調べる(ステップS107)。小さい場合(ステップS107:Yes)、視点検出部352は、表示部210上のy座標がY1より大きいかを調べる(ステップS108)。大きい場合(ステップS108:Yes)、視点検出部352は、表示部210上のy座標がY2より小さいかを調べる(ステップS109)。小さい場合(ステップS109:Yes)、注視点が幾何学模様領域A内に存在することになるので、視点検出部352は、カウンタ1をカウントアップする(ステップS110)。
カウンタ1アップの条件でない場合(ステップS106:No、ステップS107:No、ステップS108:No、ステップS109:No)、ステップS111に進む。
視点検出部352は、検出した注視点の表示部210上のx座標がX3より大きいかを調べる(ステップS111)。大きい場合(ステップS111:Yes)、表示部210上のx座標がX4より小さいかを調べる(ステップS112)。小さい場合(ステップS112:Yes)、表示部210上のy座標がY3より大きいかを調べる(ステップS113)。大きい場合(ステップS113:Yes)、表示部210上のy座標がY4より小さいかを調べる(ステップS114)。小さい場合(ステップS114:Yes)、注視点が人物領域B内に存在することになるので、視点検出部352は、カウンタ2をカウントアップする(ステップS115)。
カウンタ1,2をカウントアップした後、または、カウンタ2アップの条件でない場合(ステップS111:No、ステップS112:No、ステップS113:No、ステップS114:No)、ステップS116に進む。
出力制御部353は、映像の終了を確認するため、タイマが完了したかを判断する(ステップS116)。完了していない場合(ステップS116:No)、ステップS104に戻り処理を繰り返す。
タイマが完了した場合(ステップS116:Yes)、出力制御部353は、映像の再生を停止させる(ステップS117)。次に、評価部354は、カウンタ1のデータを出力する(ステップS118)。カウンタ1のデータは、幾何学模様領域Aの注視時間に対応する。次に、評価部354は、カウンタ2のデータを出力する(ステップS119)。カウンタ2のデータは、人物領域Bの注視時間に対応する。次に、評価部354は、カウンタ1とカウンタ2の割合を評価値として算出する(ステップS120)。例えば、評価部354は、カウンタ1に対するカウンタ2の割合を表す評価値を算出する。算出された評価値は、発達障がいの可能性の指針になる。例えば、幾何学模様領域Aを注視した割合が高いほど、発達障がいの可能性が高くなると判断される。評価部354は、算出した評価値(割合データ)を出力する(ステップS121)。
図11の例では、映像が表示された当初、多くの被験者はコントラストが高い、幾何学模様を注視する。時間の経過により人物映像の方がコントラストが高くなる。定型発達の被験者は、コントラストが高くなった人物映像を注視するように変化する。一方、発達障がいの被験者は、幾何学模様に対する興味度が高いので注視点が移動することなく、そのまま幾何学模様映像を注視し続けることが多い。
このため、ステップS121の出力において、発達障がいの被験者はカウンタ1の計数値の割合が高くなる。さらに、コントラストおよび色の濃さ(透過度)が相対的に変化するので、映像の目立つ度合いが変化する。本実施形態では、映像に関わらず必ず目立つ度合いが反転するので、いずれかの時点で、定型発達の被験者は注視点の移動が起こる。
図6−2および図7−2のように、最初に人物映像のコントラストが高い場合は、この逆となる。すなわち、定型発達の被験者は注視点の移動が少なく、発達障がいの被験者の注視点の移動が多くなる。発達障がいの被験者の方が、注視している診断画像を継続して注視する傾向(こだわり)が強いので、図6−1および図7−1のパターンの方がより望ましい形態である。
図12−1〜図12−3は、2つの映像を用いる診断支援処理の一例を示すフローチャートである。この例では人物映像と幾何学模様映像とが予め合成されているものとする。また、2つの映像は連結されており、双方が所定の時間で再生されるように構成されている。以下の例では、前半に、図5−1〜図5−5の映像が再生され、後半に、図10のように、幾何学模様映像と人物映像の配置が左右反転した映像が再生される。
ステップS201〜ステップS220までの処理は、図11のステップS101〜ステップS116、ステップS118〜ステップS121と同等である。
ただし、カウンタ1およびカウンタ2の役割が図11と異なる。図12−1〜図12−2の例では、カウンタ1およびカウンタ2は、2つの映像である映像1および映像2を通して計数するカウンタである。ただし、映像1の終了時に、映像1としての計数結果とその割合を出力する(ステップS217〜ステップS220)。その後、映像2でも継続してカウンタ1およびカウンタ2が計数され、合計値と割合が出力される(ステップS239〜ステップS242)。
図12−2について説明する。ステップS221の直前に、2番目の映像の再生が開始される。出力制御部353は、2番目の映像(映像2)の再生時間より僅かに短い時間を計測するタイマをリセットする(ステップS221)。視点検出部352は、映像2において幾何学模様領域A内を注視した時にカウントアップするカウンタ3と、人物領域Bを注視した時にカウントアップするカウンタ4をリセットする(ステップS222)。
次に、視点検出部352は、注視点検出を行う(ステップS223)。視点検出部352は、注視点検出が失敗したかを判断する(ステップS224)。失敗した場合(ステップS224:Yes)、カウンタ1、カウンタ2、カウンタ3、カウンタ4に影響させないため、ステップS237に移動する。
注視点検出が成功した場合(ステップS224:No)、視点検出部352は、検出した注視点の表示部210上のx座標がX3より大きいかを調べる(ステップS225)。大きい場合(ステップS225:Yes)、視点検出部352は、表示部210上のx座標がX4より小さいかを調べる(ステップS226)。小さい場合(ステップS226:Yes)、視点検出部352は、表示部210上のy座標がY3より大きいかを調べる(ステップS227)。大きい場合(ステップS227:Yes)、視点検出部352は、表示部210上のy座標がY4より小さいかを調べる(ステップS228)。小さい場合(ステップS228:Yes)、注視点が幾何学模様領域A内に存在することになるので、視点検出部352は、カウンタ1をカウントアップし(ステップS229)、カウンタ3をカウントアップする(ステップS230)。
カウンタ1およびカウンタ3をカウントアップする条件でない場合(ステップS225:No、ステップS226:No、ステップS227:No、ステップS228:No)、ステップS231に進む。
視点検出部352は、検出した注視点の表示部210上のx座標がX1より大きいかを調べる(ステップS231)。大きい場合(ステップS231:Yes)、視点検出部352は、表示部210上のx座標がX2より小さいかを調べる(ステップS232)。小さい場合(ステップS232:Yes)、視点検出部352は、表示部210上のy座標がY1より大きいかを調べる(ステップS233)。大きい場合(ステップS233:Yes)、視点検出部352は、表示部210上のy座標がY2より小さいかを調べる(ステップS234)。小さい場合(ステップS234:Yes)、注視点が人物領域B内に存在することになるので、視点検出部352は、カウンタ2をカウントアップし(ステップS235)、カウンタ4をカウントアップする(ステップS236)。
出力制御部353は、映像の終了を確認するため、タイマが完了したかを判断する(ステップS237)。完了していない場合(ステップS237:No)、ステップS223に戻り処理を繰り返す。
タイマが完了した場合(ステップS237:Yes)、出力制御部353は、映像の再生を停止させる(ステップS238)。
次に、評価部354は、カウンタ1のデータを出力する(ステップS239)。ここで出力されるカウンタ1のデータは、映像1および映像2における幾何学模様領域Aの注視時間に対応する。次に、評価部354は、カウンタ2のデータを出力する(ステップS240)。ここで出力されるカウンタ2のデータは、映像1および映像2における人物領域Bの注視時間に対応する。評価部354は、カウンタ1とカウンタ2の割合を評価値として算出する(ステップS241)。この評価値は、発達障がいの可能性の指針になる。例えば、幾何学模様領域Aを注視した割合が高いほど、発達障がいの可能性が高くなると判断される。評価部354は、算出した評価値(割合データ)を出力する(ステップS242)。
また、評価部354は、カウンタ3のデータを出力する(ステップS243)。カウンタ3のデータは、映像2における幾何学模様領域Aの注視時間に対応する。次に、評価部354は、カウンタ4のデータを出力する(ステップS244)。カウンタ4のデータは、映像2における人物領域Bの注視時間に対応する。次に、評価部354は、カウンタ3とカウンタ4の割合を評価値として算出する(ステップS245)。この評価値も、発達障がいの可能性の指針になる。例えば、幾何学模様領域Aを注視した割合が高いほど、発達障がいの可能性が高くなると判断される。評価部354は、算出した評価値(割合データ)を出力する(ステップS246)。
ここで、映像1としての計数結果とその割合(ステップS217〜ステップS220)と、映像2としての計数結果とその割合(ステップS243〜ステップS246)を比較することにより、被験者の傾向を知ることができる。例えば、画面の右側から見る傾向がある場合は、映像1では幾何学模様領域Aのカウント値が上がり、映像2では幾何学模様領域Aのカウント値が下がる傾向がある。両方がバランスしている場合には中央部分から見始めて自分の嗜好にあわせて注視していると考えられる。
また、図11のステップS103b、および、図12−1のステップS203bに示すように、視点検出部352が、タイマ等を用いて、所定時間の経過を待機する処理を行ってもよい。所定時間は、例えば映像1で幾何学模様映像のコントラストおよび色の濃さの低下が開始するまでの時間である。図6−1の例では、時刻t0から時刻t2までの時間に相当する。最初の映像部分で、ほとんどの被験者が幾何学模様映像を注視する。従って、ステップS103bおよびステップS203bのような待機処理を行うことによって、前半の時間は測定せず、後半のみ測定することが可能になる。この場合、さらに検出精度を向上させることが可能となる。また、3以上の映像を用いて診断支援処理を実行してもよい。この場合、例えば、各映像での計数結果および評価値とともに、全映像での計数結果の合計値および評価値の合計値を出力するように構成してもよい。
また、映像のコントラストなどの変化は、予めそのような映像を用いることで実現してもよい。
以上のように、第1の実施形態によれば、例えば以下のような効果が得られる。
(1)人物映像、および、幾何学模様映像の注目度の差があっても、良好な検出が可能になり、検出精度が向上する。
(2)被験者の個人差の影響が少なくなる。
(3)診断支援用の映像(診断画像)の製作が容易になる。
(第2の実施形態)
第2の実施形態では、第1の実施形態よりも一層、装置構成を簡略化できる視線検出装置および視線検出方法を実現する。
以下に、第2の実施形態の視線検出装置および視線検出方法を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
本実施形態の視線検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
図13および14は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。なお、第1の実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。
図13に示すように、第2の実施形態の診断支援装置は、表示部210と、ステレオカメラ2102と、LED光源2103と、を含む。ステレオカメラ2102は、表示部210の下に配置される。LED光源2103は、ステレオカメラ2102に含まれる2つのカメラの中心位置に配置される。LED光源2103は、例えば波長850nmの近赤外線を照射する光源である。図13では、9個のLEDによりLED光源2103(照明部)を構成する例が示されている。なお、ステレオカメラ2102は、波長850nmの近赤外光を透過できるレンズを使用する。
図14に示すように、ステレオカメラ2102は、右カメラ2202と左カメラ2203とを備えている。LED光源2103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ2102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ2202、左カメラ2203)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示画面101の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図15は、第2の実施形態の診断支援装置2100の機能の概要を示す図である。図15では、図13および14に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図15に示すように、診断支援装置2100は、右カメラ2202と、左カメラ2203と、LED光源2103と、スピーカ105と、駆動・IF(interface)部208と、制御部2300と、記憶部150と、表示部210と、を含む。図15において、表示画面101は、右カメラ2202および左カメラ2203との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部208は、ステレオカメラ2102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ2102に含まれる各部と、制御部2300とのインタフェースとなる。
制御部2300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
図16は、図15に示す各部の詳細な機能の一例を示すブロック図である。図16に示すように、制御部2300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2202、左カメラ2203が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置2100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置2100の内部に備えるように構成してもよい。
制御部2300は、診断支援装置2100全体を制御する。制御部2300は、第1算出部2351と、第2算出部2352と、第3算出部2353と、視線検出部2354と、視点検出部2355と、出力制御部2356と、評価部2357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部2351、第2算出部2352、第3算出部2353、および、視線検出部2354が備えられていればよい。
制御部2300に含まれる各要素(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354、視点検出部2355、出力制御部2356、および、評価部2357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1算出部2351は、ステレオカメラ2102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部2352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。
第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線と、から角膜曲率中心(第3位置)を算出する。例えば、第3算出部2353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部2353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部2353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心とLED光源2103とを結ぶ直線と、の交点(第4位置)を算出する。そして第3算出部2353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面101の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部2356が、表示画面101上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面101の中央に限られるものではなく、任意の位置でよい。表示画面101の中央を目標位置とすれば、表示画面101の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。
視線検出部2354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部2354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部2355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部2355は、例えば、表示画面101で被験者が注視する点である視点(注視点)を検出する。視点検出部2355は、例えば図14のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部2356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部2356は、表示部210上の目標位置に目標画像を出力させる。また、出力制御部2356は、診断画像、および、評価部2357による評価結果などの表示部210に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
評価部2357は、診断画像と、視点検出部2355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部2357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
出力制御部2356が第1の実施形態と同様の診断画像を表示し、評価部2357が第1の実施形態の評価部354と同様の評価処理を行ってもよい。言い換えると、第1の実施形態の視線検出処理(視線検出部351)を、第2の実施形態の視線検出処理(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354)で置き換えてもよい。これにより、第1の実施形態の効果に加えて、第2の実施形態の効果(装置構成の簡略化など)を達成可能となる。
図17は、本実施形態の診断支援装置2100により実行される処理の概要を説明する図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源2103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
図18は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。
方法Aは、LED光源2103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
これに対し、本実施形態では、LED光源2103を照射したときの、角膜反射中心522とLED光源2103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源2103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
図19は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図13〜図16で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
目標位置605は、表示部210上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示画面101の中央位置としている。直線613は、LED光源2103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部2353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図20は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部2356は、表示画面101上の1点に目標画像を再生し(ステップS301)、被験者にその1点を注視させる。次に、制御部2300は、LED駆動制御部316を用いてLED光源2103を被験者の目に向けて点灯させる(ステップS302)。制御部2300は、左右カメラ(右カメラ2202、左カメラ2203)で被験者の目を撮像する(ステップS303)。
LED光源2103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部2351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。また、第2算出部2352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部2351および第2算出部2352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS304)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
第1算出部2351および第2算出部2352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS305)。第3算出部2353は、求めた角膜反射中心の世界座標と、LED光源2103の中心位置の世界座標とを結ぶ直線を求める(ステップS306)。次に、第3算出部2353は、表示画面101の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS307)。第3算出部2353は、ステップS306で算出した直線とステップS307で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS308)。第3算出部2353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS309)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部210上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部210内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図21は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源2103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示画面101上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
図22は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図22の視線検出処理を実行することができる。診断処理では、図22の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部2357による評価処理などが実行される。
ステップS401〜ステップS405は、図20のステップS302〜ステップS306と同様であるため説明を省略する。
第3算出部2353は、ステップS405で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS406)。
視線検出部2354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS407)。このベクトルが、被験者が見ている視線方向を示している。視点検出部2355は、この視線方向と表示画面101との交点の三次元世界座標値を算出する(ステップS408)。この値が、被験者が注視する表示部210上の1点を世界座標で表した座標値である。視点検出部2355は、求めた三次元世界座標値を、表示部210の二次元座標系で表される座標値(x,y)に変換する(ステップS409)。これにより、被験者が見つめる表示部210上の視点(注視点)を算出することができる。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(2)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
100、2100 診断支援装置
101 表示画面
102、2102 ステレオカメラ
105 スピーカ
150 記憶部
202、2202 右カメラ
203 赤外LED光源
204、2203 左カメラ
205 赤外LED光源
208 駆動・IF部
210 表示部
300、2300 制御部
351、2354 視線検出部
352、2355 視点検出部
353、2356 出力制御部
354、2357 評価部
2351 第1算出部
2352 第2算出部
2353 第3算出部

Claims (12)

  1. 表示部と、
    被験者を撮像する撮像部と、
    前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
    前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、
    人物の画像と幾何学模様の画像とを含み、前記人物の画像と前記幾何学模様の画像との少なくとも一方の画像のコントラストが時間の経過とともに変化する診断画像を前記表示部に表示させる出力制御部と、
    前記診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、
    を備えることを特徴とする診断支援装置。
  2. 前記出力制御部は、前記人物の画像のコントラストと、前記幾何学模様画像のコントラストとが、時間の経過とともに相反して変化する診断画像を前記表示部に表示させること、
    を特徴とする請求項1に記載の診断支援装置。
  3. 前記出力制御部は、前記コントラストの変化の割合が一定値以下となる診断画像を前記表示部に表示させること、
    を特徴とする請求項1に記載の診断支援装置。
  4. 表示部と、
    被験者を撮像する撮像部と、
    前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
    前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、
    人物の画像と幾何学模様の画像とを含み、前記人物の画像と前記幾何学模様の画像との少なくとも一方の画像の色の濃さが時間の経過とともに変化する診断画像を前記表示部に表示させる出力制御部と、
    前記診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、
    を備えることを特徴とする診断支援装置。
  5. 前記出力制御部は、前記人物の画像の色の濃さと、前記幾何学模様画像の色の濃さとが、時間の経過とともに相反して変化する診断画像を前記表示部に表示させること、
    を特徴とする請求項4に記載の診断支援装置。
  6. 前記出力制御部は、前記色の濃さの変化の割合が一定値以下となる診断画像を前記表示部に表示させること、
    を特徴とする請求項4に記載の診断支援装置。
  7. 前記視点検出部は、前記診断画像の表示が開始されてから所定時間が経過した後に、前記視線方向に基づいて前記視点を検出すること、
    を特徴とする請求項1から6のいずれか一項に記載の診断支援装置。
  8. 前記出力制御部は、第1の診断画像を前記表示部に表示させた後、前記人物の画像の位置、および、前記幾何学模様の画像の位置が前記第1の診断画像と異なる第2の診断画像を前記表示部に表示させ、
    前記評価部は、前記第1の診断画像が表示されたときに前記視点検出部により検出された前記視点、および、前記第2の診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記評価値を算出すること、
    を特徴とする請求項1から6のいずれか一項に記載の診断支援装置。
  9. 前記評価部は、前記人物の画像を含む領域で前記視点が検出される時間を表す第1停留時間と、前記幾何学模様の画像を含む領域で前記視点が検出される時間を表す第2停留時間と、の少なくとも一方に基づいて前記評価値を算出すること、
    を特徴とする請求項1から6のいずれか一項に記載の診断支援装置。
  10. 光を照射する光源を含む照明部と、
    前記照明部によって光が照射され、前記撮像部によって撮像された被験者の眼球の画像から瞳孔の中心を示す第1位置を算出する第1算出部と、
    撮像された前記眼球の画像から角膜反射の中心を示す第2位置を算出する第2算出部と、
    前記光源と前記第2位置とを結ぶ直線に基づいて、角膜曲率中心を示す第3位置を算出する第3算出部と、をさらに備え、
    前記視線検出部は、前記第1位置と前記第3位置に基づいて前記被験者の視線を検出すること、
    を特徴とする請求項1から9のいずれか一項に記載の診断支援装置。
  11. 被験者を撮像する撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出ステップと、
    前記視線方向に基づいて、表示部の表示領域における前記被験者の視点を検出する視点検出ステップと、
    人物の画像と幾何学模様の画像とを含み、前記人物の画像と前記幾何学模様の画像との少なくとも一方の画像のコントラストが時間の経過とともに変化する診断画像を前記表示部に表示させる出力制御ステップと、
    前記診断画像が表示されたときに前記視点検出ステップにより検出された前記視点に基づいて前記被験者の評価値を算出する評価ステップと、
    を含む診断支援方法。
  12. 被験者を撮像する撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出ステップと、
    前記視線方向に基づいて、表示部の表示領域における前記被験者の視点を検出する視点検出ステップと、
    人物の画像と幾何学模様の画像とを含み、前記人物の画像と前記幾何学模様の画像との少なくとも一方の画像の色の濃さが時間の経過とともに変化する診断画像を前記表示部に表示させる出力制御ステップと、
    前記診断画像が表示されたときに前記視点検出ステップにより検出された前記視点に基づいて前記被験者の評価値を算出する評価ステップと、
    を含む診断支援方法。
JP2014039246A 2013-06-28 2014-02-28 診断支援装置および診断支援方法 Active JP6142824B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014039246A JP6142824B2 (ja) 2013-07-30 2014-02-28 診断支援装置および診断支援方法
EP14818648.9A EP3015075B1 (en) 2013-06-28 2014-06-27 Diagnosis assistance device and diagnosis assistance method
PCT/JP2014/067289 WO2014208761A1 (ja) 2013-06-28 2014-06-27 診断支援装置及び診断支援方法
US14/980,077 US9579054B2 (en) 2013-06-28 2015-12-28 Diagnosis supporting device and diagnosis supporting method
US15/398,906 US10149643B2 (en) 2013-06-28 2017-01-05 Control device, diagnosis supporting device, control method and a non-transitory storage medium that stores control program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013157756 2013-07-30
JP2013157756 2013-07-30
JP2014039246A JP6142824B2 (ja) 2013-07-30 2014-02-28 診断支援装置および診断支援方法

Publications (2)

Publication Number Publication Date
JP2015043965A JP2015043965A (ja) 2015-03-12
JP6142824B2 true JP6142824B2 (ja) 2017-06-07

Family

ID=52670035

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014039246A Active JP6142824B2 (ja) 2013-06-28 2014-02-28 診断支援装置および診断支援方法
JP2014039247A Active JP6142825B2 (ja) 2013-06-28 2014-02-28 診断支援装置および診断支援方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2014039247A Active JP6142825B2 (ja) 2013-06-28 2014-02-28 診断支援装置および診断支援方法

Country Status (1)

Country Link
JP (2) JP6142824B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7074221B2 (ja) * 2021-02-26 2022-05-24 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7682025B2 (en) * 2007-02-04 2010-03-23 Miralex Systems Incorporated Gaze tracking using multiple images
US8808195B2 (en) * 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP2012055418A (ja) * 2010-09-07 2012-03-22 Osaka Univ 視線検出装置及び視線検出方法
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
JP5926210B2 (ja) * 2012-03-21 2016-05-25 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置

Also Published As

Publication number Publication date
JP2015043966A (ja) 2015-03-12
JP2015043965A (ja) 2015-03-12
JP6142825B2 (ja) 2017-06-07

Similar Documents

Publication Publication Date Title
US10149643B2 (en) Control device, diagnosis supporting device, control method and a non-transitory storage medium that stores control program
JP6217445B2 (ja) 診断支援装置および診断支援方法
WO2015146491A1 (ja) 検出装置および検出方法
JP6210023B2 (ja) 視線検出支援装置および視線検出支援方法
JP6201956B2 (ja) 視線検出装置および視線検出方法
JP6269377B2 (ja) 診断支援装置および診断支援方法
JP6245093B2 (ja) 診断支援装置および診断支援方法
JP6142822B2 (ja) 診断支援装置および診断支援方法
JP6380178B2 (ja) 診断支援装置および診断支援方法
US10123695B2 (en) Diagnosis supporting device and method of supporting diagnosis
JP6217446B2 (ja) 制御装置、診断支援装置、制御方法及び制御プログラム
JP6593133B2 (ja) 診断支援装置および診断支援方法
JP2015144635A (ja) 検出装置および検出方法
JP6142824B2 (ja) 診断支援装置および診断支援方法
JP6327171B2 (ja) 注視点検出装置および注視点検出方法
JP6187347B2 (ja) 検出装置および検出方法
JP6471533B2 (ja) 視線検出装置および視線検出方法
WO2015080003A1 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
JP2015181797A (ja) 検出装置および検出方法
JP2016157326A (ja) 視線検出装置および視線検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6142824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150