以下に、本発明にかかる検出装置および検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
本実施形態の検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
また、2ヶ所以上に設置された照明部を用いて視線を検出するように構成してもよい。この場合は、例えば、特許文献2と同様の視線検出方法を適用できる。
図1および2は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。
図1に示すように、本実施形態の診断支援装置は、表示部101と、ステレオカメラ102と、LED光源103と、を含む。ステレオカメラ102は、表示部101の下に配置される。LED光源103は、ステレオカメラ102に含まれる2つのカメラの中心位置に配置される。LED光源103は、例えば波長850nmの近赤外線を照射する光源である。図1では、9個のLEDによりLED光源103(照明部)を構成する例が示されている。なお、ステレオカメラ102は、波長850nmの近赤外光を透過できるレンズを使用する。
図2に示すように、ステレオカメラ102は、右カメラ202と左カメラ203とを備えている。LED光源103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ202、左カメラ203)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図3は、診断支援装置100の機能の概要を示す図である。図3では、図1および2に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図3に示すように、診断支援装置100は、右カメラ202と、左カメラ203と、LED光源103と、スピーカ205と、駆動・IF(interface)部313と、制御部300と、記憶部150と、表示部101と、を含む。図3において、表示画面201は、右カメラ202および左カメラ203との位置関係を分かりやすく示しているが、表示画面201は表示部101において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ205は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部313は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部313は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部101に表示する画像等を記憶する。表示部101は、診断のための対象画像等、各種情報を表示する。
図4は、図3に示す各部の詳細な機能の一例を示すブロック図である。図4に示すように、制御部300には、表示部101と、駆動・IF部313が接続される。駆動・IF部313は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部313には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ203が接続される。駆動・IF部313がこれらのカメラを駆動することにより、被験者を撮像する。
スピーカ駆動部322は、スピーカ205を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、第1算出部351と、第2算出部352と、第3算出部353と、視線検出部354と、視点検出部355と、出力制御部356と、評価部357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部351、第2算出部352、第3算出部353、および、視線検出部354が備えられていればよい。
制御部300に含まれる各要素(第1算出部351、第2算出部352、第3算出部353、視線検出部354、視点検出部355、出力制御部356、および、評価部357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1算出部351は、ステレオカメラ102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。
第3算出部353は、LED光源103と角膜反射中心とを結ぶ直線と、から角膜曲率中心(第3位置)を算出する。例えば、第3算出部353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心とLED光源103とを結ぶ直線と、の交点(第4位置)を算出する。そして第3算出部353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面201の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部356が、表示画面201上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面201の中央に限られるものではなく、任意の位置でよい。表示画面201の中央を目標位置とすれば、表示画面201の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部353は、LED光源103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。
視線検出部354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部355は、例えば、表示画面201で被験者が注視する点である視点(注視点)を検出する。視点検出部355は、例えば図2のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部356は、表示部101およびスピーカ205などに対する各種情報の出力を制御する。例えば、出力制御部356は、表示部101上の目標位置に目標画像を出力させる。また、出力制御部356は、診断画像、および、評価部357による評価結果などの表示部101に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様画像など)と、それ以外の画像(人物画像など)と、を含む診断画像を用いてもよい。画像は、静止画像であっても動画像であってもよい。幾何学模様画像は、例えば1以上の幾何学模様を含む画像である。人物画像は、例えば人物の顔を含む画像であればよい。なお、動物、植物、および自然の景観などをカメラで撮像した画像(静止画、動画)に人物が存在する画像を用いてもよい。また、人物などを模したキャラクタの画像(静止画、動画)を用いてもよい。
評価部357は、診断画像と、視点検出部355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
図5は、本実施形態の診断支援装置100により実行される処理の概要を説明する図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
図6は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ202、左カメラ203)と制御部300とが接続することについては図示せず省略する。
方法Aは、LED光源103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
これに対し、本実施形態では、LED光源103を照射したときの、角膜反射中心522とLED光源103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
図7は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図1〜図4で説明した要素については同一の符号を付し説明を省略する。
目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示部101の画面の中央位置としている。直線613は、LED光源103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図8は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部356は、表示部101の画面上の1点に目標画像を再生し(ステップS101)、被験者にその1点を注視させる。次に、制御部300は、LED駆動制御部316を用いてLED光源103を被験者の目に向けて点灯させる(ステップS102)。制御部300は、左右カメラ(右カメラ202、左カメラ203)で被験者の目を撮像する(ステップS103)。
LED光源103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。また、第2算出部352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部351および第2算出部352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS104)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
第1算出部351および第2算出部352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS105)。第3算出部353は、求めた角膜反射中心の世界座標と、LED光源103の中心位置の世界座標とを結ぶ直線を求める(ステップS106)。次に、第3算出部353は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS107)。第3算出部353は、ステップS106で算出した直線とステップS107で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS108)。第3算出部353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS109)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部101上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部101内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図9は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示部101の画面上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ202、左カメラ203)と制御部300とが接続することについては図示せず省略する。
図10は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図10の視線検出処理を実行することができる。診断処理では、図10の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部357による評価処理などが実行される。
ステップS201〜ステップS205は、図8のステップS102〜ステップS106と同様であるため説明を省略する。
第3算出部353は、ステップS205で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS206)。
視線検出部354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS207)。このベクトルが、被験者が見ている視線方向を示している。視点検出部355は、この視線方向と表示部101の画面との交点の三次元世界座標値を算出する(ステップS208)。この値が、被験者が注視する表示部101上の1点を世界座標で表した座標値である。視点検出部355は、求めた三次元世界座標値を、表示部101の二次元座標系で表される座標値(x,y)に変換する(ステップS209)。これにより、被験者が見つめる表示部101上の視点(注視点)を算出することができる。
次に、診断支援処理の詳細について説明する。診断支援の方法として、例えば、左右に人物画像と幾何学模様画像とを並列させた診断画像を用いて、左右の各画像のエリア(領域)内を注視した時間を集計する方法が考えられる。図11は、このような方法で表示する診断画像の一例を示す図である。表示画面201の中央付近の左に人物画像(エリアH)を含み、右に幾何学模様画像(エリアK)を含む診断画像が表示される。そして、エリアH全体およびエリアK全体で、それぞれ注視点の停留時間が測定される。このような方法では、例えば、人物画像(エリアH)内の顔部分を注視するのではなく、エリアHの端部などに偶発的に視線が向いた場合であっても、人物画像を注視したと判断される。
そこで、本実施形態では、人物画像および幾何学模様画像に、診断支援に適する一部の領域(エリア)をそれぞれ設ける。そして、この部分を注視した時間を検出し、検出した時間を比較することにより診断支援を行う。例えば、人物画像中の顔の部分に判定エリア(第1特定領域)を設け、幾何学模様の中心部分に判定エリア(第2特定領域)を設ける。そして、それぞれの判定エリアの注視時間を基に判定する。これにより、人物の顔部分を特によく見たか、幾何学模様の中心をよく見たかで、定型発達の被験者と発達障がいの被験者との注視時間の差がより大きくなる。この結果、さらに高精度の検出を実現できる。
図12は、本実施形態で用いる診断画像の一例を示す図である。図11と同様に、表示画面201の中央付近の左に人物画像(エリアH)を含み、右に幾何学模様画像(エリアK)を含む診断画像が表示される。本実施形態では、人物画像および幾何学模様画像のそれぞれの中に、さらに特定の判定エリアを設ける。例えば、エリアHは、エリア1Aおよびエリア2Aを判定エリアとして含む。また、エリアKは、エリア3B、エリア4Bおよびエリア5Bを判定エリアとして含む。
エリア1Aは、第1の人物(少女)の顔を含むエリアである。エリア2Aは、第2の人物(赤ちゃん)の顔を含むエリアである。エリア3Bは、エリアK内の3つの幾何学模様のうち左上部の幾何学模様の中心を含むエリアである。エリア4Bは、下部の幾何学模様の中心を含むエリアである。エリア5Bは、中央右の幾何学模様の中心を含むエリアである。
被験者が人に興味があるか、幾何学模様に興味があるかを測定する場合、人に興味があると判定するエリアを、エリア1Aおよびエリア2Aの少なくとも1つとする。また、幾何学模様に興味があると判定するエリアを、エリア3B、エリア4B、およびエリア5Bの少なくとも1つとする。
図13は、本実施形態で用いる診断画像の他の例を示す図である。図13の例では、エリアHは、エリア12Aおよびエリア13Aを判定エリアとして含む。また、エリアKは、エリア11Bを判定エリアとして含む。図13は、図12に対して、人物画像(エリアH)および幾何学模様画像(エリアK)の配置が異なる診断画像の例である。すなわち、図13では、左が幾何学模様画像(エリアK)、右が人物画像(エリアH)となる。このように異なった配置の診断画像を用いることにより、被験者の視線が左右の位置関係に依存していないか確認し、より正確な診断を行うことが可能となる。
エリア11Bは、エリアK内の幾何学模様全体の中心を含むエリアである。エリア12Aは、第1の人物(少女)の顔を含むエリアである。エリア13Aは、第2の人物(母親)の顔を含むエリアである。
被験者が人に興味があるか、幾何学模様に興味があるかを測定する場合、人に興味があると判定するエリアをエリア12Aおよびエリア13Aの少なくとも1つとする。また、幾何学模様に興味があると判定するエリアをエリア11Bとする。
なお、図12および13では、判定エリアの形状を楕円(または円)としているが、判定エリアの形状はこれに限られるものではなく、任意の形状としてよい。また、例えば図12では同心円状の幾何学模様を3つ含む幾何学模様画像の例が示されているが、幾何学模様の個数は任意でよい。上記のように診断画像は動画像であってもよく、この場合、画像の動きに合わせて判定エリアも移動させればよい。また、診断画像上の記号である黒い「○」の軌跡は、診断画像上で検出される注視点の軌跡の例を示している。
図14は、図12の診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。
まず、制御部300は、画像(映像)の再生を開始する(ステップS301)。次に、制御部300は、映像の再生時間より僅かに短い時間を計測するタイマをリセットする(ステップS302)。次に、制御部300は、人物画像内の判定エリアを注視した時にカウントアップするカウンタ1と、幾何学模様画像内の判定エリアを注視した時にカウントアップするカウンタ2と、双方のエリア内ではない場合にカウントアップするカウンタ3と、をリセットする(ステップS303)。
以下に説明する注視点測定は、例えば、同期して撮像するステレオカメラの1フレームごとに行う。すなわち所定の時間間隔ごとに注視点が測定される。従って、カウンタ1、カウンタ2、およびカウンタ3のカウント値は、注視時間に対応する。カウンタ1は、人物画像内の判定エリアで注視点(第1視点)が検出される時間(注視時間)に相当する。また、カウンタ2は、幾何学模様画像内の判定エリアで注視点(第2視点)が検出される時間(注視時間)に相当する。
次に、注視点検出が行われる(ステップS304)。注視点検出は、例えば図10までで説明したような手順に従い、第1算出部351、第2算出部352、第3算出部353、および、視線検出部354により実行される。次に、制御部300は、注視点検出が失敗したかを判断する(ステップS305)。例えば、瞬きなどにより瞳孔および角膜反射の画像が得られない場合に、注視点検出が失敗する。また、注視点が表示画面201内にない場合(表示画面201以外を見ていた場合)も、注視点検出が失敗する。
注視点検出に失敗した場合(ステップS305:Yes)、カウンタ1、カウンタ2、およびカウンタ3に影響させないため、ステップS306〜ステップS313までの処理をスキップして、ステップS314に移動する。
注視点検出が成功した場合(ステップS305:No)、制御部300は、得られた注視点の座標より、注視点がエリア1A内にあるか否かを判断する(ステップS306)。エリア1A内にあれば(ステップS306:Yes)、制御部300は、カウンタ1をカウントアップする(ステップS311)。エリア1A内にない場合(ステップS306:No)、制御部300は、注視点がエリア2A内にあるか否かを判断する(ステップS307)。エリア2A内にあれば(ステップS307:Yes)、制御部300は、カウンタ1をカウントアップする(ステップS311)。
注視点がエリア2A内にない場合(ステップS307:No)、制御部300は、得られた注視点の座標より、注視点がエリア3B内にあるか否かを判断する(ステップS308)。エリア3B内にあれば(ステップS308:Yes)、制御部300は、カウンタ2をカウントアップする(ステップS312)。エリア3B内にない場合(ステップS308:No)、制御部300は、注視点がエリア4B内にあるか否かを判断する(ステップS309)。注視点がエリア4B内にあれば(ステップS309:Yes)、制御部300は、カウンタ2をカウントアップする(ステップS312)。注視点がエリア4B内にない場合(ステップS309:No)、制御部300は、注視点がエリア5B内にあるか否かを判断する(ステップS310)。エリア5B内にあれば(ステップS310:Yes)、制御部300は、カウンタ2をカウントアップする(ステップS312)。
いずれの判定エリア内にも注視点がない場合は(ステップS310:No)、人の顔も、幾何学模様の中心付近も見ていないことになるので、制御部300は、カウンタ3をカウントアップする(ステップS313)。
次に、映像の終了を確認するため、制御部300は、タイマの完了を調べる(ステップS314)。例えば、制御部300は、タイマの値が映像の終了時間に対応する所定値に達した場合に、タイマが完了したと判定する。完了していない場合(ステップS314:No)、ステップS304に戻り処理を繰り返す。
タイマが完了した場合(ステップS314:Yes)、制御部300は、映像の再生を停止させる(ステップS315)。次に、制御部300は、カウンタ1のデータを出力する(ステップS316)。カウンタ1のデータは、人物画像内の判定エリアの注視時間に対応する。次に、制御部300は、カウンタ2のデータを出力する(ステップS317)。カウンタ2のデータは、幾何学模様内の判定エリアの注視時間に対応する。
次に、評価部357は、カウンタ1とカウンタ2の割合を計算する(ステップS318)。この場合の割合は、具体的に、カウンタ2の計数値に対するカウンタ1の計数値の割合、カウンタ1の計数値に対するカウンタ2の計数値の割合、カウンタ1の計数値+カウンタ2の計数値に対するカウンタ1の計数値の割合、またはカウンタ1の計数値+カウンタ2の計数値に対するカウンタ2の計数値の割合などである。このような評価値は、発達障がいの可能性の指針になる。幾何学模様内の判定エリアを注視した割合が高いほど、発達障がいの可能性が高くなる。評価部357は、算出した評価値(割合データ)を出力する(ステップS319)。
次に、評価部357は、評価に用いる全ての視点の計数値(カウンタ1の計数値+カウンタ2の計数値+カウンタ3の計数値)に対するカウンタ1の計数値の割合を計算する(ステップS320)。この値が高いほど、更に発達障がいの可能性が低いことになる。
次に、評価部357は、評価に用いる全ての視点の計数値(カウンタ1の計数値+カウンタ2の計数値+カウンタ3の計数値)に対するカウンタ2の計数値の割合を計算する(ステップS321)。この値が高いほど、更に発達障がいの可能性が高いことになる。
なお、評価値の算出方法は上記に限られるものではない。人物画像および模様画像のいずれを注視しているかを判定可能な値であればどのような評価値を用いてもよい。図14の例では、3つの評価値を算出したが(ステップS318、ステップS320、ステップS321)、算出する評価値の個数は任意である。
このように、本実施形態では、人物画像および幾何学画像の全体(例えばエリアH、エリアK)ではなく、人物画像内および幾何学画像内の一部のエリアを、視点の検出対象(診断対象)とする。これにより、例えば、注視する意図がなく偶発的に視点がエリア内に入った場合に誤って注視点を検出することを回避できる。すなわち、検出(診断)の精度を向上させることができる。
図15は、図13の診断画像を用いる場合の診断支援処理の一例を示すフローチャートである。
ステップS401〜ステップS405は、図14のステップS301〜ステップS305と同様であるため説明を省略する。
注視点検出が成功した場合、制御部300は、得られた注視点の座標より、注視点がエリア11B内にあるか否かを判断する(ステップS406)。エリア11B内にあれば(ステップS406:Yes)、制御部300は、カウンタ2をカウントアップする(ステップS410)。
注視点がエリア11B内にない場合(ステップS406:No)、制御部300は、注視点がエリア12A内にあるか否かを判断する(ステップS407)。エリア12A内にあれば(ステップS407:Yes)、制御部300は、カウンタ1をカウントアップする(ステップS409)。エリア12A内にない場合(ステップS407:No)、制御部300は、注視点がエリア13A内にあるか否かを判断する(ステップS408)。エリア13A内にあれば(ステップS408:Yes)、制御部300は、カウンタ1をカウントアップする(ステップS409)。
いずれの判定エリア内にも注視点がない場合(ステップS408:No)、人の顔も、幾何学模様の中心付近も見ていないことになるので、制御部300は、カウンタ3をカウントアップする(ステップS411)。
ステップS412〜ステップS419は、図13のステップS314〜ステップS321と同様であるため説明を省略する。
なお、人物画像内に設ける判定エリアは顔部分を含むエリアに限られるものではない。同様に、幾何学模様画像内に設ける判定エリアは幾何学模様の中心を含むエリアに限られるものではない。各画像中で、定型発達被験者と発達障がい被験者との注視時間の差が大きくなるエリアであれば、どのようなエリアであってもよい。
例えば、顔部分の画像が大きいような場合であれば、人物画像内の目を含むエリアを判定エリアとしてもよい。また、幾何学模様画像内で、幾何学模様の特徴部分を含むエリア、幾何学模様を描画する線の密度が他の部分より大きい部分を含むエリア、幾何学模様が変化する部分を含むエリア、などを判定エリアとしてもよい。
また、診断画像は、人物画像と幾何学模様画像とを並列させた画像に限られるものではなく、人物画像と幾何学模様画像とを含んでいればどのような画像であってもよい。図16は、本実施形態で用いる診断画像の他の例を示す図である。図16は、人物画像を中央から左部に含み、右部に幾何学模様画像(エリアK)を含む診断画像の例である。エリア22Aおよびエリア23Aは、人物画像内の判定エリアである。エリア21Bは、幾何学模様画像内の判定エリアである。図16の診断画像を用いる場合は、図13のエリア12A、13Aおよび11Bの代わりに、エリア22A、23Aおよび21Bを用いて、例えば図15の診断支援処理を実行すればよい。
また、診断画像は、人物画像内および幾何学模様画像内のそれぞれに判定エリアを設けているが、人物画像については人物画像内に判定エリアを設けて、幾何学模様画像については幾何学模様画像全体を判定エリアとして視点を検出してもよい。また、人物画像については人物画像全体を判定エリアとして、幾何学模様画像については幾何学模様画像内に判定エリアを設けて視点を検出してもよい。少なくとも一方の画像内に判定エリアを設けることで、視点の検出の精度を向上することができる。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)人物画像全体を見た注視時間と幾何学模様画像全体を見た注視時間を比較する従来方法より、定型発達被験者と発達障がい被験者との注視時間(評価結果)の差が大きくなるため、感度および特異度が高くなる。
(2)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(3)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。