JP6142822B2 - Diagnosis support apparatus and diagnosis support method - Google Patents

Diagnosis support apparatus and diagnosis support method Download PDF

Info

Publication number
JP6142822B2
JP6142822B2 JP2014035948A JP2014035948A JP6142822B2 JP 6142822 B2 JP6142822 B2 JP 6142822B2 JP 2014035948 A JP2014035948 A JP 2014035948A JP 2014035948 A JP2014035948 A JP 2014035948A JP 6142822 B2 JP6142822 B2 JP 6142822B2
Authority
JP
Japan
Prior art keywords
unit
image
viewpoint
subject
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014035948A
Other languages
Japanese (ja)
Other versions
JP2015043963A (en
Inventor
首藤 勝行
勝行 首藤
賢 二宮
賢 二宮
修二 箱嶋
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014035948A priority Critical patent/JP6142822B2/en
Priority to PCT/JP2014/067289 priority patent/WO2014208761A1/en
Priority to EP14818648.9A priority patent/EP3015075B1/en
Publication of JP2015043963A publication Critical patent/JP2015043963A/en
Priority to US14/980,077 priority patent/US9579054B2/en
Priority to US15/398,906 priority patent/US10149643B2/en
Application granted granted Critical
Publication of JP6142822B2 publication Critical patent/JP6142822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、診断支援装置および診断支援方法に関する。   The present invention relates to a diagnosis support apparatus and a diagnosis support method.

最近、発達障がい者が増加傾向にあると言われている。発達障がいは、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障がいの診断支援装置が求められている。   Recently, people with developmental disabilities are said to be on the rise. It is known that developmental disabilities are found early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disabilities.

発達障がい早期発見のためには、例えば1歳半検診時に診断できることが理想的である。発達障がいとしては、注意欠陥・多動性障がい(ADHD(Attention Deficit / Hyperactivity Disorder))、および、自閉症スペクトラム障がい(ASD(Autistic Spectrum Disorder))などが知られている。ADHDの障がい児の特徴として、1つのものに集中し難いため、注視対象も一定に留まらず、注視点が移動しやすいことが挙げられる。また、ASDの障がい児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。また、ASDの障がい児は、人物映像より幾何学模様の映像を好むことが知られている。   For early detection of developmental disabilities, it is ideal to be able to diagnose at the age of 1 and a half years. As developmental disorders, attention deficit / hyperactivity disorder (ADHD (Attention Deficit / Hyperactivity Disorder)) and autism spectrum disorder (ASD (Autistic Spectrum Disorder)) are known. As a characteristic of children with disabilities with ADHD, it is difficult to concentrate on one thing, and the gaze target is not limited, and the gaze point is easy to move. In addition, a characteristic of ASD children with disabilities is that they do not look at their opponent's eyes (turn their eyes away). It is also known that children with disabilities with ASD prefer geometric images rather than human images.

また、カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障がいを診断支援する方法が提案されている。   In addition, a method has been proposed for diagnosing developmental disabilities by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position.

特開2005−185431号公報JP 2005-185431 A 特開2008−125619号公報JP 2008-125619 A 特開2005−198743号公報JP 2005-198743 A 特開2002−360518号公報JP 2002-360518 A 特開2011−206542号公報JP 2011-206542 A

Pierce K et al.,“Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.”,Arch Gen Psychiatry. 2011 Jan;68(1):101-109.Pierce K et al., “Preference for Geometric Patterns Early in Life as a Risk Factor for Autism.”, Arch Gen Psychiatry. 2011 Jan; 68 (1): 101-109.

1歳半程度の被験者は、動きの少ない物体を注視しない傾向がある。このため、従来のように注視点を検出する方法では、適切に診断を支援できない場合があり、さらに高精度の検出方法が求められていた。   Subjects about one and a half years old tend not to gaze at objects with little movement. For this reason, the conventional method of detecting a gazing point may not be able to support diagnosis appropriately, and a more accurate detection method has been demanded.

本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置および診断支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a diagnosis support apparatus and a diagnosis support method capable of improving the accuracy of diagnosis.

上述した課題を解決し、目的を達成するために、本発明は、表示部と、被験者を撮像する撮像部と、前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、前記表示部の表示領域を分割した複数の分割領域における前記被験者の視点を、前記視線方向に基づいて検出する視点検出部と、人物画像と、模様画像と、キャラクタ画像と、のうち少なくとも2つを、複数の前記分割領域のうち相互に異なる前記分割領域に、それぞれ診断画像として表示させる出力制御部と、前記診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a display unit, an imaging unit that images a subject, and a line of sight that detects the gaze direction of the subject from a captured image captured by the imaging unit. A detection unit, a viewpoint detection unit that detects the viewpoint of the subject in a plurality of divided regions obtained by dividing the display region of the display unit, based on the line-of-sight direction, a person image, a pattern image, and a character image An output control unit that displays at least two of them as a diagnostic image in each of the divided regions that are different from each other among the plurality of divided regions, and the detected by the viewpoint detection unit when the diagnostic image is displayed An evaluation unit that calculates an evaluation value of the subject based on a viewpoint.

本発明にかかる診断支援装置および診断支援方法は、診断の精度を向上できるという効果を奏する。   The diagnosis support apparatus and diagnosis support method according to the present invention have an effect of improving the accuracy of diagnosis.

図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. 図2は、第1の実施形態の診断支援装置の機能の概要を示す図である。FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus according to the first embodiment. 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. 図4は、2台のカメラを使用した場合の目および距離の検出の一例を示す図である。FIG. 4 is a diagram illustrating an example of eye and distance detection when two cameras are used. 図5は、表示される診断画像の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of a displayed diagnostic image. 図6は、第1の実施形態における診断支援処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment. 図7は、図6のウィンドウ移動処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the window moving process of FIG. 図8は、図6の総合評価処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the comprehensive evaluation process of FIG. 図9は、図6の総合評価処理の他の例を示すフローチャートである。FIG. 9 is a flowchart showing another example of the comprehensive evaluation process of FIG. 図10は、図6のエリアA1処理の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the area A1 process of FIG. 図11は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 11 is a diagram illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject according to the second embodiment. 図12は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 12 is a diagram illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject according to the second embodiment. 図13は、診断支援装置の機能の概要を示す図である。FIG. 13 is a diagram illustrating an outline of functions of the diagnosis support apparatus. 図14は、図13に示す各部の詳細な機能の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 13. 図15は、第2の実施形態の診断支援装置により実行される処理の概要を説明する図である。FIG. 15 is a diagram illustrating an outline of processing executed by the diagnosis support apparatus according to the second embodiment. 図16は、2つの光源を用いる方法と、1つの光源を用いる第2の実施形態との違いを示す説明図である。FIG. 16 is an explanatory diagram showing the difference between the method using two light sources and the second embodiment using one light source. 図17は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。FIG. 17 is a diagram for explaining calculation processing for calculating the distance between the pupil center position and the corneal curvature center position. 図18は、第2の実施形態の算出処理の一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of calculation processing according to the second embodiment. 図19は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。FIG. 19 is a diagram illustrating a method of calculating the position of the corneal curvature center using the distance obtained in advance. 図20は、第2の実施形態の視線検出処理の一例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of a line-of-sight detection process according to the second embodiment.

以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

(第1の実施形態)
上述のように、発達障がいの診断支援装置では、より精度の高い方法が求められていた。また、多種の発達障がいに対して診断支援できる効率の良い装置が求められていた。これまでは、例えば、何も表示されていない画面を見た時のサッカードを検出してADHDを診断支援する技術が提案されている。第1の実施形態の診断支援装置は、グループ化した複数のウィンドウに対する注視点を検出して判断する。これにより、ADHDを従来より高い精度で診断支援するとともに、ASDの診断支援も実現できるようにする。
(First embodiment)
As described above, a diagnosis support apparatus for developmental disabilities requires a more accurate method. In addition, there has been a demand for an efficient device capable of supporting diagnosis for various developmental disabilities. So far, for example, a technique has been proposed that supports diagnosis of ADHD by detecting saccade when viewing a screen on which nothing is displayed. The diagnosis support apparatus according to the first embodiment detects and determines a gazing point for a plurality of grouped windows. As a result, diagnosis support for ADHD can be provided with higher accuracy than before, and diagnosis support for ASD can also be realized.

図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。   FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. As shown in FIG. 1, in this embodiment, a set of stereo cameras 102 is arranged below the display screen 101. The stereo camera 102 is an imaging unit that can perform stereo shooting with infrared rays, and includes a right camera 202 and a left camera 204.

右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。   Infrared LED (Light Emitting Diode) light sources 203 and 205 are arranged in the circumferential direction immediately before the lenses of the right camera 202 and the left camera 204, respectively. The infrared LED light sources 203 and 205 include an inner peripheral LED and an outer peripheral LED having different wavelengths for emitting light. The pupils of the subject are detected by the infrared LED light sources 203 and 205. As a pupil detection method, for example, the method described in Patent Document 2 can be applied.

視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   When detecting the line of sight, the space is expressed by coordinates to identify the position. In this embodiment, the center position of the display screen 101 is the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +). .

図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF(interface)部208と、制御部300と、記憶部150と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。   FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 2 shows a part of the configuration shown in FIG. 1 and a configuration used for driving the configuration. As shown in FIG. 2, the diagnosis support apparatus 100 includes a right camera 202, a left camera 204, infrared LED light sources 203 and 205, a speaker 105, a drive / IF (interface) unit 208, and a control unit 300. A storage unit 150 and a display unit 210. In FIG. 2, the display screen 101 shows the positional relationship between the right camera 202 and the left camera 204 in an easy-to-understand manner, but the display screen 101 is a screen displayed on the display unit 210. The drive unit and the IF unit may be integrated or separate.

スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。   The speaker 105 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.

駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。   The drive / IF unit 208 drives each unit included in the stereo camera 102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。   The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. The storage unit 150 stores, for example, an image to be displayed on the display unit 210. The display unit 210 displays various information such as a target image for diagnosis.

図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a display unit 210 and a drive / IF unit 208 are connected to the control unit 300. The drive / IF unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。   A right camera 202 and a left camera 204 are connected to the drive / IF unit 208 via camera IFs 314 and 315, respectively. The driving / IF unit 208 drives these cameras to image the subject.

赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。   The infrared LED light source 203 includes a wavelength 1-LED 303 and a wavelength 2-LED 304. The infrared LED light source 205 includes a wavelength 1-LED 305 and a wavelength 2-LED 306.

波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。   Wavelength 1-LEDs 303 and 305 emit infrared light having wavelength 1. Wavelength 2-LEDs 304 and 306 irradiate wavelength 2 infrared rays.

波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。   The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained. In addition, about the wavelength of the infrared rays to irradiate, it is not restricted to the above, The result which imaged the reflected light reflected by the pupil by irradiating the infrared rays of wavelength 1, and the reflection reflected by the pupil after irradiating the infrared rays of wavelength 2 What is necessary is just to be able to make a difference with the result of imaging light.

スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。   The speaker driving unit 322 drives the speaker 105. The diagnosis support apparatus 100 may include an interface (printer IF) for connecting to a printer as a printing unit. In addition, the printer may be provided inside the diagnosis support apparatus 100.

制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部351と、視点検出部352と、出力制御部353と、評価部354と、を備えている。   The control unit 300 controls the entire diagnosis support apparatus 100. The control unit 300 includes a line-of-sight detection unit 351, a viewpoint detection unit 352, an output control unit 353, and an evaluation unit 354.

視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を検出する処理が含まれる。視点検出部352は、検出された視線方向を用いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部351による視線検出方法、および、視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。   The gaze detection unit 351 detects the gaze (gaze direction) of the subject from the captured image captured by the imaging unit (stereo camera 102). The process for detecting the line of sight includes a process for detecting the eye position of the subject. The viewpoint detection unit 352 detects the viewpoint of the subject using the detected gaze direction. For example, the viewpoint detection unit 352 detects a viewpoint (gaze point) that is a point that the subject gazes out of the target image displayed on the display screen 101. As a gaze detection method by the gaze detection unit 351 and a viewpoint detection method by the viewpoint detection unit 352, any conventionally used method can be applied. Below, similarly to patent document 3, it demonstrates as an example the case where a test subject's gaze direction and a gaze point are detected using a stereo camera.

この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。   In this case, the gaze detection unit 351 first detects the gaze direction of the subject from the image captured by the stereo camera 102. The gaze detection unit 351 detects the gaze direction of the subject using, for example, the methods described in Patent Documents 1 and 2. Specifically, the line-of-sight detection unit 351 obtains the difference between the image captured by irradiating the infrared light having the wavelength 1 and the image captured by irradiating the infrared light having the wavelength 2, and the image in which the pupil image is clarified. Generate. The line-of-sight detection unit 351 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 202 and the left camera 204) and uses the stereo vision technique to determine the position of the subject's pupil ( Eye position) is calculated. The line-of-sight detection unit 351 calculates the position of the subject's corneal reflection using images taken by the left and right cameras. Then, the gaze detection unit 351 calculates a gaze vector representing the gaze direction of the subject from the position of the pupil of the subject and the corneal reflection position.

なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位置および視線を検出してもよい。   In addition, the detection method of the eye position and the line of sight of the subject is not limited to this. For example, the eye position and line of sight of the subject may be detected by analyzing an image captured using visible light instead of infrared light.

視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。   The viewpoint detection unit 352 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 1 and the XY plane as the gaze point of the subject. When the gaze direction of both eyes is obtained, the gaze point may be measured by obtaining the intersection of the left and right gazes of the subject.

図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。表示画面101には、診断画像が表示される。後述するように、診断画像は、例えば自然画(人物画像およびキャラクタ画像など)と模様画像とを含む。   FIG. 4 is a diagram illustrating an example of eye and distance detection when two cameras (the right camera 202 and the left camera 204) are used. For the two cameras, a camera calibration theory based on a stereo calibration method is applied in advance to obtain camera parameters. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied. Using the eye position detected from the image captured by the right camera 202, the eye position detected from the image captured by the left camera 204, and the camera parameters, the three-dimensional coordinates of the eye in the world coordinate system are obtained. It is done. Thereby, the distance between the eyes and the stereo camera 102 and the pupil coordinates can be estimated. The pupil coordinate is a coordinate value representing the position of the subject's eye (pupil) on the XY plane. The pupil coordinates can be, for example, coordinate values obtained by projecting the eye position expressed in the world coordinate system onto the XY plane. Usually, the pupil coordinates of the left and right eyes are obtained. A diagnostic image is displayed on the display screen 101. As will be described later, the diagnostic image includes, for example, a natural image (such as a person image and a character image) and a pattern image.

模様画像は、例えば1以上の幾何学模様を含む画像(幾何学画像)である。自然画は、幾何学画像以外の、自然物または自然物を連想させるような画像であればよい。例えば、人物、動物、植物、および自然の景観などをカメラで撮像した画像(静止画、動画)を自然画として用いてもよい。また、人物および動物などを模したキャラクタの画像(静止画、動画)を自然画として用いてもよい。   The pattern image is an image (geometric image) including one or more geometric patterns, for example. The natural image may be a natural object or an image reminiscent of a natural object other than a geometric image. For example, an image (still image or moving image) obtained by capturing a person, an animal, a plant, a natural landscape, or the like with a camera may be used as the natural image. Moreover, you may use the image (still image, moving image) of the character imitating a person, an animal, etc. as a natural image.

図3に戻り、出力制御部353は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部353は、診断画像、および、評価部354による評価結果などの表示部210に対する出力を制御する。出力制御部353は、人物画像と、幾何学画像と、キャラクタ画像と、のうち少なくとも2つを、複数の分割領域のうち相互に異なる分割領域に、それぞれ診断画像として表示させる。分割領域とは、表示部210の表示領域(表示画面101)を分割した領域を表す。分割領域の具体例については後述する。   Returning to FIG. 3, the output control unit 353 controls the output of various information to the display unit 210, the speaker 105, and the like. For example, the output control unit 353 controls the output to the display unit 210 such as the diagnostic image and the evaluation result by the evaluation unit 354. The output control unit 353 causes at least two of the person image, the geometric image, and the character image to be displayed as diagnostic images in different divided areas among the plurality of divided areas. The divided area represents an area obtained by dividing the display area (display screen 101) of the display unit 210. A specific example of the divided area will be described later.

評価部354は、診断画像と、視点検出部352により検出された注視点とに基づいて、発達障がいの程度に関する指標として評価値を算出する。評価部354は、例えば、後述する図5のような診断画像を表示した際の被験者の注視点の位置に基づいて、所定期間内の注視点の移動距離、所定期間内の注視点の移動速度、所定期間内に分割領域で注視点が検出された個数、および、所定期間内に複数の分割領域間で注視点が移動した回数、の少なくとも1つに基づく評価値を算出する。評価部354は、診断画像と注視点とに基づいて、評価値を算出すればよく、その算出方法は、実施の形態に限定されるものではない。   The evaluation unit 354 calculates an evaluation value as an index related to the degree of developmental disability based on the diagnostic image and the gazing point detected by the viewpoint detection unit 352. The evaluation unit 354, for example, based on the position of the gaze point of the subject when a diagnostic image as illustrated in FIG. 5 described later is displayed, the movement distance of the gaze point within the predetermined period, the movement speed of the gaze point within the predetermined period. Then, an evaluation value is calculated based on at least one of the number of detected gazing points in the divided areas within a predetermined period and the number of times the gazing point has moved between a plurality of divided areas within the predetermined period. The evaluation unit 354 may calculate the evaluation value based on the diagnostic image and the gazing point, and the calculation method is not limited to the embodiment.

図5は、表示される診断画像の一例を示す説明図である。図5に示すように、表示画面101は、複数の分割領域に分割される。以下では、分割領域をエリアともいう。図5の例では、表示画面101は、4つのエリアA1、エリアA2、エリアA3、エリアA4に分割されている。なお、エリアの個数は4に限られるものではない。   FIG. 5 is an explanatory diagram illustrating an example of a displayed diagnostic image. As shown in FIG. 5, the display screen 101 is divided into a plurality of divided areas. Hereinafter, the divided area is also referred to as an area. In the example of FIG. 5, the display screen 101 is divided into four areas A1, A2, A3, and A4. The number of areas is not limited to four.

本実施形態では、各エリアをさらに4つの領域(部分領域)に分割する。以下では、エリアを分割した領域をウィンドウともいう。図5の例では、各エリアがさらに4つのウィンドウに分割される。なお、エリアをさらに分割せず、各エリアにそれぞれ1つの診断画像を表示するように構成してもよい。   In the present embodiment, each area is further divided into four regions (partial regions). Below, the area | region which divided | segmented the area is also called a window. In the example of FIG. 5, each area is further divided into four windows. In addition, it may be configured such that one diagnostic image is displayed in each area without further dividing the area.

エリアA1の中には、4つのウィンドウW1、W2、W3、W4が設定されている。ウィンドウW1、W2、W3、W4の中に人物映像(人物画像)が表示される。ここで、各映像(画像)は静止画・動画のいずれでもよいが、動画の方が注視されやすいので好ましい形態である。エリアA2の中には、4つのウィンドウW5、W6、W7、W8が設定されている。ウィンドウW5、W6、W7、W8の中にキャラクタ画像としての動物映像(動物画像)が表示される。エリアA3の中には、4つのウィンドウW9、W10、W11、W12が設定されている。ウィンドウW9、W10、W11、W12の中に幾何学映像(幾何学画像)が表示される。エリアA4の中には、4つのウィンドウW13、W14、W15、W16が設定されている。ウィンドウW13、W14、W15、W16の中にキャラクタ画像としての乗り物映像(乗り物画像)が表示される。   In the area A1, four windows W1, W2, W3, and W4 are set. A person image (person image) is displayed in the windows W1, W2, W3, and W4. Here, each video (image) may be either a still image or a moving image, but a moving image is a preferred form because it is easier to watch. In the area A2, four windows W5, W6, W7, and W8 are set. Animal images (animal images) as character images are displayed in the windows W5, W6, W7, and W8. In the area A3, four windows W9, W10, W11, and W12 are set. A geometric image (geometric image) is displayed in the windows W9, W10, W11, and W12. In the area A4, four windows W13, W14, W15, and W16 are set. A vehicle image (vehicle image) as a character image is displayed in the windows W13, W14, W15, and W16.

なお、出力制御部353が、複数の測定期間(第1期間、第2期間)で、診断画像を表示するエリアを変更するように構成してもよい。この場合、評価部354が、各期間で算出された評価値の平均値を、最終的な評価値として求めてもよい。例えば、エリアA1とエリアA3、エリアA2とエリアA4の位置を入れ替えた2つのパターンそれぞれで算出された評価値を平均化してもよい。これにより、注視の好み(いつも右上から見始めるなど)などの影響を排除することが可能である。   Note that the output control unit 353 may be configured to change an area for displaying a diagnostic image in a plurality of measurement periods (first period, second period). In this case, the evaluation unit 354 may obtain an average value of evaluation values calculated in each period as a final evaluation value. For example, the evaluation values calculated for each of the two patterns in which the positions of the areas A1 and A3 and the areas A2 and A4 are exchanged may be averaged. As a result, it is possible to eliminate the influence of gaze preference (always starting to watch from the upper right).

次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について図6〜図10を用いて説明する。図6は、本実施形態における診断支援処理の一例を示すフローチャートである。なお、これ以前に個別のキャリブレーションは完了しているものとする。キャリブレーションには、上述のようなカメラキャリブレーション、および、視線検出のためのキャリブレーション(視線検出用較正)が含まれる。   Next, diagnosis support processing by the diagnosis support apparatus 100 according to the first embodiment configured as described above will be described with reference to FIGS. FIG. 6 is a flowchart illustrating an example of a diagnosis support process in the present embodiment. It is assumed that the individual calibration has been completed before this. The calibration includes camera calibration as described above and calibration for eye-gaze detection (eye-gaze detection calibration).

まず、出力制御部353は、映像(診断画像)の再生を開始する(ステップS101)。出力制御部353は、映像再生時間を決めるタイマをリセットする(ステップS102)。評価部354は、記憶部150などに保存されている映像再生期間中の注視点の移動距離の累積値(累積距離)をクリア(初期化)する(ステップS103)。   First, the output control unit 353 starts reproduction of a video (diagnostic image) (step S101). The output control unit 353 resets a timer that determines the video playback time (step S102). The evaluation unit 354 clears (initializes) the cumulative value (cumulative distance) of the movement distance of the gazing point during the video reproduction period stored in the storage unit 150 or the like (step S103).

評価部354は、評価値の算出に用いる以下のような各カウンタをリセット(初期化)する(ステップS104)。
・エリア内に注視点がある場合にインクリメントするエリアカウンタCA1〜CA4
・ウィンドウ内に注視点がある場合にインクリメントするウィンドウカウンタCW1〜CW16
・注視点がウィンドウから別のウィンドウに移った場合にインクリメントするウィンドウ移動カウンタCM
The evaluation unit 354 resets (initializes) the following counters used for calculating the evaluation value (step S104).
Area counters CA1 to CA4 that increment when there is a gazing point in the area
Window counters CW1 to CW16 that increment when there is a gazing point in the window
-Window movement counter CM that increments when the point of interest moves from one window to another

評価部354は、評価値の算出に用いる以下の各情報をクリア(初期化)する(ステップS105)。
・各ウィンドウに注視点が存在する場合に、1をセットするウィンドウOKフラグFW1〜FW16
・現在または過去の最近の時刻で注視点が検出されたウィンドウを示す現在ウィンドウNW
The evaluation unit 354 clears (initializes) the following information used for calculating the evaluation value (step S105).
-Window OK flags FW1 to FW16 for setting 1 when a gazing point exists in each window
-Current window NW indicating a window in which a gazing point is detected at the current or past recent time

次に、視点検出部352は、注視点を検出する(ステップS106)。視点検出部352は、瞬きなどの影響で注視点検出を失敗したか否かを判断する(ステップS107)。瞬きなどが生じた場合、瞳孔検出ができないので注視点の検出が不可能となる。注視点検出を失敗した場合(ステップS107:Yes)、ステップS120に進む。注視点を検出できた場合(ステップS107:No)、ステップS108に進む。   Next, the viewpoint detection unit 352 detects a gazing point (step S106). The viewpoint detection unit 352 determines whether or not gaze point detection has failed due to the influence of blinking or the like (step S107). When blinking occurs, the pupil cannot be detected, so that it is impossible to detect the gazing point. If the gazing point detection fails (step S107: Yes), the process proceeds to step S120. When the gazing point can be detected (step S107: No), the process proceeds to step S108.

ステップS108では、視点検出部352は、注視点の座標が、エリアA1内にあるか否かを判断する(ステップS108)。エリアA1内にある場合(ステップS108:Yes)、ステップS109に進む。ステップS109では、視点検出部352は、エリアA1に対応した処理(エリアA1処理)を行う(ステップS109)。エリアA1処理の詳細は後述する。エリアA1ではない場合(ステップS108:No)、ステップS110に進む。   In step S108, the viewpoint detection unit 352 determines whether the coordinates of the gazing point are within the area A1 (step S108). If it is within the area A1 (step S108: Yes), the process proceeds to step S109. In step S109, the viewpoint detection unit 352 performs a process corresponding to the area A1 (area A1 process) (step S109). Details of the area A1 process will be described later. If it is not the area A1 (step S108: No), the process proceeds to step S110.

ステップS110では、視点検出部352は、注視点の座標が、エリアA2内にあるか否かを判断する(ステップS110)。エリアA2内にある場合(ステップS110:Yes)、ステップS111に進む。ステップS111では、視点検出部352は、エリアA2に対応した処理(エリアA2処理)を行う(ステップS111)。エリアA2ではない場合(ステップS110:No)、ステップS112に進む。   In step S110, the viewpoint detection unit 352 determines whether or not the coordinates of the gazing point are within the area A2 (step S110). If it is within the area A2 (step S110: Yes), the process proceeds to step S111. In step S111, the viewpoint detection unit 352 performs a process corresponding to the area A2 (area A2 process) (step S111). When it is not area A2 (step S110: No), it progresses to step S112.

ステップS112では、視点検出部352は、注視点の座標が、エリアA3内にあるか否かを判断する(ステップS112)。エリアA3内にある場合(ステップS112:Yes)、ステップS113に進む。ステップS113では、視点検出部352は、エリアA3に対応した処理(エリアA3処理)を行う(ステップS113)。エリアA3ではない場合(ステップS112:No)、ステップS114に進む。   In step S112, the viewpoint detection unit 352 determines whether or not the coordinates of the gazing point are within the area A3 (step S112). If it is within the area A3 (step S112: Yes), the process proceeds to step S113. In step S113, the viewpoint detection unit 352 performs a process corresponding to the area A3 (area A3 process) (step S113). When it is not area A3 (step S112: No), it progresses to step S114.

ステップS114では、視点検出部352は、注視点の座標が、エリアA4内にあるか否かを判断する(ステップS114)。エリアA4内にある場合(ステップS114:Yes)、ステップS115に進む。ステップS115では、視点検出部352は、エリアA4に対応した処理(エリアA4処理)を行う(ステップS115)。エリアA4ではない場合、例えば、注視点が表示画面外などの場合(ステップS114:No)、ステップS116に進む。   In step S114, the viewpoint detection unit 352 determines whether or not the coordinates of the gazing point are within the area A4 (step S114). If it is within the area A4 (step S114: Yes), the process proceeds to step S115. In step S115, the viewpoint detection unit 352 performs a process corresponding to area A4 (area A4 process) (step S115). If it is not the area A4, for example, if the point of interest is outside the display screen (step S114: No), the process proceeds to step S116.

ステップS116では、視点検出部352は、現在の注視点の座標と前回の注視点の座標との間の距離を計算する(ステップS116)。次に、視点検出部352は、累積距離に、今回計算した距離を加算する(ステップS117)。次に、視点検出部352は、前回の注視点の座標に、現在の注視点の座標を代入する(ステップS118)。次に、視点検出部352は、ウィンドウ移動処理を実行する(ステップS119)。ウィンドウ移動処理の詳細は後述する。   In step S116, the viewpoint detection unit 352 calculates the distance between the coordinates of the current gazing point and the coordinates of the previous gazing point (step S116). Next, the viewpoint detection unit 352 adds the distance calculated this time to the accumulated distance (step S117). Next, the viewpoint detection unit 352 substitutes the coordinates of the current gazing point for the coordinates of the previous gazing point (step S118). Next, the viewpoint detection unit 352 executes window movement processing (step S119). Details of the window moving process will be described later.

次に、出力制御部353は、映像の再生が終わったか否かを判断する(ステップS120)。出力制御部353は、例えば、タイマが所定の値(再生時間)になったか否かにより、映像の再生が終わったか否かを判断する。映像の再生が終了していない場合(ステップS120:No)、ステップS106に戻り処理を繰り返す。映像の再生が終了した場合(ステップS120:Yes)、ステップS121に進む。   Next, the output control unit 353 determines whether or not the video has been reproduced (step S120). For example, the output control unit 353 determines whether or not the reproduction of the video has ended based on whether or not the timer has reached a predetermined value (reproduction time). If the reproduction of the video has not ended (step S120: No), the process returns to step S106 and is repeated. When the video reproduction is finished (step S120: Yes), the process proceeds to step S121.

出力制御部353は、映像の再生を停止する(ステップS121)。評価部354は、注視点移動の累積距離を取得する(ステップS122)。さらに、評価部354は、累積距離と映像の再生時間とから、注視点移動の平均速度を求める(ステップS123)。次に、評価部354は、エリアカウンタCA1〜CA4の値を取得し、ウィンドウカウンタCW1〜CW16の値を取得し、ウィンドウ移動カウンタCMの値を取得する(ステップS124)。次に、評価部354は、人物映像が表示されたエリア(エリアA1)と幾何学映像が表示されたエリア(エリアA3)で検出された注視点の個数の合計に対する、幾何学映像が表示されたエリア(エリアA3)で検出された注視点の個数の割合ANSを求める(ステップS125)。割合ANSは、人物映像と幾何学映像を見たうちの、幾何学映像を見た割合を示す。割合ANSが高いほどASDの可能性が高くなる。   The output control unit 353 stops the video reproduction (step S121). The evaluation unit 354 acquires the cumulative distance of gazing point movement (step S122). Further, the evaluation unit 354 calculates an average speed of movement of the gazing point from the accumulated distance and the playback time of the video (step S123). Next, the evaluation unit 354 acquires the values of the area counters CA1 to CA4, acquires the values of the window counters CW1 to CW16, and acquires the value of the window movement counter CM (Step S124). Next, the evaluation unit 354 displays the geometric video for the total number of gazing points detected in the area (area A1) where the person video is displayed and the area (area A3) where the geometric video is displayed. The ratio ANS of the number of gazing points detected in the area (area A3) is obtained (step S125). The ratio ANS indicates the ratio of viewing the geometric image out of the person image and the geometric image. The higher the ratio ANS, the higher the possibility of ASD.

なお、ASDの診断支援に用いる評価値は割合ANSに限られるものではない。例えば、人物映像が表示されたエリアで検出された注視点の個数と、幾何学映像が表示されたエリアで検出された注視点の個数との差分に基づく値を評価値として用いてもよい。また、本実施形態では人物映像と幾何学映像とを比較したが、人物映像とキャラクタ映像(動物映像や乗り物映像)との注視点の割合や個数を比較してもよく、またキャラクタ映像と幾何学映像との注視点の割合や個数を比較してもよい。人物映像とキャラクタ映像とを比較した場合、キャラクタ映像を注視する割合が高いほど、ASDの可能性が高く、キャラクタ映像と幾何学映像を比較した場合、幾何学映像を注視する割合が高いほど、ASDの可能性が高い。   The evaluation value used for ASD diagnosis support is not limited to the ratio ANS. For example, a value based on the difference between the number of gazing points detected in the area where the person video is displayed and the number of gazing points detected in the area where the geometric video is displayed may be used as the evaluation value. In the present embodiment, the person image and the geometric image are compared. However, the ratio and the number of gazing points between the person image and the character image (animal image or vehicle image) may be compared, and the character image and the geometric image may be compared. You may compare the ratio and number of points of interest with academic video. When comparing the person image and the character image, the higher the rate of gazing at the character image, the higher the possibility of ASD. When comparing the character image and the geometric image, the higher the rate of gazing at the geometric image, The possibility of ASD is high.

次に、評価部354は、ウィンドウOKフラグFW1〜FW16を取得する(ステップS126)。ウィンドウOKフラグは、対応するウィンドウを1回注視するとフラグが0から1へと変化する。ウィンドウOKフラグFW1〜FW16は、それぞれウィンドウW1〜W16に対応する。評価部354は、ウィンドウOKフラグにより、いずれのウィンドウを見たかを判定する。   Next, the evaluation unit 354 acquires window OK flags FW1 to FW16 (step S126). The window OK flag changes from 0 to 1 when the corresponding window is watched once. Window OK flags FW1 to FW16 correspond to windows W1 to W16, respectively. The evaluation unit 354 determines which window has been viewed based on the window OK flag.

最後に、評価部354は、総合評価を行う(ステップS127)。総合評価処理の詳細は後述する。   Finally, the evaluation unit 354 performs comprehensive evaluation (step S127). Details of the comprehensive evaluation process will be described later.

図7は、図6のウィンドウ移動処理(ステップS119)の一例を示すフローチャートである。まず、視点検出部352は、現在ウィンドウが前回ウィンドウと同一かを判断する(ステップS201)。   FIG. 7 is a flowchart showing an example of the window moving process (step S119) of FIG. First, the viewpoint detection unit 352 determines whether the current window is the same as the previous window (step S201).

上述のように、現在ウィンドウとは、現在または過去の最近の時刻で注視点が検出されたウィンドウである。現時点で注視点が検出され(ステップS107:No)、かつ、各エリア内のいずれかのウィンドウ内で注視点が検出された場合は、現時点で注視点が検出されたウィンドウが現在ウィンドウとなる。一方、現時点で注視点が検出されたが(ステップS107:No)、注視点が各エリア内のいずれかのウィンドウ内に含まれない場合は、現在ウィンドウは更新されない。すなわち、現時点ではない過去の時刻に注視点が検出されたウィンドウが現在ウィンドウとなる。   As described above, the current window is a window in which a gazing point is detected at the current or past recent time. If a gazing point is detected at the current time (step S107: No) and a gazing point is detected in any of the windows in each area, the window in which the gazing point is detected at the current time becomes the current window. On the other hand, if a gazing point is detected at the present time (step S107: No), but the gazing point is not included in any of the windows in each area, the current window is not updated. In other words, the window in which the gazing point is detected at a past time that is not the current time becomes the current window.

前回ウィンドウとは、現在ウィンドウの1つ前に注視点が検出されたウィンドウである。現在ウィンドウおよび前回ウィンドウは、例えば診断支援処理の開始時に初期化しておく。いずれかのウィンドウで最初に注視点を検出した場合は、前回ウィンドウは初期化されているので、前回ウィンドウに現在ウィンドウを代入してウィンドウ移動処理を終了してもよい。   The previous window is a window in which a gazing point is detected immediately before the current window. The current window and the previous window are initialized at the start of the diagnosis support process, for example. When a gazing point is detected for the first time in any of the windows, the previous window has been initialized, so the current window may be substituted for the previous window and the window moving process may be terminated.

現在ウィンドウが前回ウィンドウと同一であった場合(ステップS201:Yes)、視点検出部352は、ウィンドウ移動処理を終了する。同一でなかった場合(ステップS201:No)、視点検出部352は、ウィンドウ移動カウンタCMをインクリメントする(ステップS202)。次に、視点検出部352は、前回ウィンドウに現在ウィンドウを代入する(ステップS203)。このように、注視点がウィンドウ間を移動するごとに、ウィンドウ移動カウンタCMの値が1ずつ加算される。   When the current window is the same as the previous window (step S201: Yes), the viewpoint detection unit 352 ends the window movement process. If they are not the same (step S201: No), the viewpoint detection unit 352 increments the window movement counter CM (step S202). Next, the viewpoint detection unit 352 substitutes the current window for the previous window (step S203). Thus, each time the point of sight moves between windows, the value of the window movement counter CM is incremented by one.

ウィンドウ移動処理は、ウィンドウ間の注視点の移動を確認するための処理である。従って、注視点がウィンドウ以外の場所で検出された場合はウィンドウ間の移動には関係ないので無視する。   The window moving process is a process for confirming the movement of the gazing point between windows. Therefore, if the gazing point is detected at a place other than the window, it is ignored because it is not related to the movement between the windows.

図8は、図6の総合評価処理(ステップS127)の一例を示すフローチャートである。まず、評価部354は、注視点の累積距離が閾値B1より大きいかを判断する(ステップS301)。大きい場合(ステップS301:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。   FIG. 8 is a flowchart showing an example of the comprehensive evaluation process (step S127) of FIG. First, the evaluation unit 354 determines whether the cumulative distance of the gazing point is greater than the threshold value B1 (step S301). If larger (step S301: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ADHD (step S305).

累積距離が閾値B1以下の場合(ステップS301:No)、評価部354は、注視点の平均移動速度が閾値B2より大きいかを判断する(ステップS302)。大きい場合(ステップS302:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。   When the cumulative distance is equal to or less than the threshold B1 (step S301: No), the evaluation unit 354 determines whether the average moving speed of the gazing point is larger than the threshold B2 (step S302). If larger (step S302: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ADHD (step S305).

平均移動速度が閾値B2以下の場合(ステップS302:No)、評価部354は、ウィンドウ移動カウンタCMの値が閾値B3より大きいかを判断する(ステップS303)。大きい場合(ステップS303:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。   When the average moving speed is equal to or less than the threshold B2 (step S302: No), the evaluation unit 354 determines whether the value of the window movement counter CM is larger than the threshold B3 (step S303). If larger (step S303: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ADHD (step S305).

ウィンドウ移動カウンタCMの値が閾値B3以下の場合(ステップS303:No)、評価部354は、ウィンドウOKフラグ=1の数が閾値B4より大きいかを判断する(ステップS304)。大きい場合(ステップS304:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。   When the value of the window movement counter CM is equal to or smaller than the threshold B3 (step S303: No), the evaluation unit 354 determines whether the number of window OK flags = 1 is larger than the threshold B4 (step S304). If larger (step S304: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ADHD (step S305).

ウィンドウOKフラグ=1の数が閾値B4以下の場合(ステップS304:No)、または、ステップS305の後、評価部354は、ASDの評価値である割合ANSが、閾値B5より大きいかを判断する(ステップS306)。大きい場合(ステップS306:Yes)は、評価部354は、ASDの可能性があることを示す評価結果を出力する(ステップS307)。割合ANSが閾値B5以下の場合(ステップS306:No)、または、ステップS307の後、総合評価処理を終了する。   When the number of window OK flags = 1 is equal to or less than the threshold value B4 (step S304: No), or after step S305, the evaluation unit 354 determines whether the ratio ANS that is the evaluation value of ASD is greater than the threshold value B5. (Step S306). If larger (step S306: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ASD (step S307). When the ratio ANS is equal to or less than the threshold B5 (step S306: No), or after step S307, the comprehensive evaluation process is terminated.

なお、図8の総合評価処理は一例でありこれに限られるものではない。上記のように、評価部354が、注視点の位置に基づいて、注視点の移動距離(累積距離など)、注視点の移動速度(平均移動速度など)、エリアで注視点が検出された個数(ウィンドウOKフラグの総数など)、および、エリア間で注視点が移動した回数(ウィンドウ移動カウンタなど)、の少なくとも1つに基づく評価値を算出すればよい。   In addition, the comprehensive evaluation process of FIG. 8 is an example, and is not limited thereto. As described above, based on the position of the gazing point, the evaluation unit 354 moves the gazing point movement distance (cumulative distance, etc.), the gazing point movement speed (average movement speed, etc.), and the number of gazing points detected in the area. An evaluation value based on at least one of (the total number of window OK flags, etc.) and the number of times the gazing point has moved between areas (window movement counter, etc.) may be calculated.

本実施形態では、表示領域を分割したエリアごとに異なる診断画像を表示して評価値を算出できるため、診断の精度を向上することができる。   In the present embodiment, the diagnostic value can be calculated by displaying different diagnostic images for each area obtained by dividing the display area, so that the accuracy of diagnosis can be improved.

図9は、図6の総合評価処理(ステップS127)の他の例を示すフローチャートである。まず、評価部354は、累積距離の平均値AV1に対する注視点の累積距離の割合P1を求める(ステップS401)。評価部354は、平均移動速度の平均値AV2に対する注視点の平均移動速度の割合P2を求める(ステップS402)。評価部354は、CMの値の平均値AV3に対するウィンドウ移動カウンタCMの値の割合P3を求める(ステップS403)。評価部354は、ウィンドウOKフラグ=1の数の平均値AV4に対するウィンドウOKフラグ=1の数の割合P4を求める(ステップS404)。   FIG. 9 is a flowchart showing another example of the comprehensive evaluation process (step S127) of FIG. First, the evaluation unit 354 calculates a ratio P1 of the cumulative distance of the gazing point with respect to the average value AV1 of the cumulative distance (step S401). The evaluation unit 354 calculates a ratio P2 of the average moving speed of the gazing point with respect to the average value AV2 of the average moving speed (step S402). The evaluation unit 354 calculates a ratio P3 of the value of the window movement counter CM with respect to the average value AV3 of the CM values (Step S403). The evaluation unit 354 calculates a ratio P4 of the number of window OK flags = 1 to the average value AV4 of the number of window OK flags = 1 (step S404).

平均値AV1、AV2、AV3、および、AV4は、それぞれ、例えば多数の被験者から算出された累積距離、平均移動速度、ウィンドウ移動カウンタCM、および、ウィンドウOKフラグ=1の数、の平均値を用いる。   For the average values AV1, AV2, AV3, and AV4, for example, average values of cumulative distance, average moving speed, window moving counter CM, and number of window OK flags = 1 calculated from a large number of subjects are used. .

次に、評価部354は、各割合P1〜P4に、重み付け係数(K1〜K4)をそれぞれ乗じた値の総和であるADHDの評価値Eを求める(ステップS405)。次に、評価部354は、ADHDの評価値Eが、閾値B6より大きいかを判断する(ステップS406)。大きい場合(ステップS406:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS407)。   Next, the evaluation unit 354 obtains an ADHD evaluation value E, which is the sum of values obtained by multiplying the ratios P1 to P4 by weighting coefficients (K1 to K4), respectively (step S405). Next, the evaluation unit 354 determines whether the ADHD evaluation value E is greater than the threshold value B6 (step S406). If larger (step S406: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ADHD (step S407).

ADHDの評価値Eが閾値B6以下の場合(ステップS406:No)、または、ステップS407の後、評価部354は、ASDの評価値である割合ANSが、閾値B5より大きいかを判断する(ステップS408)。大きい場合(ステップS408:Yes)、評価部354は、ASDの可能性があることを示す評価結果を出力する(ステップS409)。割合ANSが閾値B5以下の場合(ステップS408:No)、または、ステップS409の後、総合評価処理を終了する。   When the ADHD evaluation value E is equal to or less than the threshold value B6 (step S406: No), or after step S407, the evaluation unit 354 determines whether the ratio ANS that is the evaluation value of ASD is greater than the threshold value B5 (step S407). S408). If larger (step S408: Yes), the evaluation unit 354 outputs an evaluation result indicating that there is a possibility of ASD (step S409). When the ratio ANS is equal to or less than the threshold value B5 (step S408: No), or after step S409, the comprehensive evaluation process is terminated.

図10は、図6のエリアA1処理(ステップS109)の一例を示すフローチャートである。エリアA1処理は、ステップS108の判断により、現在の注視点がエリアA1に存在することが前提となる。   FIG. 10 is a flowchart showing an example of the area A1 process (step S109) in FIG. The area A1 process is based on the premise that the current gazing point exists in the area A1 based on the determination in step S108.

まず、注視点がエリアA1に存在するので、視点検出部352は、エリアカウンタCA1をインクリメントする(ステップS501)。   First, since the gazing point exists in the area A1, the viewpoint detection unit 352 increments the area counter CA1 (step S501).

視点検出部352は、エリアA1内のウィンドウW1内に注視点があるか否かを判断する(ステップS502)。注視点がW1内にない場合(ステップS502:No)、ステップS506に進む。注視点がW1内にある場合(ステップS502:Yes)、ステップS503に進む。ステップS503では、視点検出部352は、ウィンドウカウンタCW1をインクリメントし、現在ウィンドウをW1に設定する(ステップS503)。   The viewpoint detection unit 352 determines whether or not there is a gazing point in the window W1 in the area A1 (step S502). When the gazing point is not in W1 (step S502: No), the process proceeds to step S506. When the gazing point is in W1 (step S502: Yes), the process proceeds to step S503. In step S503, the viewpoint detection unit 352 increments the window counter CW1 and sets the current window to W1 (step S503).

次に、視点検出部352は、ウィンドウOKフラグFW1が0か否かを判断する(ステップS504)。FW1=0の場合(ステップS504:Yes)、視点検出部352は、FW1=1を設定してエリアA1処理を終了する(ステップS505)。既にFW1=1の場合(ステップS504:No)、エリアA1処理を終了する。   Next, the viewpoint detection unit 352 determines whether or not the window OK flag FW1 is 0 (step S504). When FW1 = 0 (step S504: Yes), the viewpoint detection unit 352 sets FW1 = 1 and ends the area A1 process (step S505). If FW1 = 1 already (step S504: No), the area A1 process is terminated.

ステップS506では、視点検出部352は、エリアA1内のウィンドウW2内に注視点があるか否かを判断する(ステップS506)。注視点がW2内にない場合(ステップS506:No)、ステップS510に進む。注視点がW2内にある場合(ステップS506:Yes)、ステップS507に進む。ステップS507では、視点検出部352は、ウィンドウカウンタCW2をインクリメントし、現在ウィンドウをW2に設定する(ステップS507)。   In step S506, the viewpoint detection unit 352 determines whether or not there is a gazing point in the window W2 in the area A1 (step S506). When the gazing point is not in W2 (step S506: No), the process proceeds to step S510. If the gazing point is within W2 (step S506: Yes), the process proceeds to step S507. In step S507, the viewpoint detection unit 352 increments the window counter CW2 and sets the current window to W2 (step S507).

次に、視点検出部352は、ウィンドウOKフラグFW2が0か否かを判断する(ステップS508)。FW2=0の場合(ステップS508:Yes)、視点検出部352は、FW2=1を設定してエリアA1処理を終了する(ステップS509)。既にFW2=1の場合(ステップS508:No)、エリアA1処理を終了する。   Next, the viewpoint detection unit 352 determines whether or not the window OK flag FW2 is 0 (step S508). When FW2 = 0 (step S508: Yes), the viewpoint detection unit 352 sets FW2 = 1 and ends the area A1 process (step S509). If FW2 = 1 already (step S508: No), the area A1 process is terminated.

ステップS510では、視点検出部352は、エリアA1内のウィンドウW3内に注視点があるか否かを判断する(ステップS510)。注視点がW3内にない場合(ステップS510:No)、ステップS514に進む。注視点がW3内にある場合(ステップS510:Yes)、ステップS511に進む。ステップS511では、視点検出部352は、ウィンドウカウンタCW3をインクリメントし、現在ウィンドウをW3に設定する(ステップS511)。   In step S510, the viewpoint detection unit 352 determines whether or not there is a gazing point in the window W3 in the area A1 (step S510). When the gazing point is not in W3 (step S510: No), the process proceeds to step S514. When the gazing point is in W3 (step S510: Yes), the process proceeds to step S511. In step S511, the viewpoint detection unit 352 increments the window counter CW3 and sets the current window to W3 (step S511).

次に、視点検出部352は、ウィンドウOKフラグFW3が0か否かを判断する(ステップS512)。FW3=0の場合(ステップS512:Yes)、視点検出部352は、FW3=1を設定してエリアA1処理を終了する(ステップS513)。既にFW3=1の場合(ステップS512:No)、エリアA1処理を終了する。   Next, the viewpoint detection unit 352 determines whether or not the window OK flag FW3 is 0 (step S512). When FW3 = 0 (step S512: Yes), the viewpoint detection unit 352 sets FW3 = 1 and ends the area A1 process (step S513). If FW3 = 1 already (step S512: No), the area A1 process is terminated.

ステップS514では、視点検出部352は、エリアA1内のウィンドウW4内に注視点があるか否かを判断する(ステップS514)。注視点がW4内にない場合(ステップS514:No)、エリアA1処理を終了する。注視点がW4内にある場合(ステップS514:Yes)、ステップS515に進む。ステップS515では、視点検出部352は、ウィンドウカウンタCW4をインクリメントし、現在ウィンドウをW4に設定する(ステップS515)。   In step S514, the viewpoint detection unit 352 determines whether or not there is a gazing point in the window W4 in the area A1 (step S514). When the gazing point is not in W4 (step S514: No), the area A1 process is terminated. When the gazing point is in W4 (step S514: Yes), the process proceeds to step S515. In step S515, the viewpoint detection unit 352 increments the window counter CW4 and sets the current window to W4 (step S515).

次に、視点検出部352は、ウィンドウOKフラグFW4が0か否かを判断する(ステップS516)。FW4=0の場合(ステップS516:Yes)、FW4=1を設定してエリアA1処理を終了する(ステップS517)。既にFW4=1の場合(ステップS516:No)、エリアA1処理を終了する。   Next, the viewpoint detection unit 352 determines whether or not the window OK flag FW4 is 0 (step S516). When FW4 = 0 (step S516: Yes), FW4 = 1 is set and the area A1 process is terminated (step S517). If FW4 = 1 already (step S516: No), the area A1 process is terminated.

エリアA2処理(ステップS111)、エリアA3処理(ステップS113)、および、エリアA4処理(ステップS115)も、図10のエリアA1処理と同様である。   The area A2 process (step S111), the area A3 process (step S113), and the area A4 process (step S115) are the same as the area A1 process of FIG.

図10のフローチャートは一例であり、エリア内に注視点が存在するか(エリアカウンタCA1〜CA4など)、ウィンドウ内に注視点が存在するか(ウィンドウカウンタCW1〜CW16など)などを判定できる方法であればどのような方法を適用してもよい。また、エリアをウィンドウに分割せず、各エリアにそれぞれ1つの診断画像を表示する構成の場合は、ウィンドウに対する処理をエリアに対する処理に置き換えることにより、上記と同様の機能を実現できる。   The flowchart of FIG. 10 is an example, and it is a method that can determine whether a gazing point exists in an area (area counters CA1 to CA4, etc.), whether a gazing point exists in a window (window counters CW1-CW16, etc.), and the like. Any method may be applied as long as it is present. Also, in the case of a configuration in which one diagnostic image is displayed in each area without dividing the area into windows, the same function as described above can be realized by replacing the processing for the window with the processing for the area.

以上のように、第1の実施形態によれば、例えば以下のような効果が得られる。
(1)精度に問題があった従来装置に対して高精度である。
(2)専用メガネが不要であり、乳幼児でも使用できる。
(3)ADHDだけでなく同時にASDの診断支援も可能である。
As described above, according to the first embodiment, for example, the following effects can be obtained.
(1) Higher accuracy than conventional devices that have problems with accuracy.
(2) Special glasses are not required and can be used by infants.
(3) It is possible to support not only ADHD but also ASD diagnosis at the same time.

(第2の実施形態)
第2の実施形態では、第1の実施形態よりも一層、装置構成を簡略化できる視線検出装置および視線検出方法を実現する。
(Second Embodiment)
In the second embodiment, a line-of-sight detection device and a line-of-sight detection method capable of further simplifying the apparatus configuration are realized as compared with the first embodiment.

以下に、第2の実施形態の視線検出装置および視線検出方法を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。   Hereinafter, the line-of-sight detection device and the line-of-sight detection method of the second embodiment will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In the following, an example in which the line-of-sight detection apparatus is used as a diagnosis support apparatus that supports diagnosis of developmental disabilities using the line-of-sight detection result will be described. Applicable devices are not limited to diagnosis support devices.

本実施形態の視線検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。   The line-of-sight detection apparatus (diagnosis support apparatus) of the present embodiment detects the line of sight using an illumination unit installed at one place. In addition, the line-of-sight detection device (diagnosis support device) of the present embodiment calculates the corneal curvature center position with high accuracy by using a result obtained by gazing at one point on the subject before the line-of-sight detection.

なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。   In addition, an illumination part is an element which can irradiate light to a test subject's eyeball including a light source. The light source is an element that generates light, such as an LED (Light Emitting Diode). A light source may be comprised from one LED, and may be comprised by combining several LED and arrange | positioning in one place. Hereinafter, the “light source” may be used as a term representing the illumination unit in this way.

図11および12は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。なお、第1の実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。   FIGS. 11 and 12 are diagrams illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject of the second embodiment. In addition, about the structure similar to 1st Embodiment, the same code | symbol may be attached | subjected and description may be abbreviate | omitted.

図11に示すように、第2の実施形態の診断支援装置は、表示部210と、ステレオカメラ2102と、LED光源2103と、を含む。ステレオカメラ2102は、表示部210の下に配置される。LED光源2103は、ステレオカメラ2102に含まれる2つのカメラの中心位置に配置される。LED光源2103は、例えば波長850nmの近赤外線を照射する光源である。図11では、9個のLEDによりLED光源2103(照明部)を構成する例が示されている。なお、ステレオカメラ2102は、波長850nmの近赤外光を透過できるレンズを使用する。   As illustrated in FIG. 11, the diagnosis support apparatus according to the second embodiment includes a display unit 210, a stereo camera 2102, and an LED light source 2103. The stereo camera 2102 is disposed below the display unit 210. The LED light source 2103 is arranged at the center position of two cameras included in the stereo camera 2102. The LED light source 2103 is a light source that irradiates near infrared rays having a wavelength of 850 nm, for example. FIG. 11 shows an example in which an LED light source 2103 (illumination unit) is configured by nine LEDs. Note that the stereo camera 2102 uses a lens that can transmit near-infrared light having a wavelength of 850 nm.

図12に示すように、ステレオカメラ2102は、右カメラ2202と左カメラ2203とを備えている。LED光源2103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ2102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ2202、左カメラ2203)それぞれで取得することができる。   As shown in FIG. 12, the stereo camera 2102 includes a right camera 2202 and a left camera 2203. The LED light source 2103 irradiates near-infrared light toward the eyeball 111 of the subject. In the image acquired by the stereo camera 2102, the pupil 112 is reflected and darkened with low brightness, and the corneal reflection 113 generated as a virtual image in the eyeball 111 is reflected and brightened with high brightness. Accordingly, the positions of the pupil 112 and the corneal reflection 113 on the image can be acquired by each of the two cameras (the right camera 2202 and the left camera 2203).

さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示画面101の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   Further, the three-dimensional world coordinate values of the positions of the pupil 112 and the corneal reflection 113 are calculated from the positions of the pupil 112 and the corneal reflection 113 obtained by the two cameras. In the present embodiment, as the three-dimensional world coordinates, with the center position of the display screen 101 as the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +).

図13は、第2の実施形態の診断支援装置2100の機能の概要を示す図である。図13では、図11および12に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図13に示すように、診断支援装置2100は、右カメラ2202と、左カメラ2203と、LED光源2103と、スピーカ105と、駆動・IF(interface)部208と、制御部2300と、記憶部150と、表示部210と、を含む。図13において、表示画面101は、右カメラ2202および左カメラ2203との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。   FIG. 13 is a diagram illustrating an outline of functions of the diagnosis support apparatus 2100 according to the second embodiment. FIG. 13 shows a part of the configuration shown in FIGS. 11 and 12 and a configuration used for driving the configuration. As illustrated in FIG. 13, the diagnosis support apparatus 2100 includes a right camera 2202, a left camera 2203, an LED light source 2103, a speaker 105, a drive / IF (interface) unit 208, a control unit 2300, and a storage unit 150. And a display unit 210. In FIG. 13, the display screen 101 shows the positional relationship between the right camera 2202 and the left camera 2203 in an easy-to-understand manner, but the display screen 101 is a screen displayed on the display unit 210. The drive unit and the IF unit may be integrated or separate.

スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。   The speaker 105 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.

駆動・IF部208は、ステレオカメラ2102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ2102に含まれる各部と、制御部2300とのインタフェースとなる。   The drive / IF unit 208 drives each unit included in the stereo camera 2102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 2102 and the control unit 2300.

制御部2300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。   The control unit 2300 is a communication I / F that communicates with a control device such as a CPU (Central Processing Unit) and a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory) by connecting to a network. And a computer equipped with a bus for connecting each unit.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。   The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. The storage unit 150 stores, for example, an image to be displayed on the display unit 210. The display unit 210 displays various information such as a target image for diagnosis.

図14は、図13に示す各部の詳細な機能の一例を示すブロック図である。図14に示すように、制御部2300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 14 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 13. As shown in FIG. 14, a display unit 210 and a drive / IF unit 208 are connected to the control unit 2300. The drive / IF unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2202、左カメラ2203が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。   A right camera 2202 and a left camera 2203 are connected to the drive / IF unit 208 via camera IFs 314 and 315, respectively. The driving / IF unit 208 drives these cameras to image the subject.

スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置2100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置2100の内部に備えるように構成してもよい。   The speaker driving unit 322 drives the speaker 105. The diagnosis support apparatus 2100 may include an interface (printer IF) for connecting to a printer as a printing unit. Further, the printer may be provided inside the diagnosis support apparatus 2100.

制御部2300は、診断支援装置2100全体を制御する。制御部2300は、第1算出部2351と、第2算出部2352と、第3算出部2353と、視線検出部2354と、視点検出部2355と、出力制御部2356と、評価部2357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部2351、第2算出部2352、第3算出部2353、および、視線検出部2354が備えられていればよい。   The control unit 2300 controls the entire diagnosis support apparatus 2100. The control unit 2300 includes a first calculation unit 2351, a second calculation unit 2352, a third calculation unit 2353, a gaze detection unit 2354, a viewpoint detection unit 2355, an output control unit 2356, and an evaluation unit 2357. I have. Note that the line-of-sight detection device may include at least the first calculation unit 2351, the second calculation unit 2352, the third calculation unit 2353, and the line-of-sight detection unit 2354.

制御部2300に含まれる各要素(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354、視点検出部2355、出力制御部2356、および、評価部2357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。   Each element included in the control unit 2300 (the first calculation unit 2351, the second calculation unit 2352, the third calculation unit 2353, the line-of-sight detection unit 2354, the viewpoint detection unit 2355, the output control unit 2356, and the evaluation unit 2357) It may be realized by software (program), may be realized by a hardware circuit, or may be realized by using software and a hardware circuit in combination.

プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   When implemented by a program, the program is a file in an installable or executable format, such as a CD-ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R (Compact Disk Recordable), a DVD ( Digital Versatile Disk) is recorded on a computer-readable recording medium and provided as a computer program product. The program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program may be provided or distributed via a network such as the Internet. The program may be provided by being incorporated in advance in a ROM or the like.

第1算出部2351は、ステレオカメラ2102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部2352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。   The first calculation unit 2351 calculates the position of the pupil center (first position) indicating the center of the pupil from the eyeball image captured by the stereo camera 2102. The second calculator 2352 calculates the position of the corneal reflection center (second position) indicating the center of corneal reflection from the captured image of the eyeball.

第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線と、から角膜曲率中心(第3位置)を算出する。例えば、第3算出部2353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。   The third calculator 2353 calculates the corneal curvature center (third position) from the straight line connecting the LED light source 2103 and the corneal reflection center. For example, the third calculation unit 2353 calculates a position on the straight line where the distance from the corneal reflection center is a predetermined value as the corneal curvature center. As the predetermined value, a value determined in advance from a general radius of curvature of the cornea or the like can be used.

角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部2353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部2353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心とLED光源2103とを結ぶ直線と、の交点(第4位置)を算出する。そして第3算出部2353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。   Since there may be individual differences in the radius of curvature of the cornea, there is a possibility that an error will increase if the center of corneal curvature is calculated using a predetermined value. Therefore, the third calculation unit 2353 may calculate the corneal curvature center in consideration of individual differences. In this case, the third calculation unit 2353 uses the pupil center and the corneal reflection center calculated when the target position is first watched by the subject, the straight line connecting the pupil center and the target position, the corneal reflection center, and the LED. The intersection (fourth position) of the straight line connecting the light source 2103 is calculated. Then, the third calculation unit 2353 calculates a distance (first distance) between the pupil center and the calculated intersection, and stores it in the storage unit 150, for example.

目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面101の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部2356が、表示画面101上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。   The target position may be a position that is determined in advance and can calculate a three-dimensional world coordinate value. For example, the center position of the display screen 101 (the origin of the three-dimensional world coordinates) can be set as the target position. In this case, for example, the output control unit 2356 displays an image (target image) or the like that causes the subject to gaze at the target position (center) on the display screen 101. Thereby, a test subject can be made to gaze at a target position.

目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。   The target image may be any image as long as it can attract the attention of the subject. For example, an image in which a display mode such as luminance or color changes, an image in which the display mode is different from other regions, or the like can be used as the target image.

なお、目標位置は表示画面101の中央に限られるものではなく、任意の位置でよい。表示画面101の中央を目標位置とすれば、表示画面101の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。   The target position is not limited to the center of the display screen 101, and may be an arbitrary position. If the center of the display screen 101 is set as the target position, the distance from an arbitrary end of the display screen 101 is minimized. For this reason, it becomes possible to make the measurement error at the time of gaze detection smaller, for example.

距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。   The processing up to the calculation of the distance is executed in advance, for example, before the actual gaze detection is started. At the time of actual line-of-sight detection, the third calculation unit 2353 calculates, on the straight line connecting the LED light source 2103 and the corneal reflection center, a position where the distance from the pupil center is a previously calculated distance as the corneal curvature center. .

視線検出部2354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部2354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。   The line-of-sight detection unit 2354 detects the line of sight of the subject from the pupil center and the corneal curvature center. For example, the gaze detection unit 2354 detects the direction from the corneal curvature center to the pupil center as the gaze direction of the subject.

視点検出部2355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部2355は、例えば、表示画面101で被験者が注視する点である視点(注視点)を検出する。視点検出部2355は、例えば図12のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。   The viewpoint detection unit 2355 detects the viewpoint of the subject using the detected gaze direction. The viewpoint detection unit 2355 detects, for example, a viewpoint (gaze point) that is a point on the display screen 101 where the subject gazes. The viewpoint detection unit 2355 detects, for example, the intersection of the line-of-sight vector represented in the three-dimensional world coordinate system as shown in FIG. 12 and the XY plane as the gaze point of the subject.

出力制御部2356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部2356は、表示部210上の目標位置に目標画像を出力させる。また、出力制御部2356は、診断画像、および、評価部2357による評価結果などの表示部210に対する出力を制御する。   The output control unit 2356 controls output of various information to the display unit 210, the speaker 105, and the like. For example, the output control unit 2356 outputs the target image at the target position on the display unit 210. Further, the output control unit 2356 controls the output to the display unit 210 such as the diagnostic image and the evaluation result by the evaluation unit 2357.

診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。   The diagnostic image may be an image corresponding to the evaluation process based on the line-of-sight (viewpoint) detection result. For example, in the case of diagnosing a developmental disorder, a diagnostic image including an image (such as a geometric pattern image) preferred by a subject with a developmental disorder and other images (such as a person image) may be used.

評価部2357は、診断画像と、視点検出部2355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部2357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。   The evaluation unit 2357 performs an evaluation process based on the diagnostic image and the gazing point detected by the viewpoint detection unit 2355. For example, in the case of diagnosing a developmental disorder, the evaluation unit 2357 analyzes the diagnostic image and the gazing point, and evaluates whether or not the image preferred by the subject with the developmental disorder has been gazed.

出力制御部2356が第1の実施形態と同様の診断画像を表示し、評価部2357が第1の実施形態の評価部354と同様の評価処理を行ってもよい。言い換えると、第1の実施形態の視線検出処理(視線検出部351)を、第2の実施形態の視線検出処理(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354)で置き換えてもよい。これにより、第1の実施形態の効果に加えて、第2の実施形態の効果(装置構成の簡略化など)を達成可能となる。   The output control unit 2356 may display the same diagnostic image as that of the first embodiment, and the evaluation unit 2357 may perform the same evaluation process as that of the evaluation unit 354 of the first embodiment. In other words, the gaze detection process (gaze detection unit 351) of the first embodiment is replaced with the gaze detection process (first calculation unit 2351, second calculation unit 2352, third calculation unit 2353, gaze detection of the second embodiment. Part 2354). Thereby, in addition to the effect of 1st Embodiment, the effect (simplification of an apparatus structure etc.) of 2nd Embodiment can be achieved.

図15は、本実施形態の診断支援装置2100により実行される処理の概要を説明する図である。図11〜図14で説明した要素については同一の符号を付し説明を省略する。   FIG. 15 is a diagram illustrating an outline of processing executed by the diagnosis support apparatus 2100 of this embodiment. The elements described in FIGS. 11 to 14 are denoted by the same reference numerals and description thereof is omitted.

瞳孔中心407および角膜反射中心408は、それぞれ、LED光源2103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。   The pupil center 407 and the corneal reflection center 408 represent the center of the pupil and the center of the corneal reflection point detected when the LED light source 2103 is turned on, respectively. The corneal curvature radius 409 represents the distance from the corneal surface to the corneal curvature center 410.

図16は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。図11〜図14で説明した要素については同一の符号を付し説明を省略する。   FIG. 16 is an explanatory diagram showing a difference between a method using two light sources (illumination units) (hereinafter referred to as method A) and the present embodiment using one light source (illumination unit). The elements described in FIGS. 11 to 14 are denoted by the same reference numerals and description thereof is omitted.

方法Aは、LED光源2103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。   Method A uses two LED light sources 511 and 512 instead of the LED light source 2103. In the method A, a straight line 515 connecting the cornea reflection center 513 and the LED light source 511 when the LED light source 511 is irradiated, and a straight line 516 connecting the cornea reflection center 514 and the LED light source 512 when the LED light source 512 is irradiated. An intersection is calculated. This intersection is the corneal curvature center 505.

これに対し、本実施形態では、LED光源2103を照射したときの、角膜反射中心522とLED光源2103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源2103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。   In contrast, in the present embodiment, a straight line 523 connecting the corneal reflection center 522 and the LED light source 2103 when the LED light source 2103 is irradiated is considered. A straight line 523 passes through the corneal curvature center 505. It is also known that the radius of curvature of the cornea is almost constant with little influence from individual differences. Thus, the corneal curvature center when the LED light source 2103 is irradiated exists on the straight line 523 and can be calculated by using a general curvature radius value.

しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。   However, if the viewpoint is calculated using the position of the center of corneal curvature calculated using a general radius of curvature, the viewpoint position may deviate from the original position due to individual differences in the eyeballs, and accurate viewpoint position detection cannot be performed. There is.

図17は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図11〜図14で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。   FIG. 17 is a diagram for explaining calculation processing for calculating the corneal curvature center position and the distance between the pupil center position and the corneal curvature center position before performing viewpoint detection (line-of-sight detection). The elements described in FIGS. 11 to 14 are denoted by the same reference numerals and description thereof is omitted. The connection between the left and right cameras (the right camera 2202 and the left camera 2203) and the control unit 2300 is not shown and is omitted.

目標位置605は、表示部210上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示画面101の中央位置としている。直線613は、LED光源2103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部2353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。   The target position 605 is a position for displaying a target image or the like at one point on the display unit 210 and causing the subject to stare. In this embodiment, the center position of the display screen 101 is set. A straight line 613 is a straight line connecting the LED light source 2103 and the corneal reflection center 612. A straight line 614 is a straight line connecting the target position 605 (gaze point) that the subject looks at and the pupil center 611. A corneal curvature center 615 is an intersection of the straight line 613 and the straight line 614. The third calculation unit 2353 calculates and stores the distance 616 between the pupil center 611 and the corneal curvature center 615.

図18は、本実施形態の算出処理の一例を示すフローチャートである。   FIG. 18 is a flowchart illustrating an example of calculation processing according to the present embodiment.

まず出力制御部2356は、表示画面101上の1点に目標画像を再生し(ステップS601)、被験者にその1点を注視させる。次に、制御部2300は、LED駆動制御部316を用いてLED光源2103を被験者の目に向けて点灯させる(ステップS602)。制御部2300は、左右カメラ(右カメラ2202、左カメラ2203)で被験者の目を撮像する(ステップS603)。   First, the output control unit 2356 reproduces the target image at one point on the display screen 101 (step S601), and causes the subject to gaze at the one point. Next, the control unit 2300 turns on the LED light source 2103 toward the eyes of the subject using the LED drive control unit 316 (step S602). The control unit 2300 images the eyes of the subject with the left and right cameras (the right camera 2202 and the left camera 2203) (step S603).

LED光源2103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部2351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。また、第2算出部2352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部2351および第2算出部2352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS604)。   The pupil part is detected as a dark part (dark pupil) by irradiation of the LED light source 2103. Further, a corneal reflection virtual image is generated as a reflection of LED irradiation, and a corneal reflection point (corneal reflection center) is detected as a bright portion. That is, the first calculation unit 2351 detects a pupil portion from the captured image, and calculates coordinates indicating the position of the pupil center. In addition, the second calculation unit 2352 detects a corneal reflection portion from the captured image, and calculates coordinates indicating the position of the corneal reflection center. The first calculation unit 2351 and the second calculation unit 2352 calculate each coordinate value for each of two images acquired by the left and right cameras (step S604).

なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。   Note that the left and right cameras are pre-calibrated with a stereo calibration method to obtain three-dimensional world coordinates, and conversion parameters are calculated. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied.

第1算出部2351および第2算出部2352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS605)。第3算出部2353は、求めた角膜反射中心の世界座標と、LED光源2103の中心位置の世界座標とを結ぶ直線を求める(ステップS606)。次に、第3算出部2353は、表示画面101の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS607)。第3算出部2353は、ステップS606で算出した直線とステップS607で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS608)。第3算出部2353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS609)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。   The first calculation unit 2351 and the second calculation unit 2352 use the conversion parameters to convert the coordinates of the left and right cameras into the three-dimensional world coordinates of the pupil center and the corneal reflection center (step S605). The third calculation unit 2353 obtains a straight line connecting the obtained world coordinates of the corneal reflection center and the world coordinates of the center position of the LED light source 2103 (step S606). Next, the third calculation unit 2353 calculates a straight line connecting the world coordinates of the center of the target image displayed at one point on the display screen 101 and the world coordinates of the pupil center (step S607). The 3rd calculation part 2353 calculates | requires the intersection of the straight line calculated by step S606, and the straight line calculated by step S607, and makes this intersection a cornea curvature center (step S608). The third calculation unit 2353 calculates the distance between the pupil center and the corneal curvature center at this time and stores it in the storage unit 150 or the like (step S609). The stored distance is used to calculate the corneal curvature center at the time of subsequent detection of the viewpoint (line of sight).

算出処理で表示部210上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部210内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。   The distance between the pupil center and the corneal curvature center when looking at one point on the display unit 210 in the calculation process is kept constant within a range in which the viewpoint in the display unit 210 is detected. The distance between the center of the pupil and the center of corneal curvature may be obtained from the average of all the values calculated during playback of the target image, or from the average of several values of the values calculated during playback. You may ask for it.

図19は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。   FIG. 19 is a diagram illustrating a method of calculating the corrected position of the corneal curvature center using the distance between the pupil center and the corneal curvature center that is obtained in advance when performing viewpoint detection. A gazing point 805 represents a gazing point obtained from a corneal curvature center calculated using a general curvature radius value. A gazing point 806 represents a gazing point obtained from a corneal curvature center calculated using a distance obtained in advance.

瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源2103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示画面101上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。   The pupil center 811 and the corneal reflection center 812 indicate the position of the pupil center and the position of the corneal reflection center calculated at the time of viewpoint detection, respectively. A straight line 813 is a straight line connecting the LED light source 2103 and the corneal reflection center 812. The corneal curvature center 814 is the position of the corneal curvature center calculated from a general curvature radius value. The distance 815 is the distance between the pupil center and the corneal curvature center calculated by the prior calculation process. The corneal curvature center 816 is the position of the corneal curvature center calculated using the distance obtained in advance. The corneal curvature center 816 is obtained from the fact that the corneal curvature center exists on the straight line 813 and the distance between the pupil center and the corneal curvature center is the distance 815. Thus, the line of sight 817 calculated when a general radius of curvature value is used is corrected to the line of sight 818. Also, the gazing point on the display screen 101 is corrected from the gazing point 805 to the gazing point 806. The connection between the left and right cameras (the right camera 2202 and the left camera 2203) and the control unit 2300 is not shown and is omitted.

図20は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図20の視線検出処理を実行することができる。診断処理では、図20の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部2357による評価処理などが実行される。   FIG. 20 is a flowchart illustrating an example of a line-of-sight detection process according to the present embodiment. For example, the line-of-sight detection process of FIG. 20 can be executed as the process of detecting the line of sight in the diagnostic process using the diagnostic image. In the diagnostic process, in addition to the steps in FIG. 20, a process of displaying a diagnostic image, an evaluation process by the evaluation unit 2357 using the detection result of the gazing point, and the like are executed.

ステップS701〜ステップS705は、図18のステップS602〜ステップS606と同様であるため説明を省略する。   Steps S701 to S705 are the same as steps S602 to S606 in FIG.

第3算出部2353は、ステップS705で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS706)。   The third calculation unit 2353 calculates, as the corneal curvature center, a position on the straight line calculated in step S705 and whose distance from the pupil center is equal to the distance obtained by the previous calculation process (step S706).

視線検出部2354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS707)。このベクトルが、被験者が見ている視線方向を示している。視点検出部2355は、この視線方向と表示画面101との交点の三次元世界座標値を算出する(ステップS708)。この値が、被験者が注視する表示部210上の1点を世界座標で表した座標値である。視点検出部2355は、求めた三次元世界座標値を、表示部210の二次元座標系で表される座標値(x,y)に変換する(ステップS709)。これにより、被験者が見つめる表示部210上の視点(注視点)を算出することができる。   The line-of-sight detection unit 2354 obtains a vector (line-of-sight vector) connecting the pupil center and the corneal curvature center (step S707). This vector indicates the line-of-sight direction viewed by the subject. The viewpoint detection unit 2355 calculates the three-dimensional world coordinate value of the intersection between the line-of-sight direction and the display screen 101 (step S708). This value is a coordinate value representing one point on the display unit 210 that the subject gazes in world coordinates. The viewpoint detection unit 2355 converts the obtained three-dimensional world coordinate value into a coordinate value (x, y) represented in the two-dimensional coordinate system of the display unit 210 (step S709). Thereby, the viewpoint (gaze point) on the display part 210 which a test subject looks at can be calculated.

以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(2)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) It is not necessary to arrange light sources (illuminating units) at two places, and it becomes possible to perform line-of-sight detection with the light sources arranged at one place.
(2) Since the number of light sources is one, the apparatus can be made compact and the cost can be reduced.

100、2100 診断支援装置
101 表示画面
102、2101 ステレオカメラ
105 スピーカ
150 記憶部
202、2202 右カメラ
203 赤外LED光源
204、2203 左カメラ
205 赤外LED光源
208 駆動・IF部
210 表示部
300、2300 制御部
351、2354 視線検出部
352、2355 視点検出部
353、2356 出力制御部
354、2357 評価部
2351 第1算出部
2352 第2算出部
2353 第3算出部
100, 2100 Diagnosis support device 101 Display screen 102, 2101 Stereo camera 105 Speaker 150 Storage unit 202, 2202 Right camera 203 Infrared LED light source 204, 2203 Left camera 205 Infrared LED light source 208 Drive / IF unit 210 Display unit 300, 2300 Control unit 351, 2354 Gaze detection unit 352, 2355 View point detection unit 353, 2356 Output control unit 354, 2357 Evaluation unit 2351 First calculation unit 2352 Second calculation unit 2353 Third calculation unit

Claims (7)

表示部と、
被験者を撮像する撮像部と、
前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
前記表示部の表示領域を分割した複数の分割領域における前記被験者の視点を、前記視線方向に基づいて検出する視点検出部と、
人物画像と、模様画像と、キャラクタ画像と、のうち少なくとも2つを、複数の前記分割領域のうち相互に異なる前記分割領域に、それぞれ診断画像として表示させる出力制御部と、
前記診断画像が表示されたときに前記視点検出部により検出された前記視点に基づいて前記被験者の評価値を算出する評価部と、
を備えることを特徴とする診断支援装置。
A display unit;
An imaging unit for imaging a subject;
From a captured image captured by the imaging unit, a gaze detection unit that detects the gaze direction of the subject,
A viewpoint detection unit that detects the viewpoint of the subject in a plurality of divided areas obtained by dividing the display area of the display unit based on the line-of-sight direction;
An output control unit that displays at least two of a person image, a pattern image, and a character image as diagnostic images in different divided areas among the divided areas;
An evaluation unit that calculates an evaluation value of the subject based on the viewpoint detected by the viewpoint detection unit when the diagnostic image is displayed;
A diagnostic support apparatus comprising:
前記評価部は、所定期間内の前記視点の移動距離、前記所定期間内の前記視点の移動速度、前記所定期間内に前記分割領域で前記視点が検出された個数、および、前記所定期間内に複数の前記分割領域間で前記視点が移動した回数、の少なくとも1つに基づく前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
The evaluation unit includes a movement distance of the viewpoint within a predetermined period, a movement speed of the viewpoint within the predetermined period, a number of the viewpoints detected in the divided areas within the predetermined period, and a predetermined period. Calculating the evaluation value based on at least one of the number of times the viewpoint has moved between the plurality of divided regions;
The diagnosis support apparatus according to claim 1.
前記分割領域は、複数の部分領域を含み、
前記評価部は、前記所定期間内に前記部分領域で前記視点が検出された個数、および、前記所定期間内に複数の前記部分領域間で前記視点が移動した回数、の少なくとも1つに基づく前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
The divided region includes a plurality of partial regions,
The evaluation unit is based on at least one of the number of the viewpoints detected in the partial area within the predetermined period and the number of times the viewpoint has moved between the plurality of partial areas within the predetermined period. Calculating an evaluation value,
The diagnosis support apparatus according to claim 1.
前記評価部は、前記模様画像を含む分割領域で前記視点が検出された時間と、前記模様画像を含む分割領域以外で前記視点が検出された時間と、に基づく前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
The evaluation unit calculates the evaluation value based on a time when the viewpoint is detected in a divided region including the pattern image and a time when the viewpoint is detected in a region other than the divided region including the pattern image;
The diagnosis support apparatus according to claim 1.
前記出力制御部は、第1期間と第2期間とで、前記診断画像を表示する前記分割領域を変更し、
前記評価部は、前記第1期間に算出された第1評価値と、前記第2期間に算出された第2評価値とに基づいて、前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
The output control unit changes the divided area for displaying the diagnostic image in the first period and the second period,
The evaluation unit calculates the evaluation value based on a first evaluation value calculated in the first period and a second evaluation value calculated in the second period;
The diagnosis support apparatus according to claim 1.
光を照射する光源を含む照明部と、
前記照明部によって光が照射され、前記撮像部によって撮像された被験者の眼球の画像から瞳孔の中心を示す第1位置を算出する第1算出部と、
撮像された前記眼球の画像から角膜反射の中心を示す第2位置を算出する第2算出部と、
前記光源と前記第2位置とを結ぶ直線に基づいて、角膜曲率中心を示す第3位置を算出する第3算出部と、をさらに備え、
前記視線検出部は、前記第1位置と前記第3位置に基づいて前記被験者の視線を検出すること、
を特徴とする請求項1に記載の診断支援装置。
An illumination unit including a light source that emits light;
A first calculation unit that calculates a first position indicating the center of the pupil from an image of the eyeball of the subject that is illuminated by the illumination unit and imaged by the imaging unit;
A second calculation unit that calculates a second position indicating the center of corneal reflection from the captured image of the eyeball;
A third calculator that calculates a third position indicating a corneal curvature center based on a straight line connecting the light source and the second position;
The line-of-sight detection unit detects the line of sight of the subject based on the first position and the third position;
The diagnosis support apparatus according to claim 1.
被験者を撮像する撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出ステップと、
表示部の表示領域を分割した複数の分割領域における前記被験者の視点を、前記視線方向に基づいて検出する視点検出ステップと、
人物画像と、模様画像と、キャラクタ画像と、のうち少なくとも2つを、複数の前記分割領域のうち相互に異なる前記分割領域に、それぞれ診断画像として表示させる出力制御ステップと、
前記診断画像が表示されたときに前記視点検出ステップにより検出された前記視点に基づいて前記被験者の評価値を算出する評価ステップと、
を含む診断支援方法。
A line-of-sight detection step for detecting a line-of-sight direction of the subject from a captured image captured by an imaging unit that images the subject,
A viewpoint detection step of detecting the viewpoint of the subject in a plurality of divided areas obtained by dividing the display area of the display unit based on the line-of-sight direction;
An output control step of displaying at least two of a person image, a pattern image, and a character image as diagnostic images in different divided areas among the divided areas;
An evaluation step of calculating an evaluation value of the subject based on the viewpoint detected by the viewpoint detection step when the diagnostic image is displayed;
A diagnostic support method including:
JP2014035948A 2013-06-28 2014-02-26 Diagnosis support apparatus and diagnosis support method Active JP6142822B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014035948A JP6142822B2 (en) 2013-07-29 2014-02-26 Diagnosis support apparatus and diagnosis support method
PCT/JP2014/067289 WO2014208761A1 (en) 2013-06-28 2014-06-27 Diagnosis assistance device and diagnosis assistance method
EP14818648.9A EP3015075B1 (en) 2013-06-28 2014-06-27 Diagnosis assistance device and diagnosis assistance method
US14/980,077 US9579054B2 (en) 2013-06-28 2015-12-28 Diagnosis supporting device and diagnosis supporting method
US15/398,906 US10149643B2 (en) 2013-06-28 2017-01-05 Control device, diagnosis supporting device, control method and a non-transitory storage medium that stores control program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013157030 2013-07-29
JP2013157030 2013-07-29
JP2014035948A JP6142822B2 (en) 2013-07-29 2014-02-26 Diagnosis support apparatus and diagnosis support method

Publications (2)

Publication Number Publication Date
JP2015043963A JP2015043963A (en) 2015-03-12
JP6142822B2 true JP6142822B2 (en) 2017-06-07

Family

ID=52670034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014035948A Active JP6142822B2 (en) 2013-06-28 2014-02-26 Diagnosis support apparatus and diagnosis support method

Country Status (1)

Country Link
JP (1) JP6142822B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10413176B2 (en) 2014-09-30 2019-09-17 National University Corporation Hamamatsu University School Of Medicine Inattention measurement device, system, and method
JP6380178B2 (en) * 2015-03-16 2018-08-29 株式会社Jvcケンウッド Diagnosis support apparatus and diagnosis support method
JP6747172B2 (en) * 2016-08-24 2020-08-26 株式会社Jvcケンウッド Diagnosis support device, diagnosis support method, and computer program
JP7268307B2 (en) * 2018-08-31 2023-05-08 株式会社Jvcケンウッド Evaluation device, method of operating evaluation device, and evaluation program
JP6988787B2 (en) * 2018-12-28 2022-01-05 株式会社Jvcケンウッド Display device, display method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7682025B2 (en) * 2007-02-04 2010-03-23 Miralex Systems Incorporated Gaze tracking using multiple images
US8808195B2 (en) * 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP2012055418A (en) * 2010-09-07 2012-03-22 Osaka Univ View line detection device and view line detection method
JP5858433B2 (en) * 2010-12-08 2016-02-10 国立大学法人静岡大学 Gaze point detection method and gaze point detection device
JP5926210B2 (en) * 2012-03-21 2016-05-25 国立大学法人浜松医科大学 Autism diagnosis support system and autism diagnosis support apparatus

Also Published As

Publication number Publication date
JP2015043963A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
US9579054B2 (en) Diagnosis supporting device and diagnosis supporting method
JP6693105B2 (en) Eye-gaze detecting device and eye-gaze detecting method
JP6217445B2 (en) Diagnosis support apparatus and diagnosis support method
WO2015146491A1 (en) Detection device and detection method
JP6142822B2 (en) Diagnosis support apparatus and diagnosis support method
JP6638354B2 (en) Eye gaze detection device and eye gaze detection method
JP6269377B2 (en) Diagnosis support apparatus and diagnosis support method
JP6201956B2 (en) Gaze detection device and gaze detection method
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP6380178B2 (en) Diagnosis support apparatus and diagnosis support method
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP2020038734A (en) Visual line detection device and visual line detection method
JP2016028669A (en) Pupil detection device and pupil detection method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP6217446B2 (en) Control device, diagnosis support device, control method, and control program
JP6327171B2 (en) Gaze point detection device and gaze point detection method
JP6142824B2 (en) Diagnosis support apparatus and diagnosis support method
JP6187347B2 (en) Detection apparatus and detection method
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP6471533B2 (en) Gaze detection device and gaze detection method
JP2020119583A (en) Visual line detection device and visual line detection method
JP2015181797A (en) Detection apparatus and detection method
JP2016157326A (en) Line of sight detection device and line of sight detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170424

R150 Certificate of patent or registration of utility model

Ref document number: 6142822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150