JP5880379B2 - Diagnosis support apparatus and diagnosis support method - Google Patents
Diagnosis support apparatus and diagnosis support method Download PDFInfo
- Publication number
- JP5880379B2 JP5880379B2 JP2012218875A JP2012218875A JP5880379B2 JP 5880379 B2 JP5880379 B2 JP 5880379B2 JP 2012218875 A JP2012218875 A JP 2012218875A JP 2012218875 A JP2012218875 A JP 2012218875A JP 5880379 B2 JP5880379 B2 JP 5880379B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- unit
- display
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Eye Examination Apparatus (AREA)
Description
本発明は、診断支援装置および診断支援方法に関する。 The present invention relates to a diagnosis support apparatus and a diagnosis support method.
最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客観的で効率的な発達障害の診断支援装置が求められている。 Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.
発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。また、検診時の使用について配慮することが必要である。発達障害児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。カメラで人の顔を撮影して、角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達障害を診断支援する方法が提案されている。 For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half. In addition, it is necessary to consider the use at the time of screening. One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. There has been proposed a method for diagnosing developmental disorders by applying a method of detecting a gazing point by photographing a human face with a camera and calculating a corneal reflection and a pupil position.
1歳半検診時などでは、上記のように診断支援(測定・分析)を効率的に行うことが望ましい。そのため、操作者の利便性を向上が求められていた。 It is desirable that diagnosis support (measurement / analysis) be efficiently performed as described above, for example, at the age of 1 year and a half. Therefore, there has been a demand for improving the convenience of the operator.
本発明は、上記に鑑みてなされたものであって、操作者の利便性を向上できる診断支援装置および診断支援方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a diagnosis support apparatus and a diagnosis support method that can improve the convenience of the operator.
上述した課題を解決し、目的を達成するために、本発明は、表示部と、被験者を撮像する撮像部と、前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、複数の診断画像を前記表示部に表示させる出力制御部と、前記出力制御部は、さらに、前記被験者を選択可能に表示する第1領域、前記視点の評価項目を選択可能に表示する第2領域、および、前記第1領域から選択された前記被験者に対して表示された、前記第2領域から選択された前記評価項目に対する前記視点の検出結果を表示する第3領域を含む結果画面を前記表示部に表示させること、を特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a display unit, an imaging unit that images a subject, and a line of sight that detects the gaze direction of the subject from a captured image captured by the imaging unit. A detection unit; a viewpoint detection unit that detects the viewpoint of the subject in the display area of the display unit based on the line-of-sight direction; an output control unit that displays a plurality of diagnostic images on the display unit; and the output control unit Is further displayed for the subject selected from the first region, the first region for selectively displaying the subject, the second region for selectively displaying the evaluation item of the viewpoint, A result screen including a third area for displaying a detection result of the viewpoint for the evaluation item selected from the second area is displayed on the display unit.
本発明にかかる診断支援装置および診断支援方法は、操作者の利便性を向上できるという効果を奏する。 The diagnosis support apparatus and diagnosis support method according to the present invention have the effect of improving the convenience for the operator.
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.
(第1の実施形態)
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。図1に示すように、第1の実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. As shown in FIG. 1, in the first embodiment, a set of stereo cameras 102 is arranged below the display screen 101. The stereo camera 102 is an imaging unit that can perform stereo shooting with infrared rays, and includes a right camera 202 and a left camera 204.
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。 Infrared LED (Light Emitting Diode) light sources 203 and 205 are arranged in the circumferential direction immediately before the lenses of the right camera 202 and the left camera 204, respectively. The infrared LED light sources 203 and 205 include an inner peripheral LED and an outer peripheral LED having different wavelengths for emitting light. The pupils of the subject are detected by the infrared LED light sources 203 and 205. As a pupil detection method, for example, the method described in Patent Document 2 can be applied.
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。 When detecting the line of sight, the space is expressed by coordinates to identify the position. In this embodiment, the center position of the display screen 101 is the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +). .
図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、記憶部150と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。 FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 2 shows a part of the configuration shown in FIG. 1 and a configuration used for driving the configuration. As shown in FIG. 2, the diagnosis support apparatus 100 includes a right camera 202, a left camera 204, infrared LED light sources 203 and 205, a speaker 105, a drive / IF unit 208, a control unit 300, and a storage unit. 150 and the display unit 210. In FIG. 2, the display screen 101 shows the positional relationship between the right camera 202 and the left camera 204 in an easy-to-understand manner, but the display screen 101 is a screen displayed on the display unit 210.
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。 The speaker 105 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。 The drive / IF unit 208 drives each unit included in the stereo camera 102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。 The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. The storage unit 150 stores, for example, an image to be displayed on the display unit 210. The display unit 210 displays various information such as a target image for diagnosis.
図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、プリンタIF323と、を備える。 FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a display unit 210 and a drive / IF unit 208 are connected to the control unit 300. The drive / IF unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, a speaker drive unit 322, and a printer IF 323.
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。 A right camera 202 and a left camera 204 are connected to the drive / IF unit 208 via camera IFs 314 and 315, respectively. The driving / IF unit 208 drives these cameras to image the subject.
右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。 A frame synchronization signal is output from the right camera 202. The frame synchronization signal is input to the left camera 204 and the LED drive control unit 316. This causes the left and right wavelength 1 infrared light sources (wavelength 1-LED 303, wavelength 1-LED 305) to emit light at different timings in the first frame, and correspondingly by the left and right cameras (right camera 202, left camera 204). In the second frame, the left and right wavelength 2 infrared light sources (wavelength 2-LED 304, wavelength 2-LED 306) are caused to emit light in the second frame, and the images from the left and right cameras are captured correspondingly.
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。 The infrared LED light source 203 includes a wavelength 1-LED 303 and a wavelength 2-LED 304. The infrared LED light source 205 includes a wavelength 1-LED 305 and a wavelength 2-LED 306.
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。 Wavelength 1-LEDs 303 and 305 emit infrared light having wavelength 1. Wavelength 2-LEDs 304 and 306 irradiate wavelength 2 infrared rays.
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。 The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained.
スピーカ駆動部322は、スピーカ105を駆動する。プリンタIF323は、印刷部としてのプリンタ324と接続するためのインタフェースである。なお、プリンタ324を診断支援装置100の内部に備えるように構成してもよい。 The speaker driving unit 322 drives the speaker 105. The printer IF 323 is an interface for connecting to a printer 324 as a printing unit. Note that the printer 324 may be provided inside the diagnosis support apparatus 100.
制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部351と、視点検出部352と、距離検出部353と、出力制御部354と、較正部355と、領域分割部356と、領域特定部357と、補正部358と、評価部359と、を備えている。 The control unit 300 controls the entire diagnosis support apparatus 100. The control unit 300 includes a line-of-sight detection unit 351, a viewpoint detection unit 352, a distance detection unit 353, an output control unit 354, a calibration unit 355, a region division unit 356, a region specification unit 357, and a correction unit 358. And an evaluation unit 359.
視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を検出する処理が含まれる(位置検出部)。視点検出部352は、検出された視線方向を用いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部351による視線検出方法、および、視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。 The gaze detection unit 351 detects the gaze (gaze direction) of the subject from the captured image captured by the imaging unit (stereo camera 102). The process of detecting the line of sight includes a process of detecting the eye position of the subject (position detection unit). The viewpoint detection unit 352 detects the viewpoint of the subject using the detected gaze direction. For example, the viewpoint detection unit 352 detects a viewpoint (gaze point) that is a point that the subject gazes out of the target image displayed on the display screen 101. As a gaze detection method by the gaze detection unit 351 and a viewpoint detection method by the viewpoint detection unit 352, any conventionally used method can be applied. Below, similarly to patent document 3, it demonstrates as an example the case where a test subject's gaze direction and a gaze point are detected using a stereo camera.
この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。 In this case, the gaze detection unit 351 first detects the gaze direction of the subject from the image captured by the stereo camera 102. The gaze detection unit 351 detects the gaze direction of the subject using, for example, the methods described in Patent Documents 1 and 2. Specifically, the line-of-sight detection unit 351 obtains the difference between the image captured by irradiating the infrared light having the wavelength 1 and the image captured by irradiating the infrared light having the wavelength 2, and the image in which the pupil image is clarified. Generate. The line-of-sight detection unit 351 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 202 and the left camera 204) and uses the stereo vision technique to determine the position of the subject's pupil ( Eye position) is calculated. The line-of-sight detection unit 351 calculates the position of the subject's corneal reflection using images taken by the left and right cameras. Then, the gaze detection unit 351 calculates a gaze vector representing the gaze direction of the subject from the position of the pupil of the subject and the corneal reflection position.
なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位置および視線を検出してもよい。 In addition, the detection method of the eye position and the line of sight of the subject is not limited to this. For example, the eye position and line of sight of the subject may be detected by analyzing an image captured using visible light instead of infrared light.
視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。 The viewpoint detection unit 352 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 1 and the XY plane as the gaze point of the subject. When the gaze direction of both eyes is obtained, the gaze point may be measured by obtaining the intersection of the left and right gazes of the subject.
距離検出部353は、撮像部(ステレオカメラ102)から被験者の目の位置までの距離を検出する。本実施形態では、距離検出部353は、ステレオカメラ102から被験者の目との間の奥行方向(Z座標方向)の距離dzを、撮像部(ステレオカメラ102)から被験者の目の位置までの距離として検出する。 The distance detection unit 353 detects the distance from the imaging unit (stereo camera 102) to the eye position of the subject. In the present embodiment, the distance detection unit 353 determines the distance dz in the depth direction (Z coordinate direction) between the stereo camera 102 and the subject's eyes, and the distance from the imaging unit (stereo camera 102) to the position of the subject's eyes. Detect as.
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。 FIG. 4 is a diagram illustrating an example of eye and distance detection when two cameras (the right camera 202 and the left camera 204) are used. For the two cameras, a camera calibration theory based on a stereo calibration method is applied in advance to obtain camera parameters. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied. Using the eye position detected from the image captured by the right camera 202, the eye position detected from the image captured by the left camera 204, and the camera parameters, the three-dimensional coordinates of the eye in the world coordinate system are obtained. It is done. Thereby, the distance between the eyes and the stereo camera 102 and the pupil coordinates can be estimated. The pupil coordinate is a coordinate value representing the position of the subject's eye (pupil) on the XY plane. The pupil coordinates can be, for example, coordinate values obtained by projecting the eye position expressed in the world coordinate system onto the XY plane. Usually, the pupil coordinates of the left and right eyes are obtained.
表示画面101には、マーカ402と、目の位置画像403とが表示される。目の位置画像403とは、被験者の目の位置を示す画像である。マーカ402は、予め定められた基準距離における被験者の目の位置画像403の大きさに対応する画像である。図4では、矩形のマーカを表示しているが、マーカ402の形状は矩形に限られるものではない。例えば、矩形(四角形)以外の多角形、円形、または、楕円形のマーカを用いてもよい。 A marker 402 and an eye position image 403 are displayed on the display screen 101. The eye position image 403 is an image showing the eye position of the subject. The marker 402 is an image corresponding to the size of the eye position image 403 of the subject at a predetermined reference distance. Although a rectangular marker is displayed in FIG. 4, the shape of the marker 402 is not limited to a rectangle. For example, a polygonal, circular, or elliptical marker other than a rectangle (rectangle) may be used.
図1に示すような座標系(世界座標系)を用いている場合、表示画面101の中央位置が原点である。このため、検出された目の位置のZ座標値が、ステレオカメラ102から被験者の目との間の奥行方向の距離dzに相当する。なお、実際のステレオカメラ102の位置と、視線検出部351によって算出された被験者の目の位置とから、両者間の距離を算出してもよい。例えば、視点検出部352が、右カメラ202および左カメラ204のいずれかの位置、または、右カメラ202の位置と左カメラ204の位置との中間位置から、被験者の目までの距離を検出するように構成してもよい。 When a coordinate system (world coordinate system) as shown in FIG. 1 is used, the center position of the display screen 101 is the origin. For this reason, the Z coordinate value of the detected eye position corresponds to the distance dz in the depth direction between the stereo camera 102 and the eye of the subject. Note that the distance between the two may be calculated from the actual position of the stereo camera 102 and the eye position of the subject calculated by the line-of-sight detection unit 351. For example, the viewpoint detection unit 352 detects the distance from the position of either the right camera 202 or the left camera 204 or the intermediate position between the position of the right camera 202 and the position of the left camera 204 to the eyes of the subject. You may comprise.
図3に戻り、出力制御部354は、表示部210、スピーカ105、および、プリンタ324などに対する各種情報の出力を制御する。例えば、出力制御部354は、視線方向の検出のためのパラメータの較正(キャリブレーション)に用いる画像(第1画像)、注視点の位置を補正するための補正用注視点の検出に用いる画像(第2画像)、診断に用いる画像(診断画像(第3画像))、および、評価部359による評価結果などの表示部210に対する出力を制御する。 Returning to FIG. 3, the output control unit 354 controls output of various types of information to the display unit 210, the speaker 105, the printer 324, and the like. For example, the output control unit 354 includes an image (first image) used for calibration of parameters for detecting the line-of-sight direction (first image) and an image used for detection of a correction gazing point for correcting the position of the gazing point ( The second image), the image used for diagnosis (diagnostic image (third image)), and the output to the display unit 210 such as the evaluation result by the evaluation unit 359 are controlled.
後述するように、出力制御部354は、キャリブレーションに用いる画像、補正用注視点の検出に用いる画像、および、診断画像を、この順に表示部210に表示させるように制御してもよい。これにより、診断に必要な各処理を円滑に実行し、診断の精度を向上させることができる。 As will be described later, the output control unit 354 may control the display unit 210 to display an image used for calibration, an image used for detecting a correction gazing point, and a diagnostic image in this order. Thereby, each process required for a diagnosis can be performed smoothly and the precision of a diagnosis can be improved.
また、出力制御部354は、被験者の位置を調整するための画像(位置調整用画像)を表示部210に表示させる。例えば、出力制御部354は、被験者の目の位置画像、基準領域の範囲を示す基準画像、および、撮像領域の範囲を示す撮像範囲画像のうち少なくとも1つを位置調整用画像として、設定領域と被験者の目の位置との位置関係に応じて表示態様を変化させて表示画面101に表示させる。出力制御部354は、例えば、距離に応じて目の位置画像403の大きさを変化させて表示画面101に表示させる。なお、表示態様は大きさに限られるものではない。例えば、色、画像の色調、画像の輝度、および、画像中に含まれる文字または記号または図形であってもよい。 The output control unit 354 causes the display unit 210 to display an image for adjusting the position of the subject (position adjustment image). For example, the output control unit 354 uses at least one of the position image of the subject's eyes, the reference image indicating the range of the reference region, and the imaging range image indicating the range of the imaging region as a position adjustment image, The display mode is changed on the display screen 101 according to the positional relationship with the eye position of the subject. For example, the output control unit 354 changes the size of the eye position image 403 according to the distance and causes the display screen 101 to display the size. The display mode is not limited to the size. For example, the color, the color tone of the image, the brightness of the image, and the character, symbol, or figure included in the image may be used.
基準領域は、撮像領域に含まれる領域であって、例えば被験者の目の適切な位置の範囲を表す領域として予め定められる。例えば、撮像領域の中心を含む撮像領域内の所定の大きさの領域を基準領域とすることができる。設定領域は、被験者の目の位置を検出するために適切な領域を表す。例えば、基準領域を設定領域としてもよいし、撮像領域を設定領域としてもよい。 The reference area is an area included in the imaging area, and is determined in advance as an area representing an appropriate position range of the eyes of the subject, for example. For example, an area having a predetermined size within the imaging area including the center of the imaging area can be set as the reference area. The setting area represents an appropriate area for detecting the position of the eye of the subject. For example, the reference area may be the setting area, and the imaging area may be the setting area.
基準画像は、基準領域に対応する範囲を表す画像として表示画面101に表示する画像である。基準画像は、例えば表示画面101の中央部に表示される。出力制御部354は、例えば、位置関係に応じて基準画像の色を変化させて表示画面101に表示させる。なお、表示態様は色に限られるものではなく、明るさなどを変化させてもよい。 The reference image is an image that is displayed on the display screen 101 as an image representing a range corresponding to the reference region. The reference image is displayed at the center of the display screen 101, for example. For example, the output control unit 354 changes the color of the reference image according to the positional relationship and causes the display screen 101 to display the color. Note that the display mode is not limited to colors, and brightness and the like may be changed.
出力制御部354は、基準画像内に動画像を表示させてもよい。動画像としては、例えば、人物や動物などを模したキャラクタが動く映像などを用いることができる。これにより、被験者に表示画面101を注目させ、被験者の位置を適切に調整させることができる。 The output control unit 354 may display a moving image in the reference image. As the moving image, for example, an image in which a character imitating a person or an animal moves can be used. Thereby, a test subject can be made to pay attention to the display screen 101, and a test subject's position can be adjusted appropriately.
また、出力制御部354は、注視点位置の補正処理に用いられる目標注視点位置(ターゲットポイント)の目印を表示画面101に表示させる。ここで、ターゲットポイントとは、被験者に注視させる位置である。 Further, the output control unit 354 causes the display screen 101 to display a mark of the target gazing point position (target point) used for the gazing point position correction process. Here, the target point is a position to be watched by the subject.
図5は、ターゲットポイントの目印の一例を示す図である。図5に示すように、目印として所定の半径の円の画像を用いてもよい。また、目印として、所定形状の枠と枠内に表示する画像(静止画、動画)とを用いてもよい。本実施形態においては、出力制御部354は、表示部210に、その表示領域内の異なる5つのターゲットポイントを示す5つの目印(SP0〜SP4)を表示する。目印の形状や個数はこれらに限られるものではない。 FIG. 5 is a diagram illustrating an example of a target point mark. As shown in FIG. 5, a circle image having a predetermined radius may be used as a mark. Further, as a mark, a frame having a predetermined shape and an image (still image or moving image) displayed in the frame may be used. In the present embodiment, the output control unit 354 displays five marks (SP0 to SP4) indicating five different target points in the display area on the display unit 210. The shape and number of landmarks are not limited to these.
本実施形態においては、長方形の画面(表示領域)の各辺に平行な4辺を有する四角形の頂点位置を、SP1〜SP4のターゲットポイントとする。また、画面のほぼ中央を、SP0のターゲットポイントとする。すなわち、SP0は、表示領域において、SP1〜SP4に比べて内側の位置を示す中心目印である。なお、本実施形態においては、SP0は、XYZ座標系の原点、すなわち表示部210の画面の中央位置に一致するものとする。ターゲットポイントの目印の画像の種類および表示位置は、記憶部150等に予め設定されているものとする。 In the present embodiment, the vertex positions of a quadrilateral having four sides parallel to each side of a rectangular screen (display area) are set as target points SP1 to SP4. Also, the approximate center of the screen is the SP0 target point. That is, SP0 is a center mark indicating an inner position in the display area as compared with SP1 to SP4. In the present embodiment, SP0 is assumed to coincide with the origin of the XYZ coordinate system, that is, the center position of the screen of the display unit 210. It is assumed that the type and display position of the target point mark image are set in advance in the storage unit 150 or the like.
ターゲットポイントの目印は、表示部210の他の領域と、輝度や彩度が異なる画像であればよく、円画像以外の画像であってもよい。また、他の例としては、ターゲットポイントの配置位置に光を照射するなどによりターゲットポイントの目印を示すこととしてもよい。すなわち、目印は、画像以外に光であってもよい。このように、目印は、被験者が注視すべき位置を認識可能な態様であればよく、その表示態様は実施形態に限定されるものではない。 The mark of the target point may be an image that is different in brightness and saturation from other regions of the display unit 210, and may be an image other than a circular image. As another example, the target point mark may be indicated by irradiating light to the target point arrangement position. That is, the mark may be light other than the image. Thus, the mark may be in any form that allows the subject to recognize the position to be watched, and the display form is not limited to the embodiment.
図3に戻り、較正部355は、視線方向を検出するために用いる計算パラメータを較正(視線検出用較正)する。一般に個人ごとに目の光軸と視線方向とが異なる。このため、光軸と視線方向が一致するように補正する必要があるためである。視線検出用較正処理では、所定の座標系上で既知である所定の位置(例えば視線検出用較正に用いる画像)を被験者に注視させて、その時の瞳孔の中心(瞳孔の位置)と角膜反射位置とを測定する。そして、較正部355は、測定された瞳孔の位置と角膜反射位置とから求められる視線方向が、所定の位置に向くように、視線検出のための計算パラメータを修正する。 Returning to FIG. 3, the calibration unit 355 calibrates the calculation parameters used for detecting the gaze direction (calibration for gaze detection). Generally, the optical axis of the eye and the line-of-sight direction are different for each individual. For this reason, it is necessary to correct so that the optical axis and the line-of-sight direction coincide. In the gaze detection calibration process, the subject is gazes at a predetermined position (for example, an image used for gaze detection calibration) known on a predetermined coordinate system, and the pupil center (pupil position) and corneal reflection position at that time And measure. Then, the calibration unit 355 corrects the calculation parameter for eye gaze detection so that the eye gaze direction obtained from the measured pupil position and corneal reflection position is directed to a predetermined position.
領域分割部356は、補正用に表示されたターゲットポイントの目印に対して検出された注視点(補正用注視点)に基づいて、表示部210の画面を複数の部分領域に分割する。 The area dividing unit 356 divides the screen of the display unit 210 into a plurality of partial areas based on the gazing point (correction gazing point) detected with respect to the target point mark displayed for correction.
領域特定部357は、診断画像に対して検出された注視点(分析用注視点)が、表示領域中のいずれの部分領域に属するかを特定する。 The area specifying unit 357 specifies which partial area in the display area the gazing point (analysis gazing point) detected for the diagnostic image belongs to.
補正部358は、分析用注視点が属する部分領域に基づいて、分析用注視点の位置を補正する。 The correcting unit 358 corrects the position of the analysis gazing point based on the partial region to which the analysis gazing point belongs.
ここで、領域分割部356、領域特定部357および補正部358の処理について図6〜図9を参照しつつ詳述する。 Here, the processing of the region dividing unit 356, the region specifying unit 357, and the correcting unit 358 will be described in detail with reference to FIGS.
図6に示す点SP0a〜SP4aは、それぞれターゲットポイントの目印SP0〜SP4を被験者が注視することによって得られた被験者の補正用注視点である。 Points SP0a to SP4a shown in FIG. 6 are correction points of interest of the subject obtained by the subject gazing at the marks SP0 to SP4 of the target points, respectively.
領域分割部356は、まず点SP0aをXY座標系の原点に一致させる。具体的には、領域分割部356は、XY座標系の原点からSP0aへの原点変位値を算出する。ここで、原点とSP0の位置とは一致する。そして、領域分割部356は、SP1a〜SP4aそれぞれを、原点変位値だけ移動させたSP1b〜SP4bの座標を求める。例えば、SP0aの座標が(x0,y0)である場合には、原点変位値は、(−x0,−y0)となる。したがって、領域分割部356は、SP1a〜SP4aそれぞれの座標に(−x0,−y0)を加算することにより、SP1b〜SP4bの座標を得る。 The area dividing unit 356 first matches the point SP0a with the origin of the XY coordinate system. Specifically, the area dividing unit 356 calculates an origin displacement value from the origin of the XY coordinate system to SP0a. Here, the origin and the position of SP0 coincide. Then, the region dividing unit 356 obtains the coordinates of SP1b to SP4b obtained by moving each of SP1a to SP4a by the origin displacement value. For example, when the coordinates of SP0a are (x0, y0), the origin displacement value is (−x0, −y0). Therefore, the area dividing unit 356 obtains the coordinates of SP1b to SP4b by adding (−x0, −y0) to the coordinates of SP1a to SP4a.
図7は、フレームFと図6の点SP0aをXY座標系の原点に移動させた後のフレームFeとを示す図である。フレームFは、ターゲットポイント点F1〜F4により定まるフレーム(枠)である。点F1〜F4は、それぞれ点SP1〜SP4に相当する。フレームFeは、ターゲットポイントに対応して検出された補正用注視点に対応する点Fe1〜Fe4により定まるフレーム(枠)である。点Fe1〜Fe4は、それぞれ点SP1b〜SP4bに相当する。すなわち、フレームFは、表示画面のXY座標系に対応する基準フレームであり、フレームFeは、被験者固有の誤差等を含む誤差フレームである。なお、フレームFとフレームFeとは、左右カメラ(右カメラ202、左カメラ204)の撮像対象となるフレームとは異なる概念のものである。 FIG. 7 is a diagram showing the frame F and the frame Fe after the point SP0a in FIG. 6 is moved to the origin of the XY coordinate system. The frame F is a frame (frame) determined by the target point points F1 to F4. Points F1 to F4 correspond to points SP1 to SP4, respectively. The frame Fe is a frame (frame) determined by points Fe1 to Fe4 corresponding to the correction gazing points detected corresponding to the target points. Points Fe1 to Fe4 correspond to points SP1b to SP4b, respectively. That is, the frame F is a reference frame corresponding to the XY coordinate system of the display screen, and the frame Fe is an error frame including a subject-specific error and the like. Note that the frame F and the frame Fe have different concepts from the frames to be imaged by the left and right cameras (the right camera 202 and the left camera 204).
視点検出部352により算出される分析用注視点は、フレームFe上の点である。さらに、被験者の眼球の非球面な形状などに起因して、視線方向により、すなわち目印位置によって、誤差の程度が異なる。そこで、本実施の形態にかかる診断支援装置100においては、対象領域を8つの部分領域に分割し、部分領域単位で分析用注視点のフレームFe上の座標値をフレームF上の座標値に変換することにより、分析用注視点の補正を行うこととする。 The gaze point for analysis calculated by the viewpoint detection unit 352 is a point on the frame Fe. Furthermore, due to the aspherical shape of the eyeball of the subject, the degree of error varies depending on the line-of-sight direction, that is, the mark position. Therefore, in the diagnosis support apparatus 100 according to the present embodiment, the target area is divided into eight partial areas, and the coordinate values on the frame Fe of the gazing point for analysis are converted into coordinate values on the frame F in units of partial areas. By doing so, the gaze point for analysis will be corrected.
領域分割部356は、点Fe1〜Fe4の位置に基づいて、対象領域を8つの部分領域に分割する。図8は、8つの部分領域を示す図である。各部分領域は、原点O、点Fe1〜Fe4、X軸、Y軸により定まる領域である。ここで、点Fe1〜Fe4は、それぞれSP1b〜SP4bに対応する点である。そして、SP1b〜SP4bは、それぞれSP1a〜SP4aに基づいて定まる点である。すなわち、領域分割部356は、SP1a〜SP4aの位置に基づいて、対象領域を8つの部分領域に分割するものである。 The area dividing unit 356 divides the target area into eight partial areas based on the positions of the points Fe1 to Fe4. FIG. 8 is a diagram showing eight partial areas. Each partial region is a region determined by the origin O, points Fe1 to Fe4, the X axis, and the Y axis. Here, the points Fe1 to Fe4 are points corresponding to SP1b to SP4b, respectively. SP1b to SP4b are points determined based on SP1a to SP4a, respectively. That is, the area dividing unit 356 divides the target area into eight partial areas based on the positions of SP1a to SP4a.
ここで、点Fe1と点Fe4を通る直線と、X軸との交点を点Fe5とする。点Fe1と点Fe2を通る直線と、Y軸との交点を点Fe6とする。点Fe2と点Fe3を通る直線と、X軸との交点を点Fe7とする。点Fe3と点Fe4を通る直線と、Y軸との交点を点Fe8とする。 Here, the intersection of the straight line passing through the points Fe1 and Fe4 and the X axis is defined as a point Fe5. An intersection point between a straight line passing through the points Fe1 and Fe2 and the Y axis is defined as a point Fe6. A point of intersection between the straight line passing through the points Fe2 and Fe3 and the X axis is defined as a point Fe7. A point of intersection between the straight line passing through the points Fe3 and Fe4 and the Y axis is defined as a point Fe8.
領域分割部356は、図8に示す第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hの8つの部分領域に分割する。また、領域特定部357は、分析用注視点の座標と、領域分割部356により分割された8つの部分領域の位置とに基づいて、視点検出部352により検出された分析用注視点がこの8つの部分領域のうちいずれの部分領域に属する点であるかを特定する。 The area dividing unit 356 includes a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, and a third quadrant shown in FIG. The area is divided into eight partial areas of a lower area F, a fourth quadrant lower area G, and a fourth quadrant upper area H. Further, the area specifying unit 357 determines that the analysis gaze point detected by the viewpoint detection unit 352 is based on the coordinates of the analysis gaze point and the positions of the eight partial areas divided by the area division unit 356. It is specified which of the two partial areas the point belongs to.
ここで、第1象限下側領域Aは、原点Oと点Fe1を通る直線および原点Oと点Fe5を通る直線(X軸)を境界位置とする領域である。第1象限上側領域Bは、原点Oと点Fe1を通る直線および原点Oと点Fe6を通る直線(Y軸)を境界位置とする領域である。 Here, the lower quadrant A of the first quadrant is an area in which a straight line passing through the origin O and the point Fe1 and a straight line passing through the origin O and the point Fe5 (X axis) are boundary positions. The first quadrant upper area B is an area having a boundary position that is a straight line passing through the origin O and the point Fe1 and a straight line passing through the origin O and the point Fe6 (Y axis).
第2象限上側領域Cは、原点Oと点Fe2を通る直線および原点Oと点Fe6を通る直線(Y軸)を境界位置とする領域である。第2象限下側領域Dは、原点Oと点Fe2を通る直線および原点Oと点Fe7を通る直線(X軸)を境界位置とする領域である。 The second quadrant upper area C is an area having a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe6 (Y axis) as boundary positions. The lower quadrant area D is an area having a boundary position that is a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe7 (X axis).
第3象限上側領域Eは、原点Oと点Fe3を通る直線および原点Oと点Fe7を通る直線(X軸)を境界位置とする領域である。第3象限下側領域Fは、原点Oと点Fe3を通る直線および原点Oと点Fe8を通る直線(Y軸)を境界位置とする領域である。 The third quadrant upper area E is an area having a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe7 (X axis) as boundary positions. The lower quadrant F of the third quadrant is an area having a boundary position that is a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe8 (Y axis).
第4象限下側領域Gは、原点Oと点Fe4を通る直線および原点Oと点Fe8を通る直線(Y軸)を境界位置とする領域である。第4象限上側領域Hは、原点Oと点Fe4を通る直線および原点Oと点Fe5(X軸)を通る直線を境界位置とする領域である。 The lower quadrant region G is a region having a boundary position that is a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe8 (Y axis). The upper quadrant H of the fourth quadrant is an area having a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe5 (X axis) as boundary positions.
図9は、第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hそれぞれに対応する、フレームFの部分領域(A’〜H’)を示す図である。 FIG. 9 shows a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, a third quadrant lower area F, It is a figure which shows the partial area | region (A'-H ') of the flame | frame F corresponding to 4th quadrant lower area | region G and 4th quadrant upper area | region H, respectively.
第1象限下側領域A’、第1象限上側領域B’、第2象限上側領域C’、第2象限下側領域D’、第3象限上側領域E’、第3象限下側領域F’、第4象限下側領域G’および第4象限上側領域H’は、それぞれ第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hに対応する領域である。 First quadrant lower area A ′, first quadrant upper area B ′, second quadrant upper area C ′, second quadrant lower area D ′, third quadrant upper area E ′, third quadrant lower area F ′ , The fourth quadrant lower region G ′ and the fourth quadrant upper region H ′ are respectively a first quadrant lower region A, a first quadrant upper region B, a second quadrant upper region C, a second quadrant lower region D, This is a region corresponding to the third quadrant upper region E, the third quadrant lower region F, the fourth quadrant lower region G, and the fourth quadrant upper region H.
領域特定部357は、上述のように分析用注視点が属するフレームFe上の部分領域を特定するのに加えて、特定したフレームFe上の部分領域に対応する、フレームF上の部分領域を特定する。例えば、フレームFe上の第1象限下側領域Aが特定された場合に、フレームF上の第1象限下側領域A’が対応する部分領域として特定される。すなわち、領域特定部357は、フレームFe上の部分領域と、これに対応するフレームF上の部分領域を特定するものであり、第1部分領域特定部および第2部分領域特定部に相当するものである。 The area specifying unit 357 specifies the partial area on the frame F corresponding to the specified partial area on the frame Fe, in addition to specifying the partial area on the frame Fe to which the gazing point for analysis belongs as described above. To do. For example, when the first quadrant lower area A on the frame Fe is specified, the first quadrant lower area A ′ on the frame F is specified as the corresponding partial area. That is, the area specifying unit 357 specifies a partial area on the frame Fe and a corresponding partial area on the frame F, and corresponds to a first partial area specifying unit and a second partial area specifying unit. It is.
図9を参照しつつ、フレームF上の部分領域について説明する。点F1と点F4を通る直線と、X軸との交点を点F5とする。点F1と点F2を通る直線と、Y軸との交点を点F6とする。点F2と点F3を通る直線と、X軸との交点を点F7とする。点F3と点F4を通る直線と、Y軸との交点を点F8とする。 The partial area on the frame F will be described with reference to FIG. A point of intersection between the straight line passing through the points F1 and F4 and the X axis is defined as a point F5. A point of intersection between the straight line passing through the points F1 and F2 and the Y axis is defined as a point F6. A point of intersection between the straight line passing through the points F2 and F3 and the X axis is defined as a point F7. A point of intersection between the straight line passing through the points F3 and F4 and the Y axis is defined as a point F8.
第1象限下側領域A’は、原点Oと点F1を通る直線および原点Oと点F5を通る直線(X軸)を境界位置とする領域である。第1象限上側領域B’は、原点Oと点F1を通る直線および原点Oと点F6を通る直線(Y軸)を境界位置とする領域である。 The first quadrant lower area A 'is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F5 (X axis). The first quadrant upper area B 'is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F6 (Y axis).
第2象限上側領域C’は、原点Oと点F2を通る直線および原点Oと点F6を通る直線(Y軸)を境界位置とする領域である。第2象限下側領域D’は、原点Oと点F2を通る直線および原点Oと点F7を通る直線(X軸)を境界位置とする領域である。 The second quadrant upper area C 'is an area having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F6 (Y axis). The second quadrant lower area D 'is an area having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F7 (X axis).
第3象限上側領域E’は、原点Oと点F3を通る直線および原点Oと点F7を通る直線(X軸)を境界位置とする領域である。第3象限下側領域F’は、原点Oと点F3を通る直線および原点Oと点F8とを通る直線(Y軸)を境界位置とする領域である。 The third quadrant upper area E 'is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F7 (X axis). The third quadrant lower area F ′ is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F8 (Y axis).
第4象限下側領域G’は、原点Oと点F4を通る直線および原点Oと点F8を通る直線(Y軸)を境界位置とする領域である。第4象限上側領域H’は、原点Oと点F4を通る直線および原点Oと点F5を通る直線(X軸)を境界位置とする領域である。 The fourth quadrant lower region G ′ is a region having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F8 (Y axis). The upper quadrant H ′ of the fourth quadrant is an area having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F5 (X axis).
補正部358は、フレームFe上の部分領域とフレームFにおける対応する部分領域の相関関係、すなわちフレームFeからフレームFへの変位値に基づいて、注視点の位置を補正する。 The correcting unit 358 corrects the position of the gazing point based on the correlation between the partial area on the frame Fe and the corresponding partial area in the frame F, that is, the displacement value from the frame Fe to the frame F.
以下、図10〜図14を参照しつつ、補正部358の処理について詳述する。図10は、各点の座標を示す図である。図10に示すように、点F1の座標を(x4,y4)、点F2の座標を(x10,y4)、点F3の座標を(x10,y8)、点F4の座標を(x4,y8)、点F5の座標を(x4,0)、点F6の座標を(0,y4)、点F7の座標を(x10,0)、点F8の座標を(0,y8)とする。また、点Fe1の座標を(x6,y6)、点Fe2の座標を(x11,y11)、点Fe3の座標を(x13,y13)、点Fe4の座標を(x9,y9)、点Fe5の座標を(x7,0)、点Fe6の座標を(0,y7)、点Fe7の座標を(x20,0)、点Fe8の座標を(0,y20)とする。 Hereinafter, the processing of the correction unit 358 will be described in detail with reference to FIGS. FIG. 10 is a diagram showing the coordinates of each point. As shown in FIG. 10, the coordinates of the point F1 are (x4, y4), the coordinates of the point F2 are (x10, y4), the coordinates of the point F3 are (x10, y8), and the coordinates of the point F4 are (x4, y8). The coordinates of the point F5 are (x4, 0), the coordinates of the point F6 are (0, y4), the coordinates of the point F7 are (x10, 0), and the coordinates of the point F8 are (0, y8). Also, the coordinates of the point Fe1 are (x6, y6), the coordinates of the point Fe2 are (x11, y11), the coordinates of the point Fe3 are (x13, y13), the coordinates of the point Fe4 are (x9, y9), and the coordinates of the point Fe5 Is (x7,0), the coordinates of the point Fe6 are (0, y7), the coordinates of the point Fe7 are (x20,0), and the coordinates of the point Fe8 are (0, y20).
さらに、図11に示すように、第1象限下側領域Aにおいて検出された分析用注視点を点P2Aとし、点P2Aの座標を(x2A,y2A)とする。また、点P2Aの補正後の分析用注視点を点P0Aとし、点P0Aの座標を(x0A,y0A)とする。 Further, as shown in FIG. 11, the point of interest for analysis detected in the first quadrant lower area A is a point P2A, and the coordinates of the point P2A are (x2A, y2A). Further, the point of interest for analysis after the correction of the point P2A is the point P0A, and the coordinates of the point P0A are (x0A, y0A).
さらに、点Fe1と点Fe5を通る直線をL1A、点F1と点F5を通る直線をL2Aとする。点P2Aと原点Oを通る直線をL3A、点P0Aと原点を通る直線をL4A、点Fe1と原点を通る直線をL5A、点F1と原点を通る直線をL6Aとする。 Further, a straight line passing through the points Fe1 and Fe5 is L1A, and a straight line passing through the points F1 and F5 is L2A. A straight line passing through the point P2A and the origin O is L3A, a straight line passing through the point P0A and the origin is L4A, a straight line passing through the point Fe1 and the origin is L5A, and a straight line passing through the point F1 and the origin is L6A.
また、直線L2Aと直線L4Aの交点を点P1Aとし、点P1Aの座標を(x4,y1A)とする。また、直線L1Aと直線L3Aの交点を点P3Aとし、点P3Aの座標を(x3A,y3A)とする。 Further, an intersection of the straight line L2A and the straight line L4A is a point P1A, and the coordinates of the point P1A are (x4, y1A). Further, an intersection of the straight line L1A and the straight line L3A is a point P3A, and the coordinates of the point P3A are (x3A, y3A).
また、原点と点P0Aの間の距離をd0A、原点と点P1Aの間の距離をd1A、原点と点P2Aの間の距離をd2A、原点と点P3Aの間の距離をd3Aとする。 Further, the distance between the origin and the point P0A is d0A, the distance between the origin and the point P1A is d1A, the distance between the origin and the point P2A is d2A, and the distance between the origin and the point P3A is d3A.
また、直線L3AとX軸のなす角0Aの角度をθ0A、直線L5AとX軸のなす角1Aの角度をθ1A、直線L4AとX軸のなす角2Aの角度をθ2A、直線L6AとX軸のなす角3Aの角度をθ3Aとする。 In addition, the angle 0A formed by the straight line L3A and the X axis is θ0A, the angle 1A formed by the straight line L5A and the X axis is θ1A, the angle 2A formed by the straight line L4A and the X axis is θ2A, and the straight line L6A and the X axis are The angle 3A formed is defined as θ3A.
以上の条件の下、補正部358は、角0Aの角度θ0Aの角1Aの角度θ1Aに対する割合と、角2Aの角度θ2Aの角3Aの角度θ3Aに対する割合が等しいとして、角2Aの角度θ2Aを求め、さらに、距離d2Aの距離d3Aに対する割合と、距離d0Aの距離d1Aに対する割合が等しいとして、距離d0Aを求めることにより、補正用注視点の補正後の位置を算出する。 Under the above conditions, the correction unit 358 calculates the angle θ2A of the angle 2A, assuming that the ratio of the angle 0A to the angle θ1A of the angle 1A is equal to the ratio of the angle 2A of the angle 2A to the angle θ3A of the angle 3A. Further, assuming that the ratio of the distance d2A to the distance d3A is equal to the ratio of the distance d0A to the distance d1A, the position d0A after correction is calculated by calculating the distance d0A.
補正部358は、まず、(式1)〜(式3)により、角度θ0A、角度θ1Aおよび角度θ3Aを算出する。
角0Aの角度θ0Aの角1Aの角度θ1Aに対する割合と、角2Aの角度θ2Aの角3Aの角度θ3Aに対する割合が等しいことから、(式4)が成り立つ。補正部358は、(式4)に(式1)〜(式3)により算出した角度θ0A、角度θ1Aおよび角度θ3Aを代入することにより、角度θ2Aを算出する。
補正部358はまた、点P3Aが直線L1Aと直線L3Aの交点であるとして、点P3Aの座標(x3A,y3A)を算出する。ここで、直線L1Aは、(式5)により示される。
補正部358はさらに、(式12)により、距離d3Aに対する距離d2Aの比k0を算出する。
補正部358はまた、点P1Aの座標(x4,y1A)を算出する。ここで、直線L2Aは、(式13)により示される。
補正部358はさらに、(式16)により、距離d1Aを算出する。
補正部358は、点P0Aが距離d1Aに対する距離d0Aの比がk0となるような点であるとして、(式17)および(式18)により、点P0Aの座標(x0A,y0A)を算出する。
なお、補正部358は、他の部分領域においても、同様の演算式により、各部分領域に属する分析用注視点の位置を補正する。 Note that the correction unit 358 also corrects the position of the analysis gazing point belonging to each partial region in the other partial regions using the same arithmetic expression.
図12は、第4象限上側領域Hを示す図である。分析用注視点が第4象限上側領域Hに属する場合には、X軸を基準として、角0B〜3Bを定め、また、直線L1B〜L6Bを定める。そして、補正部358は、角0Bの角度θ0Bの角1Bの角度θ1Bに対する割合と、角2Bの角度θ2Bの角3Bの角度θ3Bに対する割合が等しいとして、角2Bの角度θ2Bを求める。さらに、補正部358は、距離d2Bの距離d3Bに対する割合と、距離d0Bの距離d1Bに対する割合が等しいとして、距離d0Bを求める。これにより、補正部358は、分析用注視点P2B(x2B,y2B)の補正後の分析用注視点P0Bの座標(x0B,y0B)を算出する。 FIG. 12 is a diagram illustrating the upper quadrant H of the fourth quadrant. When the analysis gazing point belongs to the upper quadrant H of the fourth quadrant, the angles 0B to 3B are defined with reference to the X axis, and straight lines L1B to L6B are defined. Then, the correction unit 358 determines the angle θ2B of the angle 2B, assuming that the ratio of the angle 0B to the angle θ1B of the angle 1B and the angle θ2B of the angle 2B to the angle θ3B of the angle 3B is equal. Furthermore, the correction unit 358 calculates the distance d0B on the assumption that the ratio of the distance d2B to the distance d3B is equal to the ratio of the distance d0B to the distance d1B. Thereby, the correction unit 358 calculates the coordinates (x0B, y0B) of the analysis gazing point P0B after the analysis gazing point P2B (x2B, y2B) is corrected.
図13は、第2象限上側領域Cを示す図である。分析用注視点が第2象限上側領域Cに属する場合には、Y軸を基準として、角0C〜3Cを定め、また、直線L1C〜L6Cを定める。そして、補正部358は、角0Cの角度θ0Cの角1Cの角度θ1Cに対する割合と、角2Cの角度θ2Cの角3Cの角度θ3Cに対する割合が等しいとして、角2Cの角度θ2Cを求める。さらに、補正部358は、距離d2Cの距離d3Cに対する割合と、距離d0Cの距離d1Cに対する割合が等しいとして、距離d0Cを求める。これにより、補正部358は、分析用注視点P2C(x2C,y2C)の補正後の分析用注視点P0Cの座標(x0C,y0C)を算出する。 FIG. 13 is a diagram showing the upper quadrant area C of the second quadrant. When the analysis gazing point belongs to the second quadrant upper area C, the angles 0C to 3C are defined with reference to the Y axis, and the straight lines L1C to L6C are defined. Then, the correction unit 358 obtains the angle θ2C of the angle 2C, assuming that the ratio of the angle 0C to the angle θ1C of the angle 1C is equal to the ratio of the angle 2C of the angle 2C to the angle θ3C of the angle 3C. Further, the correction unit 358 calculates the distance d0C on the assumption that the ratio of the distance d2C to the distance d3C is equal to the ratio of the distance d0C to the distance d1C. Thereby, the correction unit 358 calculates the coordinates (x0C, y0C) of the analysis gazing point P0C after the analysis gazing point P2C (x2C, y2C) is corrected.
図14は、第1象限上側領域Bを示す図である。分析用注視点が第1象限上側領域Bに属する場合には、Y軸を基準として、角0D〜3Dを定め、また、直線L1D〜L6Dを定める。そして、補正部358は、角0Dの角度θ0Dの角1Dの角度θ1Dに対する割合と、角2Dの角度θ2Dの角3Dの角度θ3Dに対する割合が等しいとして、角2Dの角度θ2Dを求める。さらに、補正部358は、距離d2Dの距離d3Dに対する割合と、距離d0Dの距離d1Dに対する割合が等しいとして、距離d0Dを求める。これにより、補正部358は、分析用注視点P2D(x2D,y2D)の補正後の分析用注視点P0Dの座標(x0D,y0D)を算出する。 FIG. 14 is a diagram showing the first quadrant upper area B. As shown in FIG. When the analysis gazing point belongs to the first quadrant upper area B, the angles 0D to 3D are determined with reference to the Y axis, and the straight lines L1D to L6D are determined. Then, the correction unit 358 determines the angle θ2D of the angle 2D, assuming that the ratio of the angle 0D to the angle θ1D of the angle 1D is equal to the ratio of the angle 2D of the angle 2D to the angle θ3D of the angle 3D. Further, the correction unit 358 calculates the distance d0D on the assumption that the ratio of the distance d2D to the distance d3D is equal to the ratio of the distance d0D to the distance d1D. Thereby, the correction unit 358 calculates the coordinates (x0D, y0D) of the analysis gazing point P0D after the analysis gazing point P2D (x2D, y2D) is corrected.
図3に戻り、評価部359は、診断画像と、補正後の分析用注視点とに基づいて、発達障害の程度に関する指標として評価値を算出する。評価部359は、例えば、後述する図39から図44などの診断画像を表示した際の被験者の分析用注視点の位置に基づいて、診断画像としての顔画像の目を見ている割合を評価値として算出し、評価値が低いほど、発達障害の可能性が高いことを示すような評価値を算出する。評価部359は、診断画像と分析用注視点とに基づいて、評価値を算出すればよく、その算出方法は、実施の形態に限定されるものではない。 Returning to FIG. 3, the evaluation unit 359 calculates an evaluation value as an index related to the degree of developmental disability based on the diagnostic image and the corrected attention point for analysis. For example, the evaluation unit 359 evaluates the rate of viewing the eyes of the face image as the diagnostic image based on the position of the subject's point of interest for analysis when the diagnostic image such as FIGS. 39 to 44 described later is displayed. As an evaluation value, an evaluation value that indicates that the possibility of developmental disorder is higher is calculated as the evaluation value is lower. The evaluation unit 359 may calculate the evaluation value based on the diagnostic image and the analysis point of interest, and the calculation method is not limited to the embodiment.
次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について図15を用いて説明する。図15は、第1の実施形態における診断支援処理の一例を示すフローチャートである。 Next, diagnosis support processing by the diagnosis support apparatus 100 according to the first embodiment configured as described above will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment.
まず、出力制御部354は、メニュー画面を表示する(ステップS1)。図16は、メニュー画面の一例を示す図である。図16に示すように、メニュー画面は、分析ボタン501と、結果表示ボタン502と、プログラム終了ボタン503と、を含む。分析ボタン501が押下されると、出力制御部354は、診断画像を用いた分析処理を実行するための画面である分析メニュー画面を表示部210に表示させる。結果表示ボタン502が押下されると、出力制御部354は、結果表示画面(後述)を表示部210に表示させる。プログラム終了ボタン503が押下されると、出力制御部354は、診断支援処理を終了する。 First, the output control unit 354 displays a menu screen (step S1). FIG. 16 is a diagram illustrating an example of a menu screen. As shown in FIG. 16, the menu screen includes an analysis button 501, a result display button 502, and a program end button 503. When the analysis button 501 is pressed, the output control unit 354 causes the display unit 210 to display an analysis menu screen that is a screen for executing an analysis process using a diagnostic image. When the result display button 502 is pressed, the output control unit 354 causes the display unit 210 to display a result display screen (described later). When the program end button 503 is pressed, the output control unit 354 ends the diagnosis support process.
図17は、分析メニュー画面の一例を示す図である。図17に示すように、分析メニュー画面は、「分析を始める」ボタン601と、「基本メニューに戻る」ボタン602と、キャリブレーション用コンテンツを選択するためのプルダウン611と、分析用コンテンツを選択するためのプルダウン612と、情報入力欄613と、を含む。 FIG. 17 is a diagram illustrating an example of the analysis menu screen. As shown in FIG. 17, the analysis menu screen selects a “start analysis” button 601, a “return to basic menu” button 602, a pull-down 611 for selecting calibration content, and analysis content. A pull-down 612 and an information input field 613.
「分析を始める」ボタン601が押下されると、診断画像を用いた処理(図15のステップS2以降の処理)が開始される。「基本メニューに戻る」ボタン602が押下されると、図16のメニュー画面に戻る。キャリブレーション用コンテンツとは、較正部355によるキャリブレーション(視線検出用較正)で使用する画像などのコンテンツを表す。キャリブレーション用コンテンツの一例は、図21、22である。プルダウン611を用いて選択されたコンテンツが、較正部355によるキャリブレーションで使用される。分析用コンテンツとは、診断に用いられる画像(診断画像)などのコンテンツを表す。プルダウン612を用いて選択されたコンテンツが、診断画像として使用される。情報入力欄613は、被験者の情報などの診断に必要な各種情報を入力するための欄である。 When the “start analysis” button 601 is pressed, processing using a diagnostic image (processing after step S2 in FIG. 15) is started. When the “return to basic menu” button 602 is pressed, the menu screen of FIG. 16 is displayed again. The content for calibration represents content such as an image used in calibration (calibration for eye-gaze detection) by the calibration unit 355. An example of the calibration content is shown in FIGS. The content selected using the pull-down 611 is used for calibration by the calibration unit 355. The analysis content represents content such as an image (diagnosis image) used for diagnosis. The content selected using the pull-down 612 is used as a diagnostic image. The information input column 613 is a column for inputting various types of information necessary for diagnosis such as subject information.
図15に戻る。分析の開始が指示された場合、例えば、メニュー画面で分析ボタン501が押下され、分析メニュー画面で「分析を始める」ボタン601が押下された場合、出力制御部354は、位置調整用画像を表示部210に表示させる(ステップS2)。 Returning to FIG. When the start of analysis is instructed, for example, when the analysis button 501 is pressed on the menu screen and the “start analysis” button 601 is pressed on the analysis menu screen, the output control unit 354 displays the position adjustment image. The data is displayed on the unit 210 (step S2).
図18は、位置調整用画像701の一例を示す図である。位置調整用画像701は、基準画像としてのスケール703と、撮像範囲画像としての枠702と、目の位置画像705と、マーカ704と、動画像であるキャラクタ画像706と、を含む。図18の例では、被験者が適切な距離に位置するため、目の位置画像705の直径とマーカ704の幅とが一致するように表示されている。この場合、出力制御部354は、例えば目の位置画像705を、距離が適切であることを示す色(例えば緑)で表示してもよい。また、図18の例では、被験者が基準領域内に存在するため、出力制御部354は、スケール703を基準領域内であることを示す色(例えば緑)で表示してもよい。被験者の左右の目の位置画像705の少なくとも一方が基準領域外となったことを検出した場合に、出力制御部354が、スケール703を基準領域外であることを示す色(例えば赤)で表示してもよい。また、出力制御部354は、被験者の左右の目の位置画像705の少なくとも一方が基準領域外となったことを検出した場合に、「もっと右へ」または「もっと左へ」などの音声を出力してもよい。出力制御部354は、キャラクタ画像706を、スケール703内で時間と共に移動させるとともに、目の位置(視線の向き)、形状が変化するように表示する。動画像は、キャラクタ画像706ではなく、注目を集めさせるものであればよい。例えば、動画像として花火のような画像や、輝度、色が変化する画像などが考えられる。 FIG. 18 is a diagram illustrating an example of the position adjustment image 701. The position adjustment image 701 includes a scale 703 as a reference image, a frame 702 as an imaging range image, an eye position image 705, a marker 704, and a character image 706 that is a moving image. In the example of FIG. 18, since the subject is located at an appropriate distance, the diameter of the eye position image 705 and the width of the marker 704 are displayed to match. In this case, the output control unit 354 may display, for example, the eye position image 705 in a color (for example, green) indicating that the distance is appropriate. In the example of FIG. 18, since the subject exists in the reference region, the output control unit 354 may display the scale 703 in a color (for example, green) indicating that it is in the reference region. When it is detected that at least one of the position images 705 of the left and right eyes of the subject is out of the reference region, the output control unit 354 displays the scale 703 in a color (for example, red) indicating that it is out of the reference region May be. In addition, when the output control unit 354 detects that at least one of the position images 705 of the left and right eyes of the subject is outside the reference region, the output control unit 354 outputs a sound such as “more right” or “more left”. May be. The output control unit 354 displays the character image 706 so that the position of the eyes (the direction of the line of sight) and the shape of the character image 706 change with time in the scale 703. The moving image is not the character image 706 but may be anything that attracts attention. For example, as a moving image, an image like fireworks, an image in which luminance and color change, and the like can be considered.
本実施形態では、出力制御部354は、基準画像(スケール703)内にキャラクタ画像706を表示させる。これにより、表示画面101内の適切な位置を被験者に注目させることができる。 In the present embodiment, the output control unit 354 displays the character image 706 in the reference image (scale 703). Thereby, a subject can be made to pay attention to an appropriate position in the display screen 101.
図19は、位置調整用画像の他の例を示す図である。図19は、例えば、図18から時間が経過した後の位置調整用画像の例である。また、図19は、被験者の目の位置がステレオカメラ102に近づいたため、目の位置画像805がマーカ804より大きく表示された例を示している。この場合、出力制御部354は、例えば目の位置画像805を、距離が適切でないことを示す色(例えば赤)で表示してもよい。また、出力制御部354は、目の位置画像805がマーカ804より大きく表示された場合、「もっと後ろ」等の音声を出力してもよい。また、出力制御部354は、目の位置画像805がマーカ804より小さく表示された場合、「もっと前へ」などの音声を出力してもよい。 FIG. 19 is a diagram illustrating another example of the position adjustment image. FIG. 19 is an example of the position adjustment image after a lapse of time from FIG. FIG. 19 shows an example in which the eye position image 805 is displayed larger than the marker 804 because the eye position of the subject approaches the stereo camera 102. In this case, the output control unit 354 may display, for example, the eye position image 805 in a color (for example, red) indicating that the distance is not appropriate. Further, when the eye position image 805 is displayed larger than the marker 804, the output control unit 354 may output a sound such as “much behind”. Further, when the eye position image 805 is displayed smaller than the marker 804, the output control unit 354 may output a sound such as “move forward”.
図20は、位置調整用画像の他の例を示す図である。図20は、例えば、図19からさらに時間が経過した後の位置調整用画像の例である。図19および図20に示すように、出力制御部354は、基準画像内を移動するキャラクタ画像806、906を表示する。 FIG. 20 is a diagram illustrating another example of the position adjustment image. FIG. 20 is an example of the position adjustment image after a further time has elapsed from FIG. As illustrated in FIGS. 19 and 20, the output control unit 354 displays character images 806 and 906 that move within the reference image.
図15に戻る。ステップS2で位置調整用画像を表示することにより、被験者の位置を適切に調整できる。この結果、以降の処理を高精度に実行可能となる。次に、診断支援装置100は、視線検出のためのキャリブレーション(視線検出用較正)を実行する(ステップS3)。 Returning to FIG. By displaying the position adjustment image in step S2, the position of the subject can be adjusted appropriately. As a result, the subsequent processing can be executed with high accuracy. Next, the diagnosis support apparatus 100 executes calibration for eye-gaze detection (eye-gaze detection calibration) (step S3).
キャリブレーション処理では、まず出力制御部354が、キャリブレーション用の画像(例えば、図17のプルダウン611で選択されたキャリブレーション用コンテンツ)を表示部210に表示させる。 In the calibration process, first, the output control unit 354 causes the display unit 210 to display a calibration image (for example, the calibration content selected by the pull-down 611 in FIG. 17).
図21および図22は、キャリブレーション用の画像の一例を示す図である。出力制御部354は、まず、図21に示すようなキャリブレーション用の画像を表示部210に表示させる。キャリブレーション用の画像は、表示画面101の中央付近に位置する円形の枠1001と、枠1001の中央付近に位置する物体の画像1002とを含む。出力制御部354は、最初に図21に示すような画像を表示させた後、徐々に枠1001を中心に向かって縮小するように表示させる。図22は、このようにして縮小された後に表示されるキャリブレーション用の画像の一例である。縮小後のキャリブレーション用の画像は、円形の枠1101と、枠1101の中央付近に位置する物体の画像1102とを含む。このような画像を表示することにより、被験者を、表示画面101の中央付近に注目させることができる。 21 and 22 are diagrams illustrating an example of an image for calibration. First, the output control unit 354 causes the display unit 210 to display a calibration image as shown in FIG. The calibration image includes a circular frame 1001 positioned near the center of the display screen 101 and an object image 1002 positioned near the center of the frame 1001. The output control unit 354 first displays an image as shown in FIG. 21, and then displays the image such that the frame 1001 is gradually reduced toward the center. FIG. 22 is an example of a calibration image displayed after being reduced in this way. The reduced calibration image includes a circular frame 1101 and an image 1102 of an object located near the center of the frame 1101. By displaying such an image, the subject can be noted near the center of the display screen 101.
較正部355は、被験者が表示画面101の中央を注視しているものとして、視線検出部351が検出した視線方向が表示画面101の中央に向くように、視線検出のための計算パラメータを較正する。 The calibration unit 355 calibrates the calculation parameters for line-of-sight detection so that the line of sight detected by the line-of-sight detection unit 351 faces the center of the display screen 101, assuming that the subject is gazing at the center of the display screen 101. .
図15に戻る。ステップS3のキャリブレーションの後、診断支援装置100は、分析用注視点の位置補正のための補正用注視点検出処理を実行する(ステップS4)。補正用注視点検出処理においては、診断支援装置100は、ターゲットポイントを示す目印に対する注視点、すなわち補正用注視点を検出する。補正用注視点検出処理については、後述する。 Returning to FIG. After the calibration in step S3, the diagnosis support apparatus 100 executes a correction gazing point detection process for correcting the position of the analysis gazing point (step S4). In the correction gazing point detection process, the diagnosis support apparatus 100 detects a gazing point with respect to the mark indicating the target point, that is, a correction gazing point. The correction gazing point detection process will be described later.
次に、診断支援装置100は、診断画像を用いた分析処理を実行する(ステップS5)。分析処理では、出力制御部354が診断画像を表示し、視点検出部352が分析用注視点を検出する。また、補正部358が補正用注視点を用いて、分析用注視点の位置を補正した後、評価部359が補正後の分析用注視点を用いて発達障害の程度に関する指標として評価値を算出する。分析処理の詳細は後述する。なお、評価部359による評価値の算出を行わず、例えば、図50から図54で説明するように、分析用注視点の検出結果を表示することで、診断者の診断を支援することも可能である。 Next, the diagnosis support apparatus 100 executes analysis processing using the diagnostic image (step S5). In the analysis process, the output control unit 354 displays a diagnostic image, and the viewpoint detection unit 352 detects the gaze point for analysis. In addition, after the correction unit 358 corrects the position of the analysis attention point using the correction attention point, the evaluation unit 359 calculates an evaluation value as an index related to the degree of developmental disorder using the corrected analysis attention point. To do. Details of the analysis process will be described later. It is also possible to support the diagnosis by diagnosing the diagnosis by displaying the result of detection of the gazing point for analysis, as described in FIGS. 50 to 54, for example, without calculating the evaluation value by the evaluation unit 359. It is.
次に、出力制御部354が、分析処理による分析結果(評価結果)を表示部210等に出力する(ステップS6)。結果を出力する処理の詳細は後述する。 Next, the output control unit 354 outputs the analysis result (evaluation result) by the analysis process to the display unit 210 or the like (step S6). Details of the process of outputting the result will be described later.
次に、ステップS4の補正用注視点検出処理の詳細について説明する。図23は、第1の実施形態における補正用注視点検出処理の一例を示すフローチャートである。 Next, details of the correction gazing point detection process in step S4 will be described. FIG. 23 is a flowchart illustrating an example of correction gazing point detection processing according to the first embodiment.
補正用注視点検出処理においては、まず、出力制御部354は、ターゲットポイントを示す目印SP0を所定位置(原点位置)に表示する(ステップS110)。次に、視点検出部352は、目印SP0に対して得られた補正用注視点の位置を検出する(ステップS111)。視点検出部352は、所定数の補正用注視点を検出し、これらのデータ分布を計算する(ステップS112)。 In the correction gazing point detection process, first, the output control unit 354 displays the mark SP0 indicating the target point at a predetermined position (origin position) (step S110). Next, the viewpoint detection unit 352 detects the position of the correction gazing point obtained for the mark SP0 (step S111). The viewpoint detection unit 352 detects a predetermined number of correction gazing points and calculates their data distribution (step S112).
図24は、データ分布の計算処理を説明するための図である。目印(SP0〜SP4)を中心とした判定用領域が各目印に対して予め設定されている。なお、本実施の形態においては、目印を中心とする所定の半径の円を判定用領域とする。判定用領域内に所定数以上の補正用注視点が得られない場合には、被験者がターゲットポイントの目印をしっかり注視していなかった可能性が高く、補正に有効な補正用注視点を検出していない可能性が高い。そこで、本実施の形態においては、視点検出部352は、目印を表示している間の所定時間において、判定用領域内の注視点が所定数以上検出されたか否かにより、検出された補正用注視点が適正か否かを判断することとする。 FIG. 24 is a diagram for explaining a data distribution calculation process. A determination area centered on the marks (SP0 to SP4) is set in advance for each mark. In the present embodiment, a circle with a predetermined radius centered on the mark is used as the determination area. If a predetermined number of correction gaze points cannot be obtained within the judgment area, it is highly likely that the subject did not gaze at the target point mark, and a correction gaze point that is effective for correction is detected. Most likely not. Therefore, in the present embodiment, the viewpoint detection unit 352 detects the correction for detection based on whether or not a predetermined number or more of the gazing points in the determination area are detected during a predetermined time while the landmark is displayed. Judgment is made on whether or not the gaze point is appropriate.
ステップS112におけるデータ分布計算処理においては、視点検出部352は、判定用領域内に属する補正用注視点の数を計測する。そして、視点検出部352は、判定用領域内に属する補正用注視点の数が予め設定された閾値以上である場合に、検出された補正用注視点が適正であると判断し(ステップS113,Yes)、検出された複数の補正用注視点のうち、判定用領域に属さない補正用注視点を除いた判定用領域内データ群を特定する(ステップS114)。 In the data distribution calculation process in step S112, the viewpoint detection unit 352 measures the number of correction gazing points belonging to the determination area. The viewpoint detection unit 352 determines that the detected correction gazing point is appropriate when the number of correction gazing points belonging to the determination area is equal to or greater than a preset threshold (step S113, Yes), the determination-in-area data group excluding the correction gazing point that does not belong to the determination area from among the plurality of correction gazing points detected (step S114).
なお、ステップS113において、補正用注視点が適正でないと判断した場合には(ステップS113,No)、ステップS111に戻り、視点検出部352は、再び補正用注視点の検出をやり直す。 If it is determined in step S113 that the correction gazing point is not appropriate (No in step S113), the process returns to step S111, and the viewpoint detection unit 352 detects the correction gazing point again.
次に、視点検出部352は、判定用領域内データ群の各補正用注視点の座標に基づいて、判定用領域内データ群の代表値を算出する(ステップS115)。本実施の形態においては、代表値として、判定用領域内データ群の平均値を算出する。なお、代表値は、平均値以外の値であってもよい。代表値は、例えば標準偏差であってもよい。以降の処理においては、ステップS115により算出された代表値が補正用注視点として利用される。 Next, the viewpoint detection unit 352 calculates the representative value of the in-determination area data group based on the coordinates of each correction gazing point of the in-determination area data group (step S115). In the present embodiment, the average value of the in-determination area data group is calculated as the representative value. The representative value may be a value other than the average value. The representative value may be a standard deviation, for example. In the subsequent processing, the representative value calculated in step S115 is used as the correction gazing point.
次に、すべてのターゲットポイントの目印に対する代表値が算出されていない場合には(ステップS116,No)、出力制御部354は、次のターゲットポイントを示す目印を表示する(ステップS117)。そして、ステップS111に戻り、表示中の目印に対する代表値を算出する(ステップS111〜115)。 Next, when the representative values for all the target point marks have not been calculated (step S116, No), the output control unit 354 displays a mark indicating the next target point (step S117). Then, the process returns to step S111, and representative values for the displayed mark are calculated (steps S111 to S115).
ステップS116において、すべてのターゲットポイントの目印に対する代表値が算出されると(ステップS116,Yes)、補正用注視点検出処理(ステップS4)が完了する。 In step S116, when representative values for all target point markers are calculated (step S116, Yes), the correction gazing point detection processing (step S4) is completed.
図25−1〜図25−5は、補正用注視点検出処理(ステップS4)における各ターゲットポイントの目印の表示処理を説明するための図である。出力制御部354は、図23に示すステップS110において、まず図25−1に示すように目印SP0を表示部210に表示する。次に、出力制御部354は、ステップS117において、残りのターゲットポイントの目印を1つずつ順番に表示部210に表示する。 FIGS. 25-1 to 25-5 are diagrams for explaining the display processing of the mark of each target point in the correction gazing point detection processing (step S4). In step S110 shown in FIG. 23, the output control unit 354 first displays the mark SP0 on the display unit 210 as shown in FIG. Next, in step S117, the output control unit 354 displays the remaining target point marks on the display unit 210 one by one in order.
すなわち、出力制御部354は、図25−2に示すようにステップS117において、SP0の表示をやめ、新たにSP1を表示し、SP1の代表値算出後に再びステップS117において、図25−3に示すようにSP1の表示をやめ、新たにSP2を表示する。同様に、出力制御部354は、続けて、図25−4に示すように、SP2の表示をやめ、新たにSP3のターゲットポイントを表示する。続いて、図25−5に示すように、SP3の表示をやめ、新たにSP4のターゲットポイントを表示する。 That is, as shown in FIG. 25-2, the output control unit 354 stops displaying SP0 in step S117, newly displays SP1, and again after calculating the representative value of SP1, in step S117, the output control unit 354 returns to FIG. 25-3. Thus, the display of SP1 is stopped and SP2 is newly displayed. Similarly, the output control unit 354 continues to stop displaying SP2 and newly display the target point of SP3 as shown in FIG. 25-4. Subsequently, as shown in FIG. 25-5, the display of SP3 is stopped, and the target point of SP4 is newly displayed.
このように、各ターゲットポイントを順番に1つずつ表示することにより、被験者の補正用注視点を検出することができる。 Thus, by displaying each target point one by one in order, it is possible to detect the subject's correction gazing point.
次に、ターゲットポイントの目印の他の例について説明する。図68〜図36は、ターゲットポイントの目印の一例を示す図である。図26〜図36の例では、所定形状の枠と枠内に表示する画像とを含む目印が用いられる。また、出力制御部354は、複数のターゲットポイントごとに、相互に異なる画像を表示させる。さらに、出力制御部354は、枠内の画像として、枠の中心を含む部分の表示態様が変化するような動画を表示させる。これにより、ターゲットポイントの目印のうち、より中心に近い位置を被験者に注視させることができる。なお、枠内の表示態様が変化する部分は、厳密に枠の中心点を含んでいなくともよい。例えば、注目させたい点を決めておけば、中心でなくともよい。その場合には、補正用注視点の算出の際に、中心ではない点を注目させる点としたことを考慮する必要がある。 Next, another example of target point marks will be described. 68 to 36 are diagrams showing examples of target point marks. In the example of FIGS. 26 to 36, a mark including a frame having a predetermined shape and an image displayed in the frame is used. In addition, the output control unit 354 displays different images for each of the plurality of target points. Furthermore, the output control unit 354 displays a moving image in which the display mode of the portion including the center of the frame changes as the image in the frame. Thereby, a test subject can be made to gaze at the position nearer the center among the marks of the target points. Note that the portion where the display mode in the frame changes does not have to include the center point of the frame strictly. For example, if you decide what you want to focus on, it doesn't have to be the center. In such a case, it is necessary to consider that a point that is not the center is noted when calculating the correction gazing point.
なお、図26〜図36では、5つのターゲットポイントの目印を、図5のSP0→SP2→SP3→SP4→SP1の順に表示する。このように、ターゲットポイントの目印の表示順は任意に変更してもよい。 26 to 36, the marks of the five target points are displayed in the order of SP0 → SP2 → SP3 → SP4 → SP1 in FIG. As described above, the display order of the target point marks may be arbitrarily changed.
図26では、出力制御部354は、まず、枠1201と、枠内に位置するキャラクタの画像1202とを、SP0に相当する位置に表示させる。画像1202は、中心付近が動く動画である。図27は、中心付近の鼻の部分が拡大されるように動いた後のキャラクタの画像1302が、枠1301内に表示された様子を表している。 In FIG. 26, the output control unit 354 first displays a frame 1201 and a character image 1202 located in the frame at a position corresponding to SP0. The image 1202 is a moving image that moves near the center. FIG. 27 shows a state in which an image 1302 of the character after moving so that the nose portion near the center is enlarged is displayed in the frame 1301.
図28に示すように、出力制御部354は、枠を先にターゲットポイントに表示させ、その後にターゲットポイントに向かってキャラクタの画像が移動するように表示させてもよい。これにより、被験者に注視点を次のターゲットポイントに適切に誘導することができる。図28は、枠1401がターゲットポイント(図5のSP2の位置)に表示され、キャラクタの画像1402が枠1401に向かって移動している途中の様子を表している。 As illustrated in FIG. 28, the output control unit 354 may display the frame first on the target point and then display the character image so as to move toward the target point. Thereby, a gaze point can be appropriately guided to the next target point to the subject. FIG. 28 shows a state where the frame 1401 is displayed at the target point (the position of SP2 in FIG. 5) and the character image 1402 is moving toward the frame 1401.
図29は、図28のキャラクタの画像1402が枠1401の位置まで移動した後に、画像1402と異なるキャラクタの画像1502が表示された様子を表している。このように、ターゲットポイントごとに相互に異なる画像を表示させることで、被験者を飽きさせずに画像に注目させることができる。図30は、画像1502の中心付近の目の部分が拡大されるように動いた後のキャラクタの画像1602が、枠1401内に表示された様子を表している。 FIG. 29 shows a state where a character image 1502 different from the image 1402 is displayed after the character image 1402 of FIG. 28 has moved to the position of the frame 1401. In this way, by displaying different images for each target point, it is possible to focus on the images without getting tired of the subject. FIG. 30 shows a state in which the character image 1602 after moving so that the eye portion near the center of the image 1502 is enlarged is displayed in the frame 1401.
図31は、図30のキャラクタの画像1602が枠1701の位置(図5のSP3の位置)まで移動した後に、画像1602と異なるキャラクタの画像1702が表示された様子を表している。図32は、画像1702の中心付近の色が変化した後のキャラクタの画像1802が、枠1701内に表示された様子を表している。 FIG. 31 shows a state where a character image 1702 different from the image 1602 is displayed after the character image 1602 in FIG. 30 has moved to the position of the frame 1701 (the position SP3 in FIG. 5). FIG. 32 shows a state where the character image 1802 after the color near the center of the image 1702 is changed is displayed in the frame 1701.
図33は、図32のキャラクタの画像1802が枠1901の位置(図5のSP4の位置)まで移動した後に、画像1802と異なるキャラクタの画像1902が表示された様子を表している。図34は、画像1902の中心付近の鼻の部分が拡大されるように動いた後のキャラクタの画像2002が、枠1901内に表示された様子を表している。 FIG. 33 shows a state in which a character image 1902 different from the image 1802 is displayed after the character image 1802 in FIG. 32 has moved to the position of the frame 1901 (the position SP4 in FIG. 5). FIG. 34 shows a state in which an image 2002 of the character after moving so that the nose portion near the center of the image 1902 is enlarged is displayed in the frame 1901.
図35は、図34のキャラクタの画像2002が枠2101の位置(図5のSP1の位置)まで移動した後に、画像2002と異なるキャラクタの画像2102が表示された様子を表している。図36は、画像2102の中心付近の目の部分が拡大されるように動いた後のキャラクタの画像2202が、枠2101内に表示された様子を表している。 FIG. 35 shows a state in which a character image 2102 different from the image 2002 is displayed after the character image 2002 in FIG. 34 has moved to the position of the frame 2101 (the position SP1 in FIG. 5). FIG. 36 shows a state in which an image 2202 of the character after moving so that the eye portion near the center of the image 2102 is enlarged is displayed in the frame 2101.
次に、ステップS5の分析処理の詳細について説明する。ステップS5の分析処理においては、1つの分析処理であってもよいし、複数の分析処理を行うものであってもよい。複数の分析処理を行う場合、評価部359は、それぞれの分析処理の結果を総合して、評価値を算出する。図37は、第1の実施形態における分析処理の一例を示すフローチャートである。 Next, details of the analysis processing in step S5 will be described. In the analysis process in step S5, one analysis process or a plurality of analysis processes may be performed. When performing a plurality of analysis processes, the evaluation unit 359 calculates an evaluation value by integrating the results of the respective analysis processes. FIG. 37 is a flowchart illustrating an example of analysis processing according to the first embodiment.
まず、診断支援装置100は、分析用注視点検出処理を実行する(ステップS101)。分析用注視点検出処理においては、まず、出力制御部354は、診断画像を表示部210に表示する。次に、視点検出部352は、表示部210に診断画像が表示されている際の被験者の注視点、すなわち分析用注視点を検出する。 First, the diagnosis support apparatus 100 executes a gaze point detection process for analysis (step S101). In the analysis gazing point detection process, first, the output control unit 354 displays a diagnostic image on the display unit 210. Next, the viewpoint detection unit 352 detects the gaze point of the subject when the diagnostic image is displayed on the display unit 210, that is, the gaze point for analysis.
続いて、領域分割部356が、ターゲットポイントの目印に対する代表値である補正用注視点に基づいて、対象領域を8つの部分領域(A〜H)に分割する(ステップS102)。次に、補正部358は、ステップS101において得られた分析用注視点が属する、フレームFeにおける部分領域を特定し、さらに、特定した部分領域に対応する、フレームFにおける部分領域を特定する(ステップS103)。 Subsequently, the region dividing unit 356 divides the target region into eight partial regions (A to H) based on the correction gazing point, which is a representative value for the target point mark (step S102). Next, the correcting unit 358 specifies a partial region in the frame Fe to which the analysis attention point obtained in step S101 belongs, and further specifies a partial region in the frame F corresponding to the specified partial region (step). S103).
図38は、部分領域特定処理(ステップS103)において、フレームFeにおける部分領域を特定する処理を示すフローチャートである。図38に示すように、まず領域特定部357は、ステップS101において得られた分析用注視点の座標を視点検出部352から取得する(ステップS120)。 FIG. 38 is a flowchart showing a process of specifying a partial area in the frame Fe in the partial area specifying process (step S103). As shown in FIG. 38, first, the area specifying unit 357 acquires the coordinates of the gazing point for analysis obtained in step S101 from the viewpoint detection unit 352 (step S120).
次に、領域特定部357は、分析用注視点の座標とフレームFe上の部分領域(A〜H)に基づいて、分析用注視点が属する部分領域を特定する。領域特定部357は、具体的には、分析用注視点のx座標の符号を特定し、続いてy座標の符号を特定する。分析用注視点のx座標が0以上であり、かつ分析用注視点のy座標が0以上である場合には(ステップS121,Yes、ステップS122,Yes)、領域特定部357は、さらに分析用注視点のxy座標と、点Fe1の座標とに基づいて、分析用注視点が原点Oと点Fe1を結ぶ直線(直線O−Fe1)より上側に位置するか否かを特定する(ステップS123)。 Next, the area specifying unit 357 specifies the partial area to which the analysis gazing point belongs based on the coordinates of the analysis gazing point and the partial areas (A to H) on the frame Fe. Specifically, the area specifying unit 357 specifies the code of the x coordinate of the gaze point for analysis, and then specifies the code of the y coordinate. When the x coordinate of the gazing point for analysis is 0 or more and the y coordinate of the gazing point for analysis is 0 or more (step S121, Yes, step S122, Yes), the region specifying unit 357 further performs analysis. Based on the xy coordinates of the gazing point and the coordinates of the point Fe1, it is determined whether or not the gazing point for analysis is located above a straight line (straight line O-Fe1) connecting the origin O and the point Fe1 (step S123). .
分析用注視点が直線O−Fe1上または直線O−Fe1より下側に位置する場合には(ステップS123,No)、領域特定部357は、分析用注視点が第1象限下側領域Aに属すると判断する(ステップS124)。 When the analysis gazing point is located on the straight line O-Fe1 or below the straight line O-Fe1 (No in step S123), the region specifying unit 357 causes the analysis gazing point to be in the lower quadrant A of the first quadrant. It is determined that it belongs (step S124).
分析用注視点が直線O−Fe1より上側に位置する場合には(ステップS123,Yes)、領域特定部357は、分析用注視点が第1象限上側領域Bに属すると判断する(ステップS125)。 When the analysis gazing point is located above the straight line O-Fe1 (step S123, Yes), the region specifying unit 357 determines that the analysis gazing point belongs to the first quadrant upper region B (step S125). .
分析用注視点のx座標が0以上であり、かつ分析用注視点のy座標が0より小さい場合には(ステップS121,Yes、ステップS122,No)、領域特定部357は、さらに分析用注視点のxy座標と、点Fe4の座標とに基づいて、分析用注視点が原点Oと点Fe4を結ぶ直線(直線O−Fe4)より上側に位置するか否かを特定する(ステップS126)。 If the x coordinate of the analysis gaze point is 0 or more and the y coordinate of the analysis gaze point is smaller than 0 (step S121, Yes, step S122, No), the region specifying unit 357 further performs the analysis note. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe4, it is specified whether or not the gaze point for analysis is located above the straight line connecting the origin O and the point Fe4 (straight line O-Fe4) (step S126).
分析用注視点が直線O−Fe4上または直線O−Fe4より下側に位置する場合には(ステップS126,No)、領域特定部357は、分析用注視点が第4象限下側領域Gに属すると判断する(ステップS127)。 When the analysis gazing point is located on the straight line O-Fe4 or below the straight line O-Fe4 (step S126, No), the region specifying unit 357 causes the analysis gazing point to be in the lower quadrant quadrant G. It is determined that it belongs (step S127).
分析用注視点が直線O−Fe4より上側に位置する場合には(ステップS126,Yes)、領域特定部357は、分析用注視点が第4象限上側領域Hに属すると判断する(ステップS128)。 When the analysis gazing point is located above the straight line O-Fe4 (step S126, Yes), the region specifying unit 357 determines that the analysis gazing point belongs to the fourth quadrant upper region H (step S128). .
分析用注視点のx座標が0より小さく、かつ分析用注視点のy座標が0以上である場合には(ステップS121,No、ステップS129,Yes)、領域特定部357は、さらに分析用注視点のxy座標と、点Fe2の座標とに基づいて、分析用注視点が原点Oと点Fe2を結ぶ直線(直線O−Fe2)より上側に位置するか否かを特定する(ステップS130)。 When the x coordinate of the analysis attention point is smaller than 0 and the y coordinate of the analysis attention point is 0 or more (step S121, No, step S129, Yes), the region specifying unit 357 further performs the analysis attention. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe2, it is specified whether or not the gaze point for analysis is located above the straight line connecting the origin O and the point Fe2 (straight line O-Fe2) (step S130).
分析用注視点が直線O−Fe2上または直線O−Fe2より下側に位置する場合には(ステップS130,No)、領域特定部357は、分析用注視点が第2象限下側領域Dに属すると判断する(ステップS131)。 When the analysis gazing point is located on the straight line O-Fe2 or below the straight line O-Fe2 (No in step S130), the region specifying unit 357 causes the analysis gazing point to be in the second quadrant lower region D. It is determined that it belongs (step S131).
分析用注視点が直線O−Fe2より上側に位置する場合には(ステップS130,Yes)、領域特定部357は、分析用注視点が第2象限上側領域Cに属すると判断する(ステップS132)。 When the analysis gazing point is located above the straight line O-Fe2 (step S130, Yes), the region specifying unit 357 determines that the analysis gazing point belongs to the second quadrant upper region C (step S132). .
分析用注視点のx座標が0より小さく、かつ分析用注視点のy座標が0より小さい場合には(ステップS121,No、ステップS129,No)、領域特定部357は、さらに分析用注視点のxy座標と、点Fe3の座標とに基づいて、分析用注視点が原点Oと点Fe3を結ぶ直線(直線O−Fe3)より上側に位置するか否かを特定する(ステップS133)。 If the x coordinate of the analysis gaze point is smaller than 0 and the y coordinate of the analysis gaze point is smaller than 0 (step S121, No, step S129, No), the region specifying unit 357 further analyzes the gaze point for analysis. Based on the xy coordinates and the coordinates of the point Fe3, it is specified whether or not the analysis gazing point is located above the straight line connecting the origin O and the point Fe3 (straight line O-Fe3) (step S133).
分析用注視点が直線O−Fe3上または直線O−Fe3より下側に位置する場合には(ステップS133,No)、領域特定部357は、分析用注視点が第3象限下側領域Fに属すると判断する(ステップS134)。 When the analysis gazing point is located on the straight line O-Fe3 or below the straight line O-Fe3 (step S133, No), the region specifying unit 357 causes the analysis gazing point to be in the lower quadrant F of the third quadrant. It is determined that it belongs (step S134).
分析用注視点が直線O−Fe3より上側に位置する場合には(ステップS133,Yes)、領域特定部357は、分析用注視点が第3象限上側領域Eに属すると判断する(ステップS135)。 When the analysis gazing point is located above the straight line O-Fe3 (step S133, Yes), the region specifying unit 357 determines that the analysis gazing point belongs to the third quadrant upper region E (step S135). .
以上で、ステップS103における分析用注視点が属する部分領域を特定する処理が完了する。 This completes the process of specifying the partial region to which the analysis point of interest belongs in step S103.
図37に戻り、分析用注視点が属する、フレームFeにおける部分領域を特定し、さらに、特定した部分領域に対応する、フレームFにおける部分領域を特定した後、補正部358は、分析用注視点の位置を補正する(ステップS104)。ステップS104における分析用注視点補正処理においては、補正部358は、ステップS103において特定した部分領域毎に異なる演算処理を実行することにより、分析用注視点の補正後の位置を算出する。演算処理の詳細は、上述したとおりである。 Returning to FIG. 37, after specifying the partial region in the frame Fe to which the analysis attention point belongs, and further specifying the partial region in the frame F corresponding to the specified partial region, the correction unit 358 performs the analysis attention point. Is corrected (step S104). In the analysis gazing point correction process in step S104, the correction unit 358 calculates a corrected position of the analysis gazing point by executing different calculation processes for each partial region identified in step S103. The details of the arithmetic processing are as described above.
次に、評価部359は、補正後の分析用注視点の位置に基づいて、評価値を算出する(ステップS105)。例えば、評価部359は、複数の評価項目を総合して評価値を算出する。評価部359は例えば分析用注視点の位置が図39〜図44で説明する診断画像の評価領域内に含まれる割合によって、評価値を算出する。評価部359は、分析用注視点の位置が一箇所に留まる時間により算出される集中度によって、評価値を算出してもよい。以上で、分析処理が完了する。なお、図51から図54に示すように診断者(医師など)に出力する結果表示を行う場合は、ステップS105の評価値を算出する処理は、省略し、診断画像の表示中に視点検出部352は、表示部210に診断画像が表示されている際の被験者の注視点、すなわち分析用注視点の位置がどの評価領域に含まれるか、または、集中度の指標を算出するのみでもよい。 Next, the evaluation unit 359 calculates an evaluation value based on the corrected position of the gazing point for analysis (step S105). For example, the evaluation unit 359 calculates an evaluation value by integrating a plurality of evaluation items. For example, the evaluation unit 359 calculates an evaluation value based on a ratio in which the position of the gazing point for analysis is included in the evaluation region of the diagnostic image described with reference to FIGS. The evaluation unit 359 may calculate the evaluation value based on the degree of concentration calculated based on the time during which the position of the gazing point for analysis remains in one place. Thus, the analysis process is completed. 51 to 54, when displaying the result to be output to a diagnostician (such as a doctor), the process of calculating the evaluation value in step S105 is omitted, and the viewpoint detection unit is displayed during the display of the diagnostic image. In 352, it is also possible to calculate only in which evaluation area the gaze point of the subject when the diagnostic image is displayed on the display unit 210, that is, the position of the gaze point for analysis is included, or the index of the degree of concentration.
なお、補正部358による補正方法は一例であり、これに限られるものではない。所定数(例えば5つ)のターゲットポイントに対応する目印から検出した補正用注視点を用いて、分析用注視点を補正する方法であれば、他のあらゆる方法を適用できる。 Note that the correction method by the correction unit 358 is an example, and the present invention is not limited to this. Any other method can be applied as long as it is a method for correcting a gaze point for analysis using a gaze point for correction detected from a mark corresponding to a predetermined number (for example, five) target points.
次に、診断画像の例について説明する。図39〜図44は、診断画像の一例を示す図である。図39〜図44は、自然画と幾何学画像とを含む診断画像の例を示す。幾何学画像とは、1以上の幾何学模様を含む画像を表す。発達障害児は、自然画よりも幾何学画像の映像を好むためである。自然画は、幾何学画像以外の、自然物または自然物を連想させるような画像であればよい。例えば、人物、動物、植物、および自然の景観などをカメラで撮像した画像(静止画、動画)を自然画として用いてもよい。また、人物および動物などを模したキャラクタの画像(静止画、動画)を自然画として用いてもよい。 Next, an example of a diagnostic image will be described. 39 to 44 are diagrams illustrating examples of diagnostic images. 39 to 44 show examples of diagnostic images including natural images and geometric images. A geometric image represents an image including one or more geometric patterns. This is because children with developmental disabilities prefer geometric images rather than natural images. The natural image may be a natural object or an image reminiscent of a natural object other than a geometric image. For example, an image (still image or moving image) obtained by capturing a person, an animal, a plant, a natural landscape, or the like with a camera may be used as the natural image. Moreover, you may use the image (still image, moving image) of the character imitating a person, an animal, etc. as a natural image.
評価部359は、例えば、自然画よりも幾何学画像が注視される場合に、発達障害の程度が高いことを示す評価値を算出する。評価部359は例えば、視点検出部により検出された視点が幾何学模様を表示した評価領域内か自然画を表示した評価領域内かを判定する。また、評価部359は例えば、視点検出部により検出された視点が幾何学模様を表示した評価領域内かどうかを判定する。幾何学模様を表示した評価領域内である確率が高い場合、発達障害の評価値を高く算出するようにする。 For example, the evaluation unit 359 calculates an evaluation value indicating that the degree of developmental disorder is high when a geometric image is watched more than a natural image. For example, the evaluation unit 359 determines whether the viewpoint detected by the viewpoint detection unit is within an evaluation region displaying a geometric pattern or an evaluation region displaying a natural image. For example, the evaluation unit 359 determines whether or not the viewpoint detected by the viewpoint detection unit is within the evaluation region in which the geometric pattern is displayed. When the probability of being within the evaluation area displaying the geometric pattern is high, the evaluation value of the developmental disorder is calculated to be high.
診断画像を動画とした場合であって自然画と比較して幾何学画像の動作が速い場合、および、幾何学画像の色が鮮やかである場合などのように、幾何学画像に注目が集まりやすい診断画像を用いると、健常者であっても幾何学画像を注視する可能性がある。そこで、図39〜図44の例に示すように、自然画に類似する幾何学画像を含む診断画像を表示してもよい。例えば、色調、輝度の分布、形状、動作速度、および、画像内の位置(構図)の少なくとも1つが自然画と類似または一致する幾何学画像を用いることができる。また、自然画に人物や動物などの物体が含まれる場合、物体の個数と同じ個数の幾何学模様を含む幾何学画像を用いてもよい。この場合、人物に対応する幾何学模様を円または楕円としてもよい。 When a diagnostic image is a moving image and the geometric image operates faster than a natural image, and when the color of the geometric image is vivid, the geometric image tends to attract attention. When a diagnostic image is used, even a healthy person may gaze at the geometric image. Therefore, as shown in the examples of FIGS. 39 to 44, a diagnostic image including a geometric image similar to a natural image may be displayed. For example, a geometric image in which at least one of color tone, luminance distribution, shape, operation speed, and position (composition) in the image is similar or coincides with a natural image can be used. Further, when an object such as a person or an animal is included in the natural image, a geometric image including the same number of geometric patterns as the number of objects may be used. In this case, the geometric pattern corresponding to the person may be a circle or an ellipse.
また、自然画に人物、動物、および、人物や動物を模したキャラクタなどの顔が含まれる場合、顔の大きさと同程度の大きさの幾何学模様を含む幾何学画像を用いてもよい。例えば、顔の横または縦の長さと半径との差分が第1閾値以下の円、または、顔の横の長さと短軸の長さとの差分が第2閾値以下の楕円、または、顔の縦の長さと長軸の長さとの差分が第3閾値以下の楕円を、幾何学模様として含む幾何学画像を用いてもよい。 In addition, when a natural image includes a face such as a person, an animal, and a character imitating a person or an animal, a geometric image including a geometric pattern having the same size as the face may be used. For example, a circle whose difference between the horizontal or vertical length of the face and the radius is a first threshold value or less, an ellipse whose difference between the horizontal length of the face and the short axis length is a second threshold value or less, or the vertical length of the face A geometric image including an ellipse having a difference between the length of the long axis and the length of the major axis equal to or smaller than a third threshold value as a geometric pattern may be used.
また、複数の診断画像を用いる場合、自然画と幾何学画像の配置が相互に異なる複数の診断画像を用いてもよい。例えば、自然画と、自然画に対して第1方向に配置された幾何学模様とを含む診断画像を用いた後、自然画と、自然画に対して第1方向と異なる第2方向(例えば第1方向の逆方向)に配置された幾何学模様とを含む診断画像を用いてもよい。これにより診断の精度を向上させることができる。 Moreover, when using a some diagnostic image, you may use the some diagnostic image from which arrangement | positioning of a natural image and a geometric image differs mutually. For example, after using a diagnostic image including a natural image and a geometric pattern arranged in the first direction with respect to the natural image, the natural image and a second direction different from the first direction with respect to the natural image (for example, A diagnostic image including a geometric pattern arranged in a direction opposite to the first direction may be used. Thereby, the accuracy of diagnosis can be improved.
図39は、幾何学画像2301と、自然画2302とを含む診断画像の例である。なお、図39では、公園の広場および木を背景にして3人の人物を含む自然画2302を模式的に示しているが、このような構図の写真を自然画2302として用いてもよい。図39では色を示していないが、カラーの自然画2302を用いる場合は、自然画2302の色に類似させた色の幾何学模様を含む幾何学画像2301を用いてもよい。例えば、背景の森や広場の草の緑色に合わせて、幾何学模様の背景を緑色としてもよい。また、人物の服装の色と類似する色の幾何学模様(図39の例では、線が多数重なる部分など)を含む幾何学画像2301を用いてもよい。 FIG. 39 is an example of a diagnostic image including a geometric image 2301 and a natural image 2302. In FIG. 39, a natural image 2302 including three persons with a park square and a tree as a background is schematically shown. However, a photograph with such a composition may be used as the natural image 2302. Although no color is shown in FIG. 39, when a natural color image 2302 is used, a geometric image 2301 including a color geometric pattern similar to the color of the natural image 2302 may be used. For example, the background of the geometric pattern may be green in accordance with the green of the background forest or the grass of the square. In addition, a geometric image 2301 including a geometric pattern of a color similar to the color of a person's clothes (in the example of FIG. 39, a portion where a large number of lines overlap) may be used.
図40は、幾何学画像2401と、自然画2402とを含む診断画像の例である。図40では、公園の広場および木を背景にして2人の人物を含む自然画2402を模式的に示している。図40では、2人の人物の顔の大きさと同程度の大きさの2つの円形の幾何学模様を含む幾何学画像2401の例が示されている。図40では色を示していないが、例えば、2人の人物の服装の色それぞれと一致または類似する色の円形の幾何学模様を用いてもよい。 FIG. 40 is an example of a diagnostic image including a geometric image 2401 and a natural image 2402. FIG. 40 schematically shows a natural image 2402 including two persons against a park square and trees. FIG. 40 shows an example of a geometric image 2401 including two circular geometric patterns having the same size as the faces of two persons. Although the color is not shown in FIG. 40, for example, a circular geometric pattern having a color that matches or is similar to the color of clothes of two persons may be used.
図41は、幾何学画像2501と、自然画2502とを含む診断画像の例である。図41では、1人の乳児を含む自然画2502を模式的に示している。また、図41では、この乳児の顔の大きさと同程度の大きさの楕円形の幾何学模様を含む幾何学画像2501の例が示されている。図41では色を示していないが、例えば、自然画内の乳児や背景の色と同じまたは類似する色の幾何学模様または背景を含む幾何学模様を用いてもよい。また、自然画内の色の配置と、幾何学模様の色の配置は同じまたは類似してもよい。また、自然画内の色の濃淡の配置と、幾何学模様の色の濃淡の配置は同じまたは類似してもよい。 FIG. 41 is an example of a diagnostic image including a geometric image 2501 and a natural image 2502. FIG. 41 schematically shows a natural image 2502 including one infant. In addition, FIG. 41 shows an example of a geometric image 2501 including an elliptical geometric pattern having a size similar to the size of the infant's face. Although the color is not shown in FIG. 41, for example, a geometric pattern having the same or similar color as the color of the infant or background in the natural image or a background may be used. Further, the arrangement of colors in the natural image and the arrangement of colors in the geometric pattern may be the same or similar. Further, the arrangement of color shading in the natural image and the shading arrangement of the color of the geometric pattern may be the same or similar.
図42は、幾何学画像2602と、自然画2601とを含む診断画像の例である。図42では、空を背景にして4人の人物を含む自然画2601を模式的に示している。図42では色を示していないが、例えば、背景の空の青色に合わせて、青色の幾何学模様を含む幾何学画像2602を用いてもよい。 FIG. 42 is an example of a diagnostic image including a geometric image 2602 and a natural image 2601. FIG. 42 schematically shows a natural image 2601 including four persons with the sky as a background. Although the color is not shown in FIG. 42, for example, a geometric image 2602 including a blue geometric pattern may be used in accordance with the blue sky in the background.
図43は、幾何学画像2702と、自然画2701とを含む診断画像の例である。図43では、料理をする2人の人物を含む自然画2701を模式的に示している。また、図43では、2人の人物と、円形のフライパンとに対応する3つの円形の幾何学模様を含む幾何学画像2702の例が示されている。図43では色を示していないが、例えば、手前の人物の服装の色(例えば線の色)と同じまたは類似する色の円形の幾何学模様を含む幾何学画像2702を用いてもよい。 FIG. 43 is an example of a diagnostic image including a geometric image 2702 and a natural image 2701. FIG. 43 schematically shows a natural image 2701 including two persons cooking. FIG. 43 shows an example of a geometric image 2702 including three circular geometric patterns corresponding to two persons and a circular frying pan. Although the color is not shown in FIG. 43, for example, a geometric image 2702 including a circular geometric pattern having the same or similar color as the color of clothes of the person in front (for example, the color of a line) may be used.
図44は、幾何学画像2802と、自然画2801とを含む診断画像の例である。図44では、公園の広場および木を背景にして3人の人物を含む自然画2801を模式的に示している。図44では色を示していないが、例えば、背景の森や広場の草の緑色に合わせて、幾何学模様の背景を緑色としてもよい。 FIG. 44 is an example of a diagnostic image including a geometric image 2802 and a natural image 2801. FIG. 44 schematically shows a natural image 2801 including three persons against a park square and trees. Although the color is not shown in FIG. 44, for example, the background of the geometric pattern may be green according to the green of the background forest or the grass of the square.
なお、図39〜図41と比較して、図42〜図44では、幾何学画像と、自然画の配置が左右で入れ替わっている。従って、複数の診断画像を用いる場合は、例えば、図39〜図41のいずれかの診断画像と、図42〜図44のいずれかの診断画像とを順に表示するように構成してもよい。 In addition, compared with FIGS. 39-41, in FIGS. 42-44, the arrangement | positioning of a geometric image and a natural image is switched on right and left. Therefore, when using a plurality of diagnostic images, for example, any one of the diagnostic images of FIGS. 39 to 41 and any of the diagnostic images of FIGS. 42 to 44 may be displayed in order.
次に、診断画像の他の例について説明する。図45−1、図45−2は、診断画像の一例を示す図である。図45−1は、ドット4511で人物の形状を表した動画像である第1オブジェクト4501、第2オブジェクト4502を含む診断画像の例を示す。第1オブジェクト4502は、上下逆向き(180度回転)とした人物の形状をドットで表した画像である。なお、第2オブジェクト4502は上下逆向きに限られるものではなく、正しい向き以外に回転させた動画像であればよい。第2オブジェクト4502として、動画像4501を逆再生(逆の順序で動作)し、回転させた動画像を用いてもよい。健常者は、人物の形状の向きが正しい動画像の方を注視する傾向があることを利用して、発達障害の程度を評価するためである。例えば、評価部359は、人物の形状の向きが正しい動画像が注視される場合に、発達障害の程度に関する指標としての評価値を低くするよう算出する。なお、図面ではドット4511を繋ぐ点線4512が描かれているが、点線4512は実際には表示されていない。 Next, another example of the diagnostic image will be described. 45A and 45B are diagrams illustrating an example of a diagnostic image. FIG. 45A illustrates an example of a diagnostic image including a first object 4501 and a second object 4502 that are moving images in which the shape of a person is represented by dots 4511. The first object 4502 is an image in which the shape of a person turned upside down (rotated 180 degrees) is represented by dots. The second object 4502 is not limited to the upside down direction, and may be a moving image that is rotated in a direction other than the correct direction. As the second object 4502, a moving image that is obtained by rotating the moving image 4501 in reverse (moving in the reverse order) and rotating it may be used. This is because a healthy person evaluates the degree of developmental disability by utilizing the tendency that a moving image in which the direction of the shape of the person is correct is watched. For example, the evaluation unit 359 calculates a lower evaluation value as an index related to the degree of developmental disability when a moving image in which the orientation of the person is correct is watched. In the drawing, a dotted line 4512 connecting the dots 4511 is drawn, but the dotted line 4512 is not actually displayed.
出力制御部354は、スピーカ105に音声を出力するとともに、この音声に合わせて動作する人物の形状を模した動画像である第1オブジェクト4501を表示部210に表示させるとともに、音楽と合わない動作をする人物の形状を上下逆に模した動画像である第2オブジェクト4502を表示部210に表示させる。出力制御部354は、第1オブジェクト4501と逆の順序で動作し、かつ、第1オブジェクト4501を180度回転させたオブジェクトとして、第2オブジェクト4502を表示部210に表示させてもよい。第2オブジェクト4502は音楽例えば、乳幼児によく知られている音楽等をスピーカ105から流すとともに、この音楽に合わせて踊る人物の形状をドット4511で表した動画像を表示させてもよい。ラジオ体操の音楽とともにラジオ体操の動作を表す動画像を表示させてもよい。これにより、馴染みのある音楽および動作と類似した正しい向きの動画像を、健常者がより注視しやすくなるように構成できる。 The output control unit 354 outputs sound to the speaker 105 and causes the display unit 210 to display a first object 4501 that is a moving image simulating the shape of a person who operates according to the sound, and does not match music. The display unit 210 displays a second object 4502 that is a moving image simulating the shape of the person performing the upside down. The output control unit 354 may display the second object 4502 on the display unit 210 as an object that operates in the reverse order of the first object 4501 and rotates the first object 4501 by 180 degrees. The second object 4502 may play music such as music well known to infants from the speaker 105 and display a moving image in which the shape of a person dancing to the music is represented by dots 4511. You may display the moving image showing the operation of radio exercises with the music of radio exercises. Accordingly, it is possible to configure a moving image in a correct direction similar to familiar music and movement so that a healthy person can more easily watch.
なお、図45−1のような診断画像を複数用いて分析を行ってもよい。この場合、正しい向きの動画像の配置が相互に異なる複数の診断画像を用いてもよい。例えば、正しい向きの動画像と、この動画像に対して第1方向に配置された逆向きの動画像とを含む診断画像を用いた後、正しい向きの動画像と、この動画像に対して第1方向と異なる第2方向(例えば第1方向の逆方向)に配置された逆向きの動画像とを含む診断画像を用いてもよい。これにより診断の精度を向上させることができる。第1方向は、例えば、表示部210に向って右である。例えば、2枚の診断画像を用いる場合、図45−1に示すような音声に合わせて動作する人物の形状を模した第1オブジェクト4501と、音声に合わせて動作する第1オブジェクト4501を回転させた第2オブジェクト4502と、を含む第1診断画像を表示部に表示させた後、図45−2に示すような、音声に合わせて動作する人物の形状を模した動画像である第3オブジェクト4503と、第3オブジェクトに対して第1方向と異なる第2方向に配置され、第3オブジェクト4503を回転させた動画像である第4オブジェクト4504と、を含む第2診断画像を表示部210に表示させる。第2方向は例えば表示部210に向って左である。第1診断画像と第2診断画像は、音声に合わせて動作するオブジェクトが左右入れ替えられたものであってもよい。第3オブジェクトは人物の形状をドットで表しており、ドットが音楽に合わせて踊るように動く。第4オブジェクトは上下逆向き(180度回転)とした人物の形状をドットで表した画像であり、ドットの動きは音楽にあっていない。 The analysis may be performed using a plurality of diagnostic images as shown in FIG. In this case, a plurality of diagnostic images having differently arranged moving images may be used. For example, after using a diagnostic image including a moving image in the correct direction and a moving image in the opposite direction arranged in the first direction with respect to the moving image, the moving image in the correct direction and the moving image You may use the diagnostic image containing the moving image of the reverse direction arrange | positioned in the 2nd direction (for example, reverse direction of a 1st direction) different from a 1st direction. Thereby, the accuracy of diagnosis can be improved. The first direction is, for example, right toward the display unit 210. For example, when two diagnostic images are used, the first object 4501 imitating the shape of a person who operates according to sound and the first object 4501 that operates according to sound are rotated as shown in FIG. A third object that is a moving image imitating the shape of a person who operates in accordance with the sound, as shown in FIG. 45-2, after the first diagnostic image including the second object 4502 is displayed on the display unit. A second diagnostic image including 4503 and a fourth object 4504 that is arranged in a second direction different from the first direction with respect to the third object and is a moving image obtained by rotating the third object 4503 is displayed on the display unit 210. Display. The second direction is, for example, left toward the display unit 210. The first diagnostic image and the second diagnostic image may be ones in which objects that operate in accordance with the sound are interchanged. The third object represents the shape of a person with dots, and the dots move as if dancing to music. The fourth object is an image in which the shape of a person upside down (rotated 180 degrees) is represented by dots, and the movement of the dots is not in music.
次に、診断画像を表示する前後に表示するアイキャッチ画像の例について説明する。アイキャッチ画像とは、被験者を注目させるために表示する画像(診断前画像)を表す。図46〜図48は、アイキャッチ画像の一例を示す図である。図46に示すように、被験者に注目させる位置(図46の例では表示画面101の中央)に、キャラクタの顔3001と、キャラクタが所持する食物3002とを含むアイキャッチ画像が表示される。出力制御部354は、例えば、診断画像を表示する前に、被験者に注目させるために図46のようなアイキャッチ画像を表示する。 Next, an example of an eye catch image displayed before and after displaying a diagnostic image will be described. The eye-catching image represents an image (pre-diagnosis image) that is displayed in order to attract the subject. 46 to 48 are diagrams showing examples of the eye catch image. As shown in FIG. 46, an eye-catching image including the character's face 3001 and the food 3002 possessed by the character is displayed at a position to be noted by the subject (the center of the display screen 101 in the example of FIG. 46). For example, before displaying a diagnostic image, the output control unit 354 displays an eye catch image as shown in FIG.
出力制御部354は、診断画像の背景と、アイキャッチ画像の背景とを、異なる表示態様で表示してもよい。例えば、診断画像の背景の色と、アイキャッチ画像の背景の色とを異なるように表示してもよい。これにより、異なる画像に切り替えられたことを被験者が容易に認識できるようになる。この結果、被験者を表示画面101に、より注目させることができる。なお、表示態様は色に限られるものではなく、例えば、色調および輝度などでもよい。 The output control unit 354 may display the background of the diagnostic image and the background of the eye catch image in different display modes. For example, the background color of the diagnostic image may be displayed differently from the background color of the eye catch image. Thus, the subject can easily recognize that the image has been switched to a different image. As a result, the subject can be more focused on the display screen 101. Note that the display mode is not limited to color, and may be, for example, color tone and luminance.
出力制御部354は、特定位置(例えば、注視させる位置)を中心に縮小するように動作する動画像をアイキャッチ画像として表示してもよい。また、出力制御部354は、スピーカ105に音声を出力するとともに、この音声に合わせて動作するアイキャッチ画像を表示してもよい。例えば、「見て見て」のように被験者に呼びかける音声を出力するとともに、アイキャッチ画像を表示してもよい。これにより、被験者を表示画面101の特定位置に注目させることができる。この結果、分析処理時に被験者の視点を正しく検出し、分析(診断)の精度を向上させることができる。 The output control unit 354 may display a moving image that operates so as to reduce around a specific position (for example, a position to be watched) as an eye catch image. The output control unit 354 may output sound to the speaker 105 and display an eye catch image that operates in accordance with the sound. For example, a voice calling to the subject such as “Look and Watch” may be output and an eye-catching image may be displayed. Thereby, the subject can be made to pay attention to the specific position on the display screen 101. As a result, the subject's viewpoint can be correctly detected during analysis processing, and the accuracy of analysis (diagnosis) can be improved.
出力制御部354は、音声に合わせてアイキャッチ画像を動作させた後、特定位置を中心に縮小するようにアイキャッチ画像を表示してもよい。図47は、図46から動作した後のアイキャッチ画像の例を示している。図48は、縮小させた後のアイキャッチ画像(顔3201、食物3202)の例を示す。出力制御部354は、枠内の画像のうち一部のみを音声に合わせて動作させるように表示してもよい。例えば、キャラクタの顔3101は動作させず、食物3102のみを動作させてもよい。図47では、キャラクタの鼻の部分も変化する画像の例が示されている。このように画像の中心に近い部分のみを動作させれば、被験者に、より中心に近い位置を注視させることができる。 The output control unit 354 may display the eye catch image so that the eye catch image is reduced around the specific position after the eye catch image is operated according to the sound. FIG. 47 shows an example of an eye catch image after operating from FIG. FIG. 48 shows an example of an eye-catching image (face 3201, food 3202) after being reduced. The output control unit 354 may display only a part of the image in the frame so as to operate according to the sound. For example, only the food 3102 may be operated without moving the character's face 3101. FIG. 47 shows an example of an image in which the character's nose also changes. Thus, if only the part near the center of the image is operated, it is possible to make the subject gaze at a position closer to the center.
図49は、アイキャッチ画像の表示と音声出力のタイミングの例を示す図である。図49の例では、出力制御部354は、サイズが大きいキャラクタのアイキャッチ画像の表示とともに、「見て、見てー」と呼びかける音声の出力を開始する。出力制御部354は、アイキャッチ画像として、音声とともに動作する画像(動画像)を用いることができる。この場合、例えば図49の「画像E1の表示」と記載したタイミングで、図46のアイキャッチ画像が表示される。また、例えば「画像E2の表示」と記載したタイミングで、図47のアイキャッチ画像が表示される。 FIG. 49 is a diagram illustrating an example of the timing of displaying an eye catch image and outputting sound. In the example of FIG. 49, the output control unit 354 starts outputting the voice calling “Look, see!” Along with the display of the eye-catching image of the large character. The output control unit 354 can use an image (moving image) that operates with sound as an eye catch image. In this case, for example, the eye catch image of FIG. 46 is displayed at the timing described as “display of image E1” of FIG. For example, the eye catch image of FIG. 47 is displayed at the timing described as “display of image E2”.
音声の出力が終了すると、出力制御部354は、アイキャッチ画像の収縮を開始する。アイキャッチ画像を収縮表示する間、出力制御部354は、音声を出力しない(無音)こととしてもよい。出力制御部354は、アイキャッチ画像のサイズが0になるまで収縮表示を継続する。例えば図49の「画像E3の表示」と記載したタイミングで、図48のアイキャッチ画像が表示される。 When the audio output ends, the output control unit 354 starts contraction of the eye catch image. During the contraction display of the eye-catching image, the output control unit 354 may not output sound (silence). The output control unit 354 continues the contraction display until the size of the eye catch image becomes zero. For example, the eye catch image of FIG. 48 is displayed at the timing described as “display of image E3” of FIG.
次に、結果表示画面、および、結果を出力する処理の詳細について説明する。上述のように、例えばメニュー画面で結果表示ボタン502が押下されると、出力制御部354は、結果表示画面を表示部210に表示させる。図51〜図54は、結果表示画面の一例を示す図である。 Next, details of the result display screen and the process of outputting the results will be described. As described above, for example, when the result display button 502 is pressed on the menu screen, the output control unit 354 causes the display unit 210 to display the result display screen. 51 to 54 are diagrams illustrating an example of a result display screen.
出力制御部354は、評価結果を出力する対象者ごとに異なる結果表示画面を表示してもよい。例えば、出力制御部354は、被験者に出力する結果表示方法、診断者(医師など)に出力する結果表示方法、のうち、指定された結果表示方法で結果を表示してもよい。例えば、被験者に対しては自己の評価結果のみを表示する結果表示方法で結果を表示し、診断者に対しては複数の被験者に対する複数の評価結果を表示する結果表示方法で結果を表示してもよい。このように対象者に応じて表示方法を切り替えることにより、利便性を向上させることができる。 The output control unit 354 may display a different result display screen for each target person who outputs the evaluation result. For example, the output control unit 354 may display a result by a designated result display method among a result display method output to a subject and a result display method output to a diagnostician (such as a doctor). For example, for the subject, the result is displayed by a result display method that displays only the self-evaluation result, and for the diagnostician, the result is displayed by a result display method that displays a plurality of evaluation results for a plurality of subjects. Also good. Thus, convenience can be improved by switching a display method according to a subject.
出力制御部354がどの結果表示方法で結果を表示するかを指定する指定方法は任意であるが、例えば、外部ファイル(INIファイル等)などに結果表示方法の指定を保存し、保存した指定を参照して結果表示方法を決定する方法、表示する結果表示方法を指定する機能をメニュー画面に追加する方法、および、ログイン認証機能により認証された対象者の権限に応じて指定を切り替える方法などを適用できる。 The designation method for specifying the result display method by which the output control unit 354 displays the result is arbitrary. For example, the designation of the result display method is saved in an external file (such as an INI file), and the saved designation is used. How to refer to determine the result display method, how to add the function to specify the result display method to be displayed to the menu screen, how to switch the specification according to the authority of the target person authenticated by the login authentication function, etc. Applicable.
図50は、被験者に出力する結果表示画面の一例である。図50に示すように、被験者に対しては、当該被験者に対する評価結果(分析結果)のみを表示する結果表示方法で結果を表示してもよい。図50では、分析結果出力欄3301に、評価部359が算出した発達障害の程度に関する指標である評価値がパーセンテージで表示される例が示されている。基本メニューに戻るボタン3302が押下されると、例えば図16のようなメニュー画面が表示される。評価部359は、複数の評価項目によって、評価値を算出する。評価部359は上述した複数の評価項目のそれぞれで、評価値を高くするか低くするかを判定し、最終的な評価値として、分析結果出力欄3301に出力する。評価部359は、それぞれの評価項目において、評価値をポイントとして付与してもよい。 FIG. 50 is an example of a result display screen output to the subject. As shown in FIG. 50, for the subject, the result may be displayed by a result display method that displays only the evaluation result (analysis result) for the subject. FIG. 50 shows an example in which an evaluation value that is an index related to the degree of developmental disorder calculated by the evaluation unit 359 is displayed as a percentage in the analysis result output field 3301. When the return button 3302 to the basic menu is pressed, for example, a menu screen as shown in FIG. 16 is displayed. The evaluation unit 359 calculates an evaluation value using a plurality of evaluation items. The evaluation unit 359 determines whether to raise or lower the evaluation value for each of the plurality of evaluation items described above, and outputs the result to the analysis result output column 3301 as a final evaluation value. The evaluation unit 359 may give an evaluation value as a point in each evaluation item.
図50のように評価結果を表示部210に表示する代わりに、または、評価結果を表示部210に表示するとともに、出力制御部354が、評価結果を印字した紙などの記録媒体をプリンタ324に出力させるように構成してもよい。 Instead of displaying the evaluation result on the display unit 210 as shown in FIG. 50 or displaying the evaluation result on the display unit 210, the output control unit 354 supplies a recording medium such as paper on which the evaluation result is printed to the printer 324. You may comprise so that it may output.
図51〜図54は、診断者に出力する結果表示画面の一例である。図51に示すように、診断者に対しては、複数の被験者に対する複数の評価結果を表示する結果表示方法で結果を表示してもよい。図51の結果表示画面は、基本メニューに戻るボタン3401と、表示ボタン3402と、情報表示欄3403と、被験者リスト3404と、評価項目リスト3405と、結果表示欄3406と、を含む。 51 to 54 are examples of result display screens output to the diagnostician. As shown in FIG. 51, for the diagnostician, the result may be displayed by a result display method for displaying a plurality of evaluation results for a plurality of subjects. The result display screen in FIG. 51 includes a return button 3401 to the basic menu, a display button 3402, an information display column 3403, a subject list 3404, an evaluation item list 3405, and a result display column 3406.
基本メニューに戻るボタン3401が押下されると、例えば図16のようなメニュー画面が表示される。注視点を表示するための注視点表示ボタン3402が押下されると、注視点表示ボタン3402の右のラジオボタンで選択された表示方式により、検出された注視点が表示される。選択できる注視点の表示方式としては、例えば、「ヒートマップ表示」、「視点移動軌跡で表示」、「タイル表示」、「視点移動をリプレイ」が挙げられる。「ヒートマップ表示」は、図55で示すような一定時間に検出された被験者の視線を画面上にプロットする表示方式である。座標が重なる場合は、出力制御部354は、色を「青系→緑系→黄色系→オレンジ系→赤系」へ変化させて表示する。「視点移動軌跡で表示」は図56で示すように一定時間に検出された被験者の視線を画面上にプロットし、時間的に連続した点を線で繋いだ表示方式である。「タイル表示」は、図57で示すように一定面積のブロックに含まれる注視点の検出数に応じて、注視点を検出したブロックの色を変化させる表示方式である。例えば、出力制御部354は、注視点の検出数に応じて色を「青系→緑系→黄色系→オレンジ系→赤系」へ変化させて表示する。「視点移動をリプレイ」は、被験者の注視点の動きを動画で再現する表示方式である。例えば、図58で示すように、注視点を小さな丸で表現する。 When the return button 3401 to the basic menu is pressed, for example, a menu screen as shown in FIG. 16 is displayed. When a gazing point display button 3402 for displaying a gazing point is pressed, the detected gazing point is displayed by the display method selected by the right radio button of the gazing point display button 3402. Examples of the display method of the gazing point that can be selected include “heat map display”, “display with viewpoint movement locus”, “tile display”, and “replay viewpoint movement”. “Heat map display” is a display method for plotting the visual line of a subject detected at a certain time as shown in FIG. 55 on a screen. When the coordinates overlap, the output control unit 354 displays the color by changing the color from “blue system → green system → yellow system → orange system → red system”. “Display with viewpoint movement locus” is a display method in which the line of sight of a subject detected at a certain time is plotted on a screen as shown in FIG. 56, and continuous points in time are connected by a line. “Tile display” is a display method in which the color of a block in which a gazing point is detected is changed in accordance with the number of gazing points detected in a block having a certain area as shown in FIG. For example, the output control unit 354 changes the color from “blue series → green series → yellow series → orange series → red series” according to the number of detected gazing points. “Replay viewpoint movement” is a display method that reproduces the movement of the gaze point of the subject with a moving image. For example, as shown in FIG. 58, the gazing point is expressed by a small circle.
情報表示欄3403は、現在選択されている被験者に関する情報を表示する欄である。情報表示欄3403には、例えば、図17の分析メニュー画面の情報入力欄613で入力された情報、および、分析日時などが表示される。情報の編集ボタンが押下された場合に、表示されている情報を編集するための編集画面(図示せず)を表示してもよい。 The information display column 3403 is a column for displaying information related to the currently selected subject. In the information display column 3403, for example, the information input in the information input column 613 on the analysis menu screen in FIG. 17 and the analysis date and time are displayed. When the information editing button is pressed, an editing screen (not shown) for editing the displayed information may be displayed.
被験者リスト3404は、被験者を選択可能に表示する領域(第1領域)である。図51では、上から1番目の行に対応する被験者が選択された例が示されている。評価項目リスト3405は、分析に用いられた評価項目を選択可能に表示する領域(第2領域)である。例えば、被験者リスト3404で選択された被験者に対して表示された1以上の評価項目が、評価項目リスト3405に表示される。評価項目リスト3405は、評価項目ごとに番号が振られており(No.)、一連の診断画像(動画)のどのシーンか(Scene)、タイトル(Title)、診断画像のどの領域の視点を評価するかなどの評価方法の種類(Type)、一連の診断画像(動画)のうちの該当評価項目の開始時間、該当評価項目の測定時間、測定時間内に診断画像内で注視点が検出された割合を表すデータ取得率(data rate)が対応付けられている。また、この例の評価項目リスト3405には、評価領域外に視点が検出された割合(Object以外の割合)、オブジェクト1の評価領域内に視点が検出された回数(Scan Object数1)、オブジェクト2の評価領域内に視点が検出された回数(Scan Object数2)、オブジェクト1の評価領域内に注視点が検出された割合(Object1の割合)、オブジェクト1の評価領域内に視点が検出された割合(Object2の割合)が表示されている。 The subject list 3404 is an area (first area) for displaying subjects in a selectable manner. FIG. 51 shows an example in which the subject corresponding to the first row from the top is selected. The evaluation item list 3405 is an area (second area) that displays the evaluation items used in the analysis in a selectable manner. For example, one or more evaluation items displayed for the subject selected in the subject list 3404 are displayed in the evaluation item list 3405. The evaluation item list 3405 is numbered for each evaluation item (No.), and the scene (Scene) of the series of diagnostic images (moving images), the title (Title), and the viewpoint of which region of the diagnostic images are evaluated. The type of evaluation method (Type), the start time of the corresponding evaluation item in the series of diagnostic images (moving images), the measurement time of the corresponding evaluation item, and the gazing point was detected in the diagnostic image within the measurement time A data acquisition rate (data rate) representing a ratio is associated. In the evaluation item list 3405 of this example, the rate at which the viewpoint is detected outside the evaluation region (ratio other than Object), the number of times the viewpoint is detected within the evaluation region of the object 1 (scan object number 1), the object The number of times the viewpoint was detected in the evaluation area 2 (scan object number 2), the ratio that the gazing point was detected in the evaluation area of the object 1 (the ratio of Object1), and the viewpoint was detected in the evaluation area of the object 1 Ratio (Object2 ratio) is displayed.
評価方法の種類Typeは、例えば、Type−Dでは、オブジェクト1として目、オブジェクト2として口、Type−Eでは、オブジェクト1として診断画像の左半分、オブジェクト2として診断画像の右半分がある。診断支援装置100は、一連の診断画像(動画)のどの再生時間にどの評価を行うかを対応付けて記憶しており、評価リストとして表示する。オブジェクト1または2の評価領域内に視点が検出された割合は、以下のように算出される。診断支援装置100は、例えば、1秒間に50回、注視点を検出する。例えば、測定時間が4秒間の評価項目の場合、200回の注視点の検出を行う。診断画像内で注視点が検出された回数が180回、オブジェクト1の評価領域内に注視点が検出された回数が、54回、オブジェクト2の評価領域内に注視点が検出された回数が108回の場合は、(data rate)=0.900、(Object以外の割合)=0.100、(Scan Object数1)=54、(Scan Object数2)=108となり、(Object1の割合)=0.300、(Object2の割合)=0.600となる。視点検出部352は少なくとも、診断画像が表示されている間の被験者の視点を検出する。 The types of evaluation methods are, for example, type-D: eye as object 1, mouth as object 2, and type-E: object 1 as the left half of the diagnostic image and object 2 as the right half of the diagnostic image. The diagnosis support apparatus 100 stores which evaluation is performed at which reproduction time of a series of diagnostic images (moving images) in association with each other, and displays the evaluation list. The ratio at which the viewpoint is detected in the evaluation area of the object 1 or 2 is calculated as follows. For example, the diagnosis support apparatus 100 detects a gazing point 50 times per second. For example, in the case of an evaluation item with a measurement time of 4 seconds, 200 gaze points are detected. The number of times that the gazing point is detected in the diagnostic image is 180 times, the number of times that the gazing point is detected in the evaluation area of the object 1 is 54 times, and the number of times that the gazing point is detected in the evaluation area of the object 2 is 108. In the case of the number of times, (data rate) = 0.900, (ratio other than Object) = 0.100, (scan object number 1) = 54, (scan object number 2) = 108, and (object 1 ratio) = 0.300, (ratio of Object2) = 0.600. The viewpoint detection unit 352 detects at least the viewpoint of the subject while the diagnostic image is displayed.
結果表示欄3406は、検出結果を表示する領域(第3領域)である。結果表示欄3406は、被験者リスト3404から選択された被験者に対して表示された診断画像、例えば、評価項目リスト3405に表示された評価項目のうち、選択された評価項目に対する検出結果が表示される。評価項目が選択されていない場合は、複数の評価項目に対する検出結果を総合して表示してもよい。図51の結果表示欄3406は、このように複数の評価項目に対する検出結果を総合して表示する場合の例を示している。また、評価項目リスト3501で選択された評価項目とTypeが共通する他の評価項目の検出結果を総合して結果表示欄に表示してもよい。 The result display column 3406 is an area (third area) for displaying the detection result. The result display field 3406 displays the detection result for the selected evaluation item among the diagnostic images displayed for the subjects selected from the subject list 3404, for example, the evaluation items displayed in the evaluation item list 3405. . When the evaluation item is not selected, the detection results for the plurality of evaluation items may be displayed together. The result display column 3406 in FIG. 51 shows an example in the case where the detection results for a plurality of evaluation items are combined and displayed. In addition, detection results of other evaluation items having the same type as the evaluation item selected in the evaluation item list 3501 may be combined and displayed in the result display column.
図51に示すように、結果表示欄3406で、評価結果の表示態様を、複数の表示態様から指定できるように構成してもよい。図51では、「DataRate」、「Type−A」〜「Type−F」の7種類の表示態様のいずれかを選択タブにより指定可能にする例が示されている。 As shown in FIG. 51, the result display field 3406 may be configured so that the display form of the evaluation result can be designated from a plurality of display forms. FIG. 51 shows an example in which one of seven types of display modes “DataRate”, “Type-A” to “Type-F” can be specified by a selection tab.
図52は、「Type−D」が指定された場合の結果表示画面の例である。図52では、Type−Dに対応する複数の評価項目による評価結果をグラフ化した結果表示欄3511の例が示されている。このように、種類(Type)が共通する複数の評価項目を総合して結果表示欄に表示してもよい。なお、図52の評価項目リスト3501の例では、「Type」欄に評価項目の種類が表示されている。 FIG. 52 is an example of a result display screen when “Type-D” is designated. FIG. 52 shows an example of a result display field 3511 in which the evaluation results of a plurality of evaluation items corresponding to Type-D are graphed. As described above, a plurality of evaluation items having a common type may be displayed in the result display column. In the example of the evaluation item list 3501 in FIG. 52, the type of evaluation item is displayed in the “Type” column.
図53は、「Type−E」が指定された場合の結果表示画面の例である。図53では、Type−Eに対応する複数の評価項目による評価結果をグラフ化した結果表示欄3611の例が示されている。 FIG. 53 is an example of a result display screen when “Type-E” is designated. FIG. 53 shows an example of a result display field 3611 in which the evaluation results of a plurality of evaluation items corresponding to Type-E are graphed.
図54は、「Type−F」が指定された場合の結果表示画面の例である。図54では、Type−Fに対応する複数の評価項目による評価結果をグラフ化した結果表示欄3711の例が示されている。 FIG. 54 is an example of a result display screen when “Type-F” is designated. FIG. 54 shows an example of a result display field 3711 in which the evaluation results of a plurality of evaluation items corresponding to Type-F are graphed.
出力制御部354は、被験者リスト内で選択された被験者、および、評価項目リスト内で選択された評価項目の少なくとも一方が変更された場合に、変更後の被験者および変更後の評価項目に対応する評価結果を結果表示欄に表示するように構成してもよい。本実施形態では、このように被験者を選択する欄(被験者リスト)、評価項目を選択する欄(評価項目リスト)、および、結果表示欄を1つの画面内に表示する。そして、被験者および評価項目の選択が切り替えられた場合に、結果表示欄に表示する評価結果が、変更された被験者および評価項目に対応する評価結果に切り替えられる。これにより、診断者は、簡単な操作で所望の評価結果を表示させることができる。 The output control unit 354 corresponds to the changed subject and the changed evaluation item when at least one of the subject selected in the subject list and the evaluation item selected in the evaluation item list is changed. You may comprise so that an evaluation result may be displayed on a result display column. In this embodiment, a column for selecting a subject (subject list), a column for selecting an evaluation item (evaluation item list), and a result display column are displayed in one screen. Then, when the selection of the subject and the evaluation item is switched, the evaluation result displayed in the result display column is switched to the evaluation result corresponding to the changed subject and the evaluation item. Thereby, the diagnostician can display a desired evaluation result with a simple operation.
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)キャリブレーションに用いる画像、補正用注視点の検出に用いる画像、および、診断画像を、この順に表示させるため、診断に必要な各処理を円滑に実行し、診断の精度を向上させることができる。
(2)自然画と、当該自然画に類似する幾何学画像とを含む診断画像を用いて診断できるため、健常者が誤って幾何学画像を注視する可能性を低減できる。これにより、診断の精度を向上させることができる。
(3)適正位置を示すスケールに対して目を表す画像が表示されるため、被験者はカメラに対して自分の位置が正しいか判断して調整することができる。また、目の適切な位置の範囲を表す基準領域に対応する画像内に、動画像を表示させるため、被験者に表示画面を注目させ、被験者の位置を適切に調整させることができる。これにより、診断の精度を向上させることができる。
(4)補正用注視点の検出に用いる画像として、相互に異なる複数の画像を用いるため、被験者を飽きさせずに画像に注目させることができる。これにより、診断の精度を向上させることができる。
(5)音声に合わせて動作する正しい向きの人物の形状の動画像と、正しくない向きの動画像とを含む診断画像を用いるため、正しい向きの動画像を、健常者がより注視しやすくなる。これにより、診断の精度を向上させることができる。
(6)診断画像の背景と、被験者を注目させるために表示するアイキャッチ画像の背景とを、異なる表示態様で表示するため、異なる画像に切り替えられたことを被験者が容易に認識できるようになる。この結果、被験者を表示画面に注目させることができ、診断の精度を向上させることができる。
(7)音声に合わせて動作した後、特定位置を中心に縮小するように、診断前画像を、診断画像を表示する前に表示部に表示させるアイキャッチ画像を表示するため、最初被験者の注意を引きながら診断映像を始める直前には無音で落ち着いた診断しやすい状況を作りながら表示画面の特定位置に注目させることができる。この結果、分析処理時に被験者の視点を正しく検出し、診断の精度を向上させることができる。
(8)評価結果を出力する対象者に応じて、評価結果を表示する結果表示画面を切り替えることができる。これにより、操作者の利便性を向上させることができる。
(9)被験者を選択する欄、診断画像を選択する欄、および、結果表示欄を1つの画面内に表示し、被験者および診断画像の選択が切り替えられた場合に、結果表示欄に表示する評価結果が、変更された被験者および診断画像に対応する評価結果に切り替えられる。これにより、診断者は、簡単な操作で所望の評価結果を表示させることができ、診断者の利便性を向上させることができる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) Since an image used for calibration, an image used for detecting a correction gazing point, and a diagnostic image are displayed in this order, each process necessary for diagnosis is smoothly executed to improve the accuracy of diagnosis. Can do.
(2) Since diagnosis can be performed using a diagnostic image including a natural image and a geometric image similar to the natural image, it is possible to reduce the possibility that a healthy person mistakenly looks at the geometric image. Thereby, the accuracy of diagnosis can be improved.
(3) Since the image representing the eye is displayed on the scale indicating the appropriate position, the subject can determine whether his / her position is correct with respect to the camera and adjust it. Further, since the moving image is displayed in the image corresponding to the reference region representing the range of the appropriate position of the eyes, it is possible to make the subject pay attention to the display screen and appropriately adjust the position of the subject. Thereby, the accuracy of diagnosis can be improved.
(4) Since a plurality of different images are used as the images used for detection of the correction gazing point, the images can be focused without causing the subject to get bored. Thereby, the accuracy of diagnosis can be improved.
(5) Since a diagnostic image including a moving image of the shape of a correctly oriented person that operates in accordance with the sound and a moving image of an incorrect orientation is used, it becomes easier for a healthy person to watch the moving image of the correct orientation. . Thereby, the accuracy of diagnosis can be improved.
(6) Since the background of the diagnostic image and the background of the eye-catching image displayed to draw attention to the subject are displayed in different display modes, the subject can easily recognize that the screen has been switched to a different image. . As a result, the subject can be focused on the display screen, and the accuracy of diagnosis can be improved.
(7) After operating in accordance with the sound, the pre-diagnosis image is displayed so that the pre-diagnosis image is displayed on the display unit before displaying the diagnosis image so as to be reduced around the specific position. Just before starting a diagnostic image while pulling, it is possible to focus on a specific position on the display screen while creating a quiet and easy-to-diagnose situation. As a result, the viewpoint of the subject can be correctly detected during the analysis process, and the accuracy of diagnosis can be improved.
(8) The result display screen for displaying the evaluation result can be switched according to the target person who outputs the evaluation result. Thereby, the convenience for the operator can be improved.
(9) A column for selecting a subject, a column for selecting a diagnostic image, and a result display column are displayed in one screen, and the evaluation displayed in the result display column when the selection of the subject and the diagnostic image is switched. The result is switched to the evaluation result corresponding to the changed subject and diagnostic image. Thereby, the diagnostician can display a desired evaluation result with a simple operation, and can improve the convenience of the diagnostician.
100 診断支援装置
101 表示画面
102 ステレオカメラ
105 スピーカ
150 記憶部
202 右カメラ
203 赤外LED光源
204 左カメラ
205 赤外LED光源
208 駆動・IF部
210 表示部
300 制御部
351 視線検出部
352 視点検出部
353 距離検出部
354 出力制御部
355 較正部
356 領域分割部
357 領域特定部
358 補正部
359 評価部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display screen 102 Stereo camera 105 Speaker 150 Memory | storage part 202 Right camera 203 Infrared LED light source 204 Left camera 205 Infrared LED light source 208 Drive / IF part 210 Display part 300 Control part 351 Gaze detection part 352 View point detection part 353 Distance detection unit 354 Output control unit 355 Calibration unit 356 Region division unit 357 Region specification unit 358 Correction unit 359 Evaluation unit
Claims (4)
被験者を撮像する撮像部と、
前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出する視線検出部と、
前記視線方向に基づいて、前記表示部の表示領域における前記被験者の視点を検出する視点検出部と、
複数の診断画像を前記表示部に表示させる出力制御部と、
前記出力制御部は、さらに、前記被験者を選択可能に表示する第1領域、前記視点の評価項目を選択可能に表示する第2領域、および、前記第1領域から選択された前記被験者に対して表示された、前記第2領域から選択された前記評価項目に対する前記視点の検出結果を表示する第3領域を含む結果画面を前記表示部に表示させること、
を特徴とする診断支援装置。 A display unit;
An imaging unit for imaging a subject;
From a captured image captured by the imaging unit, a gaze detection unit that detects the gaze direction of the subject,
A viewpoint detection unit that detects the viewpoint of the subject in the display area of the display unit based on the line-of-sight direction;
An output control unit for displaying a plurality of diagnostic images on the display unit;
The output control unit further includes a first area for selectively displaying the subject, a second area for selectively displaying the evaluation item of the viewpoint, and the subject selected from the first area. Causing the display unit to display a result screen including a third area that displays the detection result of the viewpoint for the evaluation item selected from the second area,
A diagnosis support apparatus characterized by the above.
を特徴とする請求項1に記載の診断支援装置。 The output control unit, when at least one of the subject selected from the first region and the diagnostic image selected from the second region is changed, the selected subject and the selected subject Displaying the detection result corresponding to the diagnostic image for the third region;
The diagnosis support apparatus according to claim 1.
を特徴とする請求項1に記載の診断支援装置。 The output control unit is configured to display the detection result in the third region in a specified display mode among a plurality of display modes;
The diagnosis support apparatus according to claim 1.
前記視線方向に基づいて、表示部の表示領域における前記被験者の視点を検出する視点検出ステップと、
複数の診断画像を前記表示部に表示させる出力制御ステップと、を含み、
前記出力制御ステップは、さらに、前記被験者を選択可能に表示する第1領域、前記視点の評価項目を選択可能に表示する第2領域、および、前記第1領域から選択された前記被験者に対して表示された、前記第2領域から選択された前記評価項目に対する前記視点の検出結果を表示する第3領域を含む結果画面を前記表示部に表示させること、
を特徴とする診断支援方法。 A line-of-sight detection step for detecting a line-of-sight direction of the subject from a captured image captured by an imaging unit that images the subject,
A viewpoint detection step of detecting the viewpoint of the subject in the display area of the display unit based on the line-of-sight direction;
An output control step of displaying a plurality of diagnostic images on the display unit,
The output control step further includes a first area for selectively displaying the subject, a second area for selectively displaying the evaluation item of the viewpoint, and the subject selected from the first area. Causing the display unit to display a result screen including a third area that displays the detection result of the viewpoint for the evaluation item selected from the second area,
A diagnostic support method characterized by the above.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012218875A JP5880379B2 (en) | 2012-09-28 | 2012-09-28 | Diagnosis support apparatus and diagnosis support method |
PCT/JP2013/076158 WO2014051010A1 (en) | 2012-09-28 | 2013-09-26 | Diagnosis assistance device and diagnosis assistance method |
EP13841259.8A EP2907453B1 (en) | 2012-09-28 | 2013-09-26 | Diagnosis assistance device and diagnosis assistance method |
US14/670,013 US9898816B2 (en) | 2012-09-28 | 2015-03-26 | Diagnosis assisting apparatus and method for assisting diagnosis |
US15/867,125 US10832401B2 (en) | 2012-09-28 | 2018-01-10 | Diagnosis assisting apparatus and method for assisting diagnosis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012218875A JP5880379B2 (en) | 2012-09-28 | 2012-09-28 | Diagnosis support apparatus and diagnosis support method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014068946A JP2014068946A (en) | 2014-04-21 |
JP5880379B2 true JP5880379B2 (en) | 2016-03-09 |
Family
ID=50744724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012218875A Active JP5880379B2 (en) | 2012-09-28 | 2012-09-28 | Diagnosis support apparatus and diagnosis support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5880379B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8371693B2 (en) * | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
-
2012
- 2012-09-28 JP JP2012218875A patent/JP5880379B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014068946A (en) | 2014-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014051010A1 (en) | Diagnosis assistance device and diagnosis assistance method | |
JP5974790B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6693105B2 (en) | Eye-gaze detecting device and eye-gaze detecting method | |
JP5371638B2 (en) | Ophthalmic imaging apparatus and method | |
US20150371383A1 (en) | System and apparatus for providing ophthalmic images for diagnosis and treatment | |
JP6638354B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP5962401B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6237836B2 (en) | Gaze point detection device and gaze point detection method | |
JP2016028669A (en) | Pupil detection device and pupil detection method | |
JP5966833B2 (en) | Diagnosis support apparatus, diagnosis support method, and diagnosis support program | |
JP5962402B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP2020038734A (en) | Visual line detection device and visual line detection method | |
JP6217799B2 (en) | Diagnosis support apparatus, diagnosis support method, and diagnosis support program | |
JP6135550B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5949404B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5949405B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP2019118548A (en) | Cornea reflection position detection device, visual line detection device, and cornea reflection position detection method | |
JP2018143571A (en) | Optometry apparatus | |
JP5880379B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5880378B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP5966832B2 (en) | Diagnosis support apparatus and diagnosis support method | |
JP6471533B2 (en) | Gaze detection device and gaze detection method | |
JP2020119583A (en) | Visual line detection device and visual line detection method | |
JP2015181798A (en) | Detection apparatus and detection method | |
JP2019055122A (en) | Ophthalmologic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5880379 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |