JP6217799B2 - Diagnosis support apparatus, diagnosis support method, and diagnosis support program - Google Patents

Diagnosis support apparatus, diagnosis support method, and diagnosis support program Download PDF

Info

Publication number
JP6217799B2
JP6217799B2 JP2016127390A JP2016127390A JP6217799B2 JP 6217799 B2 JP6217799 B2 JP 6217799B2 JP 2016127390 A JP2016127390 A JP 2016127390A JP 2016127390 A JP2016127390 A JP 2016127390A JP 6217799 B2 JP6217799 B2 JP 6217799B2
Authority
JP
Japan
Prior art keywords
image
point
display
unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016127390A
Other languages
Japanese (ja)
Other versions
JP2016185375A (en
Inventor
首藤 勝行
勝行 首藤
賢 二宮
賢 二宮
修二 箱嶋
修二 箱嶋
鬼頭 誠
誠 鬼頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016127390A priority Critical patent/JP6217799B2/en
Publication of JP2016185375A publication Critical patent/JP2016185375A/en
Application granted granted Critical
Publication of JP6217799B2 publication Critical patent/JP6217799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、診断支援装置、診断支援方法および診断支援プログラムに関する。   The present invention relates to a diagnosis support apparatus, a diagnosis support method, and a diagnosis support program.

最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し療育を
開始することで症状を軽減し、社会に適応できる効果が高くなることがわかっている。我
が国でも、1歳半検診時の問診などにより早期発見を目指している。しかし、精神科医不
足や、問診に時間が掛かるなどの問題があり、その効果は十分とはいえない。そこで、客
観的で効率的な発達障害の診断支援装置が求められている。
Recently, people with developmental disabilities are said to be on the rise. Developmental disorders are known to be detected early and start treatment to reduce symptoms and increase the effect of adapting to society. In Japan, we are aiming for early detection through interviews at the age of 1 and a half. However, there are problems such as shortage of psychiatrists and time-consuming interviews, and the effect is not sufficient. Therefore, there is a need for an objective and efficient diagnosis support device for developmental disorders.

発達障害早期発見のためには、例えば1歳半検診時に診断できることが理想的である。
また、検診時の使用について配慮することが必要である。発達障害児の特徴として、対面
する相手の目を見ない(視線をそらす)ことが挙げられる。カメラで人の顔を撮影して、
角膜反射と瞳孔の位置を計算することにより注視点を検出する方法などを応用して、発達
障害を診断支援する方法が提案されている。
For early detection of developmental disorders, it is ideal to be able to diagnose at the age of 1 and a half.
In addition, it is necessary to consider the use at the time of screening. One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. Take a picture of a person's face with the camera,
A method for supporting diagnosis of developmental disorders by applying a method of detecting a gazing point by calculating a corneal reflection and a pupil position has been proposed.

特開2005−185431号公報JP 2005-185431 A 特開2008−125619号公報JP 2008-125619 A 特開2005−198743号公報JP 2005-198743 A 特開2011−206542号公報JP 2011-206542 A

特許文献1では、目領域と、確実に観察対象者の口が含まれる口領域とを特定し、目領
域に注視点座標が検出された動画像のフレーム数、口領域に注視点座標が検出された動画
像のフレーム数、目領域の外に注視点座標が検出された動画像のフレーム数、および、計
算対象の全フレーム数を算出する方法が提示されているが、さらに高精度の検出方法が求
められていた。
In Patent Literature 1, an eye area and a mouth area that reliably includes the mouth of the observation target are specified, the number of frames of a moving image in which the gazing point coordinates are detected in the eye area, and the gazing point coordinates are detected in the mouth area. A method for calculating the number of frames of the moving image, the number of frames of the moving image in which the gaze point coordinates are detected outside the eye area, and the total number of frames to be calculated has been presented. A method was sought.

本発明は、上記に鑑みてなされたものであって、診断の精度を向上できる診断支援装置、診断支援方法および診断支援プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a diagnosis support apparatus, a diagnosis support method, and a diagnosis support program that can improve the accuracy of diagnosis.

上述した課題を解決し、目的を達成するために、本発明は、表示部と、被験者を撮像す
る撮像部と、前記撮像部により撮像された撮像画像から、前記被験者の視線方向を検出す
る視線検出部と、前記視線方向に基づいて、前記表示部の表示領域における前記被験者の
視点を検出する視点検出部と、前記視線方向の検出のためのパラメータの較正に用いる第
1画像と、前記視点検出部により検出された前記視点の位置を補正するために用いる第2
画像と、診断に用いる第3画像と、をこの順で前記表示部に表示させる出力制御部と、を
備えることを特徴とする。
In order to solve the above-described problems and achieve the object, the present invention provides a display unit, an imaging unit that images a subject, and a line of sight that detects the gaze direction of the subject from a captured image captured by the imaging unit. A detection unit; a viewpoint detection unit that detects the viewpoint of the subject in the display region of the display unit based on the line-of-sight direction; a first image used for calibration of parameters for detection of the line-of-sight direction; and the viewpoint The second used for correcting the position of the viewpoint detected by the detection unit
And an output control unit that causes the display unit to display an image and a third image used for diagnosis in this order.

本発明にかかる診断支援装置、診断支援方法および診断支援プログラムは、診断の精度を向上できるという効果を奏する。   The diagnosis support apparatus, diagnosis support method, and diagnosis support program according to the present invention have an effect of improving the accuracy of diagnosis.

図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. 図2は、第1の実施形態の診断支援装置の機能の概要を示す図である。FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus according to the first embodiment. 図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. 図4は、2台のカメラを使用した場合の目および距離の検出の一例を示す図である。FIG. 4 is a diagram illustrating an example of eye and distance detection when two cameras are used. 図5は、ターゲットポイントの目印の一例を示す図である。FIG. 5 is a diagram illustrating an example of a target point mark. 図6は、SP0a〜SP4aを示す図である。FIG. 6 is a diagram illustrating SP0a to SP4a. 図7は、フレームFとフレームFeとを示す図である。FIG. 7 is a diagram showing the frame F and the frame Fe. 図8は、フレームFeの部分領域を示す図である。FIG. 8 is a diagram showing a partial region of the frame Fe. 図9は、フレームFの部分領域を示す図である。FIG. 9 is a diagram illustrating a partial region of the frame F. 図10は、各点の座標を示す図である。FIG. 10 is a diagram showing the coordinates of each point. 図11は、第1象限下側領域Aを示す図である。FIG. 11 is a diagram showing the lower quadrant A of the first quadrant. 図12は、第4象限上側領域Hを示す図である。FIG. 12 is a diagram illustrating the upper quadrant H of the fourth quadrant. 図13は、第2象限上側領域Cを示す図である。FIG. 13 is a diagram showing the upper quadrant area C of the second quadrant. 図14は、第1象限上側領域Bを示す図である。FIG. 14 is a diagram showing the first quadrant upper area B. As shown in FIG. 図15は、第1の実施形態における診断支援処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment. 図16は、メニュー画面の一例を示す図である。FIG. 16 is a diagram illustrating an example of a menu screen. 図17は、分析メニュー画面の一例を示す図である。FIG. 17 is a diagram illustrating an example of the analysis menu screen. 図18は、位置調整用画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of the position adjustment image. 図19は、位置調整用画像の他の例を示す図である。FIG. 19 is a diagram illustrating another example of the position adjustment image. 図20は、位置調整用画像の他の例を示す図である。FIG. 20 is a diagram illustrating another example of the position adjustment image. 図21は、キャリブレーション用の画像の一例を示す図である。FIG. 21 is a diagram illustrating an example of an image for calibration. 図22は、キャリブレーション用の画像の一例を示す図である。FIG. 22 is a diagram illustrating an example of an image for calibration. 図23は、補正用注視点検出処理の詳細を示すフローチャートである。FIG. 23 is a flowchart showing details of the correction gazing point detection processing. 図24は、データ分布の計算処理を説明するための図である。FIG. 24 is a diagram for explaining a data distribution calculation process. 図25−1は、補正用注視点検出処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 25A is a diagram for explaining the target point mark display process in the correction gazing point detection process. 図25−2は、補正用注視点検出処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 25-2 is a diagram for explaining target point mark display processing in correction gazing point detection processing. 図25−3は、補正用注視点検出処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 25C is a diagram for explaining target point mark display processing in the correction gazing point detection processing. 図25−4は、補正用注視点検出処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 25D is a diagram for explaining the target point mark display process in the correction gazing point detection process. 図25−5は、補正用注視点検出処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 25-5 is a diagram for explaining the target point mark display processing in the correction gazing point detection processing. 図26は、ターゲットポイントの目印の一例を示す図である。FIG. 26 is a diagram illustrating an example of a target point mark. 図27は、ターゲットポイントの目印の一例を示す図である。FIG. 27 is a diagram illustrating an example of a target point mark. 図28は、ターゲットポイントの目印の一例を示す図である。FIG. 28 is a diagram illustrating an example of a target point mark. 図29は、ターゲットポイントの目印の一例を示す図である。FIG. 29 is a diagram illustrating an example of a target point mark. 図30は、ターゲットポイントの目印の一例を示す図である。FIG. 30 is a diagram illustrating an example of a target point mark. 図31は、ターゲットポイントの目印の一例を示す図である。FIG. 31 is a diagram illustrating an example of a target point mark. 図32は、ターゲットポイントの目印の一例を示す図である。FIG. 32 is a diagram illustrating an example of a target point mark. 図33は、ターゲットポイントの目印の一例を示す図である。FIG. 33 is a diagram illustrating an example of a target point mark. 図34は、ターゲットポイントの目印の一例を示す図である。FIG. 34 is a diagram illustrating an example of a target point mark. 図35は、ターゲットポイントの目印の一例を示す図である。FIG. 35 is a diagram illustrating an example of a target point mark. 図36は、ターゲットポイントの目印の一例を示す図である。FIG. 36 is a diagram illustrating an example of a target point mark. 図37は、第1の実施形態における分析処理の一例を示すフローチャートである。FIG. 37 is a flowchart illustrating an example of analysis processing according to the first embodiment. 図38は、部分領域特定処理において、フレームFeにおける部分領域を特定する処理を示すフローチャートである。FIG. 38 is a flowchart showing a process of specifying a partial area in the frame Fe in the partial area specifying process. 図39は、診断画像の一例を示す図である。FIG. 39 is a diagram illustrating an example of a diagnostic image. 図40は、診断画像の一例を示す図である。FIG. 40 is a diagram illustrating an example of a diagnostic image. 図41は、診断画像の一例を示す図である。FIG. 41 is a diagram illustrating an example of a diagnostic image. 図42は、診断画像の一例を示す図である。FIG. 42 is a diagram illustrating an example of a diagnostic image. 図43は、診断画像の一例を示す図である。FIG. 43 is a diagram illustrating an example of a diagnostic image. 図44は、診断画像の一例を示す図である。FIG. 44 is a diagram illustrating an example of a diagnostic image. 図45−1は、診断画像の一例を示す図である。FIG. 45A is a diagram illustrating an example of a diagnostic image. 図45−2は、診断画像の一例を示す図である。FIG. 45-2 is a diagram illustrating an example of a diagnostic image. 図46は、アイキャッチ画像の一例を示す図である。FIG. 46 is a diagram illustrating an example of an eye catch image. 図47は、アイキャッチ画像の一例を示す図である。FIG. 47 is a diagram illustrating an example of an eye catch image. 図48は、アイキャッチ画像の一例を示す図である。FIG. 48 is a diagram illustrating an example of an eye catch image. 図49は、アイキャッチ画像の表示と音声出力のタイミングを示す図である。FIG. 49 is a diagram showing the timing of displaying an eye catch image and outputting sound. 図50は、結果表示画面の一例を示す図である。FIG. 50 is a diagram illustrating an example of a result display screen. 図51は、結果表示画面の一例を示す図である。FIG. 51 is a diagram illustrating an example of a result display screen. 図52は、結果表示画面の一例を示す図である。FIG. 52 is a diagram illustrating an example of a result display screen. 図53は、結果表示画面の一例を示す図である。FIG. 53 is a diagram illustrating an example of a result display screen. 図54は、結果表示画面の一例を示す図である。FIG. 54 is a diagram illustrating an example of a result display screen. 図55は、注視点の表示方式の一例を示す図である。FIG. 55 is a diagram illustrating an example of a display method of a gazing point. 図56は、注視点の表示方式の一例を示す図である。FIG. 56 is a diagram illustrating an example of a display method of a gazing point. 図57は、注視点の表示方式の一例を示す図である。FIG. 57 is a diagram illustrating an example of a display method of a gazing point. 図58は、注視点の表示方式の一例を示す図である。FIG. 58 is a diagram illustrating an example of a display method of a gazing point.

以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて
詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
Hereinafter, embodiments of a diagnosis support apparatus and a diagnosis support method according to the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

(第1の実施形態)
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を
示す図である。図1に示すように、第1の実施形態では、表示画面101の下側に、1組
のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮
影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
(First embodiment)
FIG. 1 is a diagram illustrating an example of an arrangement of a display unit, a stereo camera, and a light source used in the first embodiment. As shown in FIG. 1, in the first embodiment, a set of stereo cameras 102 is arranged below the display screen 101. The stereo camera 102 is an imaging unit that can perform stereo shooting with infrared rays, and includes a right camera 202 and a left camera 204.

右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(
Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光
源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを
含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方
法としては、例えば特許文献2に記載された方法などを適用できる。
Immediately before each lens of the right camera 202 and the left camera 204, infrared LEDs (
Light Emitting Diode) light sources 203 and 205 are arranged respectively. The infrared LED light sources 203 and 205 include an inner peripheral LED and an outer peripheral LED having different wavelengths for emitting light. The pupils of the subject are detected by the infrared LED light sources 203 and 205. As a pupil detection method, for example, the method described in Patent Document 2 can be applied.

視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示
画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向か
って右が+)、奥行きをZ座標(手前が+)としている。
When detecting the line of sight, the space is expressed by coordinates to identify the position. In this embodiment, the center position of the display screen 101 is the origin, the top and bottom are the Y coordinate (up is +), the side is the X coordinate (right is +), and the depth is the Z coordinate (front is +). .

図2は、診断支援装置100の機能の概要を示す図である。図2では、図1に示した構
成の一部と、この構成の駆動などに用いられる構成を示している。図2に示すように、診
断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203およ
び205と、スピーカ105と、駆動・IF部208と、制御部300と、記憶部150
と、表示部210と、を含む。図2において、表示画面101は、右カメラ202および
左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部21
0において表示される画面である。
FIG. 2 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 2 shows a part of the configuration shown in FIG. 1 and a configuration used for driving the configuration. As shown in FIG. 2, the diagnosis support apparatus 100 includes a right camera 202, a left camera 204, infrared LED light sources 203 and 205, a speaker 105, a drive / IF unit 208, a control unit 300, and a storage unit. 150
And a display unit 210. In FIG. 2, the display screen 101 shows the positional relationship between the right camera 202 and the left camera 204 in an easy-to-understand manner.
It is a screen displayed at 0.

スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声など
を出力する音声出力部として機能する。
The speaker 105 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.

駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動
・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフ
ェースとなる。
The drive / IF unit 208 drives each unit included in the stereo camera 102. The drive / IF unit 208 serves as an interface between each unit included in the stereo camera 102 and the control unit 300.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。
記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、
診断のための対象画像等、各種情報を表示する。
The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result.
The storage unit 150 stores, for example, an image to be displayed on the display unit 210. The display unit 210
Various information such as a target image for diagnosis is displayed.

図3は、図2に示す各部の詳細な機能の一例を示すブロック図である。図3に示すよう
に、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF
部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部
322と、プリンタIF323と、を備える。
FIG. 3 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 3, a display unit 210 and a drive / IF unit 208 are connected to the control unit 300. Drive / IF
The unit 208 includes camera IFs 314 and 315, an LED drive control unit 316, a speaker drive unit 322, and a printer IF 323.

駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2
02、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動するこ
とにより、被験者を撮像する。
The right camera 2 is connected to the drive / IF unit 208 via the camera IFs 314 and 315, respectively.
02, the left camera 204 is connected. The driving / IF unit 208 drives these cameras to image the subject.

右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ
204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミ
ングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED30
5)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による
画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波
長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラに
よる画像を取り込んでいる。
A frame synchronization signal is output from the right camera 202. The frame synchronization signal is input to the left camera 204 and the LED drive control unit 316. Thus, in the first frame, the left and right wavelength 1 infrared light sources (wavelength 1-LED 303, wavelength 1-LED 30 are shifted in timing).
5) is emitted, and images corresponding to the left and right cameras (the right camera 202 and the left camera 204) are captured correspondingly, and the left and right wavelength 2 infrared light sources (wavelength 2-LED304, wavelength 2) are shifted in timing in the second frame. -The LED 306) is caused to emit light, and correspondingly, images from the left and right cameras are captured.

赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備え
ている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、
を備えている。
The infrared LED light source 203 includes a wavelength 1-LED 303 and a wavelength 2-LED 304. Infrared LED light source 205 includes wavelength 1-LED 305, wavelength 2-LED 306,
It has.

波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304
、306は、波長2の赤外線を照射する。
Wavelength 1-LEDs 303 and 305 emit infrared light having wavelength 1. Wavelength 2-LED304
, 306 irradiate infrared rays having a wavelength of 2.

波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の
波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像す
ると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合
に比べて、明るい瞳孔像が得られるためである。
The wavelength 1 and the wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained.

スピーカ駆動部322は、スピーカ105を駆動する。プリンタIF323は、印刷部
としてのプリンタ324と接続するためのインタフェースである。なお、プリンタ324
を診断支援装置100の内部に備えるように構成してもよい。
The speaker driving unit 322 drives the speaker 105. The printer IF 323 is an interface for connecting to a printer 324 as a printing unit. The printer 324
May be provided inside the diagnosis support apparatus 100.

制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部3
51と、視点検出部352と、距離検出部353と、出力制御部354と、較正部355
と、領域分割部356と、領域特定部357と、補正部358と、評価部359と、を備
えている。
The control unit 300 controls the entire diagnosis support apparatus 100. The control unit 300 includes a line-of-sight detection unit 3
51, viewpoint detection unit 352, distance detection unit 353, output control unit 354, calibration unit 355
A region dividing unit 356, a region specifying unit 357, a correcting unit 358, and an evaluating unit 359.

視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から
、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を
検出する処理が含まれる(位置検出部)。視点検出部352は、検出された視線方向を用
いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示され
た対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部3
51による視線検出方法、および、視点検出部352による視点検出方法としては、従来
から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレ
オカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。
The gaze detection unit 351 detects the gaze (gaze direction) of the subject from the captured image captured by the imaging unit (stereo camera 102). The process of detecting the line of sight includes a process of detecting the eye position of the subject (position detection unit). The viewpoint detection unit 352 detects the viewpoint of the subject using the detected gaze direction. For example, the viewpoint detection unit 352 detects a viewpoint (gaze point) that is a point that the subject gazes out of the target image displayed on the display screen 101. Line-of-sight detection unit 3
As a gaze detection method by 51 and a viewpoint detection method by the viewpoint detection unit 352, any conventionally used method can be applied. Below, similarly to patent document 3, it demonstrates as an example the case where a test subject's gaze direction and a gaze point are detected using a stereo camera.

この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被
験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載さ
れた方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は
、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像と
の差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメ
ラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成
された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を
算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の
角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反
射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
In this case, the gaze detection unit 351 first detects the gaze direction of the subject from the image captured by the stereo camera 102. The gaze detection unit 351 detects the gaze direction of the subject using, for example, the methods described in Patent Documents 1 and 2. Specifically, the line-of-sight detection unit 351 obtains the difference between the image captured by irradiating the infrared light having the wavelength 1 and the image captured by irradiating the infrared light having the wavelength 2, and the image in which the pupil image is clarified. Generate. The line-of-sight detection unit 351 uses the two images generated as described above from the images captured by the left and right cameras (the right camera 202 and the left camera 204) and uses the stereo vision technique to determine the position of the subject's pupil ( Eye position) is calculated. The line-of-sight detection unit 351 calculates the position of the subject's corneal reflection using images taken by the left and right cameras. Then, the gaze detection unit 351 calculates a gaze vector representing the gaze direction of the subject from the position of the pupil of the subject and the corneal reflection position.

なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば
、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位
置および視線を検出してもよい。
In addition, the detection method of the eye position and the line of sight of the subject is not limited to this. For example, the eye position and line of sight of the subject may be detected by analyzing an image captured using visible light instead of infrared light.

視点検出部352は、例えば図1のような座標系で表される視線ベクトルとXY平面と
の交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の
左右の視線の交点を求めることによって注視点を計測してもよい。
The viewpoint detection unit 352 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 1 and the XY plane as the gaze point of the subject. When the gaze direction of both eyes is obtained, the gaze point may be measured by obtaining the intersection of the left and right gazes of the subject.

距離検出部353は、撮像部(ステレオカメラ102)から被験者の目の位置までの距
離を検出する。本実施形態では、距離検出部353は、ステレオカメラ102から被験者
の目との間の奥行方向(Z座標方向)の距離dzを、撮像部(ステレオカメラ102)か
ら被験者の目の位置までの距離として検出する。
The distance detection unit 353 detects the distance from the imaging unit (stereo camera 102) to the eye position of the subject. In the present embodiment, the distance detection unit 353 determines the distance dz in the depth direction (Z coordinate direction) between the stereo camera 102 and the subject's eyes, and the distance from the imaging unit (stereo camera 102) to the position of the subject's eyes. Detect as.

図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および
距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラ
キャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、
Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあら
ゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カ
メラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世
界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間
の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験
者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される
目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標
が求められる。
FIG. 4 is a diagram illustrating an example of eye and distance detection when two cameras (the right camera 202 and the left camera 204) are used. For the two cameras, a camera calibration theory based on a stereo calibration method is applied in advance to obtain camera parameters. The stereo calibration method is
Any conventional method such as a method using Tsai's camera calibration theory can be applied. Using the eye position detected from the image captured by the right camera 202, the eye position detected from the image captured by the left camera 204, and the camera parameters, the three-dimensional coordinates of the eye in the world coordinate system are obtained. It is done. Thereby, the distance between the eyes and the stereo camera 102 and the pupil coordinates can be estimated. The pupil coordinate is a coordinate value representing the position of the subject's eye (pupil) on the XY plane. The pupil coordinates can be, for example, coordinate values obtained by projecting the eye position expressed in the world coordinate system onto the XY plane. Usually, the pupil coordinates of the left and right eyes are obtained.

表示画面101には、マーカ402と、目の位置画像403とが表示される。目の位置
画像403とは、被験者の目の位置を示す画像である。マーカ402は、予め定められた
基準距離における被験者の目の位置画像403の大きさに対応する画像である。図4では
、矩形のマーカを表示しているが、マーカ402の形状は矩形に限られるものではない。
例えば、矩形(四角形)以外の多角形、円形、または、楕円形のマーカを用いてもよい。
A marker 402 and an eye position image 403 are displayed on the display screen 101. The eye position image 403 is an image showing the eye position of the subject. The marker 402 is an image corresponding to the size of the eye position image 403 of the subject at a predetermined reference distance. Although a rectangular marker is displayed in FIG. 4, the shape of the marker 402 is not limited to a rectangle.
For example, a polygonal, circular, or elliptical marker other than a rectangle (rectangle) may be used.

図1に示すような座標系(世界座標系)を用いている場合、表示画面101の中央位置
が原点である。このため、検出された目の位置のZ座標値が、ステレオカメラ102から
被験者の目との間の奥行方向の距離dzに相当する。なお、実際のステレオカメラ102
の位置と、視線検出部351によって算出された被験者の目の位置とから、両者間の距離
を算出してもよい。例えば、視点検出部352が、右カメラ202および左カメラ204
のいずれかの位置、または、右カメラ202の位置と左カメラ204の位置との中間位置
から、被験者の目までの距離を検出するように構成してもよい。
When a coordinate system (world coordinate system) as shown in FIG. 1 is used, the center position of the display screen 101 is the origin. For this reason, the Z coordinate value of the detected eye position corresponds to the distance dz in the depth direction between the stereo camera 102 and the eye of the subject. The actual stereo camera 102
And the distance between the eyes calculated by the eye gaze detection unit 351 may be calculated. For example, the viewpoint detection unit 352 includes the right camera 202 and the left camera 204.
The distance to the eyes of the subject may be detected from any one of the above positions or an intermediate position between the position of the right camera 202 and the position of the left camera 204.

図3に戻り、出力制御部354は、表示部210、スピーカ105、および、プリンタ
324などに対する各種情報の出力を制御する。例えば、出力制御部354は、視線方向
の検出のためのパラメータの較正(キャリブレーション)に用いる画像(第1画像)、注
視点の位置を補正するための補正用注視点の検出に用いる画像(第2画像)、診断に用い
る画像(診断画像(第3画像))、および、評価部359による評価結果などの表示部2
10に対する出力を制御する。
Returning to FIG. 3, the output control unit 354 controls output of various types of information to the display unit 210, the speaker 105, the printer 324, and the like. For example, the output control unit 354 includes an image (first image) used for calibration of parameters for detecting the line-of-sight direction (first image) and an image used for detection of a correction gazing point for correcting the position of the gazing point ( Second image), an image used for diagnosis (diagnostic image (third image)), and display unit 2 such as an evaluation result by evaluation unit 359
Control the output for 10.

後述するように、出力制御部354は、キャリブレーションに用いる画像、補正用注視
点の検出に用いる画像、および、診断画像を、この順に表示部210に表示させるように
制御してもよい。これにより、診断に必要な各処理を円滑に実行し、診断の精度を向上さ
せることができる。
As will be described later, the output control unit 354 may control the display unit 210 to display an image used for calibration, an image used for detecting a correction gazing point, and a diagnostic image in this order. Thereby, each process required for a diagnosis can be performed smoothly and the precision of a diagnosis can be improved.

また、出力制御部354は、被験者の位置を調整するための画像(位置調整用画像)を
表示部210に表示させる。例えば、出力制御部354は、被験者の目の位置画像、基準
領域の範囲を示す基準画像、および、撮像領域の範囲を示す撮像範囲画像のうち少なくと
も1つを位置調整用画像として、設定領域と被験者の目の位置との位置関係に応じて表示
態様を変化させて表示画面101に表示させる。出力制御部354は、例えば、距離に応
じて目の位置画像403の大きさを変化させて表示画面101に表示させる。なお、表示
態様は大きさに限られるものではない。例えば、色、画像の色調、画像の輝度、および、
画像中に含まれる文字または記号または図形であってもよい。
The output control unit 354 causes the display unit 210 to display an image for adjusting the position of the subject (position adjustment image). For example, the output control unit 354 uses at least one of the position image of the subject's eyes, the reference image indicating the range of the reference region, and the imaging range image indicating the range of the imaging region as a position adjustment image, The display mode is changed on the display screen 101 according to the positional relationship with the eye position of the subject. For example, the output control unit 354 changes the size of the eye position image 403 according to the distance and causes the display screen 101 to display the size. The display mode is not limited to the size. For example, color, image tone, image brightness, and
It may be a character, symbol or figure included in the image.

基準領域は、撮像領域に含まれる領域であって、例えば被験者の目の適切な位置の範囲
を表す領域として予め定められる。例えば、撮像領域の中心を含む撮像領域内の所定の大
きさの領域を基準領域とすることができる。設定領域は、被験者の目の位置を検出するた
めに適切な領域を表す。例えば、基準領域を設定領域としてもよいし、撮像領域を設定領
域としてもよい。
The reference area is an area included in the imaging area, and is determined in advance as an area representing an appropriate position range of the eyes of the subject, for example. For example, an area having a predetermined size within the imaging area including the center of the imaging area can be set as the reference area. The setting area represents an appropriate area for detecting the position of the eye of the subject. For example, the reference area may be the setting area, and the imaging area may be the setting area.

基準画像は、基準領域に対応する範囲を表す画像として表示画面101に表示する画像
である。基準画像は、例えば表示画面101の中央部に表示される。出力制御部354は
、例えば、位置関係に応じて基準画像の色を変化させて表示画面101に表示させる。な
お、表示態様は色に限られるものではなく、明るさなどを変化させてもよい。
The reference image is an image that is displayed on the display screen 101 as an image representing a range corresponding to the reference region. The reference image is displayed at the center of the display screen 101, for example. For example, the output control unit 354 changes the color of the reference image according to the positional relationship and causes the display screen 101 to display the color. Note that the display mode is not limited to colors, and brightness and the like may be changed.

出力制御部354は、基準画像内に動画像を表示させてもよい。動画像としては、例え
ば、人物や動物などを模したキャラクタが動く映像などを用いることができる。これによ
り、被験者に表示画面101を注目させ、被験者の位置を適切に調整させることができる
The output control unit 354 may display a moving image in the reference image. As the moving image, for example, an image in which a character imitating a person or an animal moves can be used. Thereby, a test subject can be made to pay attention to the display screen 101, and a test subject's position can be adjusted appropriately.

また、出力制御部354は、注視点位置の補正処理に用いられる目標注視点位置(ター
ゲットポイント)の目印を表示画面101に表示させる。ここで、ターゲットポイントと
は、被験者に注視させる位置である。
Further, the output control unit 354 causes the display screen 101 to display a mark of the target gazing point position (target point) used for the gazing point position correction process. Here, the target point is a position to be watched by the subject.

図5は、ターゲットポイントの目印の一例を示す図である。図5に示すように、目印と
して所定の半径の円の画像を用いてもよい。また、目印として、所定形状の枠と枠内に表
示する画像(静止画、動画)とを用いてもよい。本実施形態においては、出力制御部35
4は、表示部210に、その表示領域内の異なる5つのターゲットポイントを示す5つの
目印(SP0〜SP4)を表示する。目印の形状や個数はこれらに限られるものではない
FIG. 5 is a diagram illustrating an example of a target point mark. As shown in FIG. 5, a circle image having a predetermined radius may be used as a mark. Further, as a mark, a frame having a predetermined shape and an image (still image or moving image) displayed in the frame may be used. In the present embodiment, the output control unit 35
4 displays five marks (SP0 to SP4) indicating five different target points in the display area on the display unit 210. The shape and number of landmarks are not limited to these.

本実施形態においては、長方形の画面(表示領域)の各辺に平行な4辺を有する四角形
の頂点位置を、SP1〜SP4のターゲットポイントとする。また、画面のほぼ中央を、
SP0のターゲットポイントとする。すなわち、SP0は、表示領域において、SP1〜
SP4に比べて内側の位置を示す中心目印である。なお、本実施形態においては、SP0
は、XYZ座標系の原点、すなわち表示部210の画面の中央位置に一致するものとする
。ターゲットポイントの目印の画像の種類および表示位置は、記憶部150等に予め設定
されているものとする。
In the present embodiment, the vertex positions of a quadrilateral having four sides parallel to each side of a rectangular screen (display area) are set as target points SP1 to SP4. In the center of the screen,
The target point of SP0. That is, SP0 is SP1 to SP1 in the display area.
It is a center mark which shows a position inside compared with SP4. In the present embodiment, SP0
Is the same as the origin of the XYZ coordinate system, that is, the center position of the screen of the display unit 210. It is assumed that the type and display position of the target point mark image are set in advance in the storage unit 150 or the like.

ターゲットポイントの目印は、表示部210の他の領域と、輝度や彩度が異なる画像で
あればよく、円画像以外の画像であってもよい。また、他の例としては、ターゲットポイ
ントの配置位置に光を照射するなどによりターゲットポイントの目印を示すこととしても
よい。すなわち、目印は、画像以外に光であってもよい。このように、目印は、被験者が
注視すべき位置を認識可能な態様であればよく、その表示態様は実施形態に限定されるも
のではない。
The mark of the target point may be an image that is different in brightness and saturation from other regions of the display unit 210, and may be an image other than a circular image. As another example, the target point mark may be indicated by irradiating light to the target point arrangement position. That is, the mark may be light other than the image. Thus, the mark may be in any form that allows the subject to recognize the position to be watched, and the display form is not limited to the embodiment.

図3に戻り、較正部355は、視線方向を検出するために用いる計算パラメータを較正
(視線検出用較正)する。一般に個人ごとに目の光軸と視線方向とが異なる。このため、
光軸と視線方向が一致するように補正する必要があるためである。視線検出用較正処理で
は、所定の座標系上で既知である所定の位置(例えば視線検出用較正に用いる画像)を被
験者に注視させて、その時の瞳孔の中心(瞳孔の位置)と角膜反射位置とを測定する。そ
して、較正部355は、測定された瞳孔の位置と角膜反射位置とから求められる視線方向
が、所定の位置に向くように、視線検出のための計算パラメータを修正する。
Returning to FIG. 3, the calibration unit 355 calibrates the calculation parameters used for detecting the gaze direction (calibration for gaze detection). Generally, the optical axis of the eye and the line-of-sight direction are different for each individual. For this reason,
This is because it is necessary to correct the optical axis and the line-of-sight direction to coincide. In the gaze detection calibration process, the subject is gazes at a predetermined position (for example, an image used for gaze detection calibration) known on a predetermined coordinate system, and the pupil center (pupil position) and corneal reflection position at that time And measure. Then, the calibration unit 355 corrects the calculation parameter for eye gaze detection so that the eye gaze direction obtained from the measured pupil position and corneal reflection position is directed to a predetermined position.

領域分割部356は、補正用に表示されたターゲットポイントの目印に対して検出され
た注視点(補正用注視点)に基づいて、表示部210の画面を複数の部分領域に分割する
The area dividing unit 356 divides the screen of the display unit 210 into a plurality of partial areas based on the gazing point (correction gazing point) detected with respect to the target point mark displayed for correction.

領域特定部357は、診断画像に対して検出された注視点(分析用注視点)が、表示領
域中のいずれの部分領域に属するかを特定する。
The area specifying unit 357 specifies which partial area in the display area the gazing point (analysis gazing point) detected for the diagnostic image belongs to.

補正部358は、分析用注視点が属する部分領域に基づいて、分析用注視点の位置を補
正する。
The correcting unit 358 corrects the position of the analysis gazing point based on the partial region to which the analysis gazing point belongs.

ここで、領域分割部356、領域特定部357および補正部358の処理について図6
〜図9を参照しつつ詳述する。
Here, the processing of the region dividing unit 356, the region specifying unit 357, and the correcting unit 358 is described with reference to FIG.
Details will be described with reference to FIG.

図6に示す点SP0a〜SP4aは、それぞれターゲットポイントの目印SP0〜SP
4を被験者が注視することによって得られた被験者の補正用注視点である。
Points SP0a to SP4a shown in FIG. 6 are target point marks SP0 to SP, respectively.
4 is a correction gaze point of the subject obtained by gaze 4.

領域分割部356は、まず点SP0aをXY座標系の原点に一致させる。具体的には、
領域分割部356は、XY座標系の原点からSP0aへの原点変位値を算出する。ここで
、原点とSP0の位置とは一致する。そして、領域分割部356は、SP1a〜SP4a
それぞれを、原点変位値だけ移動させたSP1b〜SP4bの座標を求める。例えば、S
P0aの座標が(x0,y0)である場合には、原点変位値は、(−x0,−y0)とな
る。したがって、領域分割部356は、SP1a〜SP4aそれぞれの座標に(−x0,
−y0)を加算することにより、SP1b〜SP4bの座標を得る。
The area dividing unit 356 first matches the point SP0a with the origin of the XY coordinate system. In particular,
The area dividing unit 356 calculates an origin displacement value from the origin of the XY coordinate system to SP0a. Here, the origin and the position of SP0 coincide. Then, the area dividing unit 356 includes SP1a to SP4a.
The coordinates of SP1b to SP4b, each of which is moved by the origin displacement value, are obtained. For example, S
When the coordinates of P0a are (x0, y0), the origin displacement value is (−x0, −y0). Therefore, the area dividing unit 356 adds (−x0, SP4a) to the coordinates of SP1a to SP4a.
The coordinates of SP1b to SP4b are obtained by adding -y0).

図7は、フレームFと図6の点SP0aをXY座標系の原点に移動させた後のフレーム
Feとを示す図である。フレームFは、ターゲットポイント点F1〜F4により定まるフ
レーム(枠)である。点F1〜F4は、それぞれ点SP1〜SP4に相当する。フレーム
Feは、ターゲットポイントに対応して検出された補正用注視点に対応する点Fe1〜F
e4により定まるフレーム(枠)である。点Fe1〜Fe4は、それぞれ点SP1b〜S
P4bに相当する。すなわち、フレームFは、表示画面のXY座標系に対応する基準フレ
ームであり、フレームFeは、被験者固有の誤差等を含む誤差フレームである。なお、フ
レームFとフレームFeとは、左右カメラ(右カメラ202、左カメラ204)の撮像対
象となるフレームとは異なる概念のものである。
FIG. 7 is a diagram showing the frame F and the frame Fe after the point SP0a in FIG. 6 is moved to the origin of the XY coordinate system. The frame F is a frame (frame) determined by the target point points F1 to F4. Points F1 to F4 correspond to points SP1 to SP4, respectively. The frame Fe is points Fe1 to F corresponding to the correction gazing points detected corresponding to the target points.
This is a frame determined by e4. Points Fe1 to Fe4 are points SP1b to SP1, respectively.
It corresponds to P4b. That is, the frame F is a reference frame corresponding to the XY coordinate system of the display screen, and the frame Fe is an error frame including a subject-specific error and the like. Note that the frame F and the frame Fe have different concepts from the frames to be imaged by the left and right cameras (the right camera 202 and the left camera 204).

視点検出部352により算出される分析用注視点は、フレームFe上の点である。さら
に、被験者の眼球の非球面な形状などに起因して、視線方向により、すなわち目印位置に
よって、誤差の程度が異なる。そこで、本実施の形態にかかる診断支援装置100におい
ては、対象領域を8つの部分領域に分割し、部分領域単位で分析用注視点のフレームFe
上の座標値をフレームF上の座標値に変換することにより、分析用注視点の補正を行うこ
ととする。
The gaze point for analysis calculated by the viewpoint detection unit 352 is a point on the frame Fe. Furthermore, due to the aspherical shape of the eyeball of the subject, the degree of error varies depending on the line-of-sight direction, that is, the mark position. Therefore, in the diagnosis support apparatus 100 according to the present embodiment, the target area is divided into eight partial areas, and the frame Fe of the gazing point for analysis is divided into partial areas.
By converting the upper coordinate value to the coordinate value on the frame F, the gaze point for analysis is corrected.

領域分割部356は、点Fe1〜Fe4の位置に基づいて、対象領域を8つの部分領域
に分割する。図8は、8つの部分領域を示す図である。各部分領域は、原点O、点Fe1
〜Fe4、X軸、Y軸により定まる領域である。ここで、点Fe1〜Fe4は、それぞれ
SP1b〜SP4bに対応する点である。そして、SP1b〜SP4bは、それぞれSP
1a〜SP4aに基づいて定まる点である。すなわち、領域分割部356は、SP1a〜
SP4aの位置に基づいて、対象領域を8つの部分領域に分割するものである。
The area dividing unit 356 divides the target area into eight partial areas based on the positions of the points Fe1 to Fe4. FIG. 8 is a diagram showing eight partial areas. Each partial area has an origin O and a point Fe1.
This is a region determined by Fe4, X axis, and Y axis. Here, the points Fe1 to Fe4 are points corresponding to SP1b to SP4b, respectively. SP1b to SP4b are respectively SPs.
This is a point determined based on 1a to SP4a. In other words, the region dividing unit 356 is configured so that SP1a ~
Based on the position of SP4a, the target area is divided into eight partial areas.

ここで、点Fe1と点Fe4を通る直線と、X軸との交点を点Fe5とする。点Fe1
と点Fe2を通る直線と、Y軸との交点を点Fe6とする。点Fe2と点Fe3を通る直
線と、X軸との交点を点Fe7とする。点Fe3と点Fe4を通る直線と、Y軸との交点
を点Fe8とする。
Here, the intersection of the straight line passing through the points Fe1 and Fe4 and the X axis is defined as a point Fe5. Point Fe1
And the point of intersection of the straight line passing through the point Fe2 and the Y axis is a point Fe6. A point of intersection between the straight line passing through the points Fe2 and Fe3 and the X axis is defined as a point Fe7. A point of intersection between the straight line passing through the points Fe3 and Fe4 and the Y axis is defined as a point Fe8.

領域分割部356は、図8に示す第1象限下側領域A、第1象限上側領域B、第2象限
上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限
下側領域Gおよび第4象限上側領域Hの8つの部分領域に分割する。また、領域特定部3
57は、分析用注視点の座標と、領域分割部356により分割された8つの部分領域の位
置とに基づいて、視点検出部352により検出された分析用注視点がこの8つの部分領域
のうちいずれの部分領域に属する点であるかを特定する。
The area dividing unit 356 includes a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, and a third quadrant shown in FIG. The area is divided into eight partial areas of a lower area F, a fourth quadrant lower area G, and a fourth quadrant upper area H. Further, the area specifying unit 3
57, the analysis gazing point detected by the viewpoint detection unit 352 is based on the coordinates of the analysis gazing point and the positions of the eight partial regions divided by the region dividing unit 356. It is specified to which partial region the point belongs.

ここで、第1象限下側領域Aは、原点Oと点Fe1を通る直線および原点Oと点Fe5
を通る直線(X軸)を境界位置とする領域である。第1象限上側領域Bは、原点Oと点F
e1を通る直線および原点Oと点Fe6を通る直線(Y軸)を境界位置とする領域である
Here, the lower quadrant A of the first quadrant includes a straight line passing through the origin O and the point Fe1, and the origin O and the point Fe5.
Is a region having a straight line (X axis) passing through the boundary position. Upper quadrant B of first quadrant has origin O and point F
This is an area having a straight line passing through e1 and a straight line passing through the origin O and the point Fe6 (Y axis) as boundary positions.

第2象限上側領域Cは、原点Oと点Fe2を通る直線および原点Oと点Fe6を通る直
線(Y軸)を境界位置とする領域である。第2象限下側領域Dは、原点Oと点Fe2を通
る直線および原点Oと点Fe7を通る直線(X軸)を境界位置とする領域である。
The second quadrant upper area C is an area having a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe6 (Y axis) as boundary positions. The lower quadrant area D is an area having a boundary position that is a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe7 (X axis).

第3象限上側領域Eは、原点Oと点Fe3を通る直線および原点Oと点Fe7を通る直
線(X軸)を境界位置とする領域である。第3象限下側領域Fは、原点Oと点Fe3を通
る直線および原点Oと点Fe8を通る直線(Y軸)を境界位置とする領域である。
The third quadrant upper area E is an area having a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe7 (X axis) as boundary positions. The lower quadrant F of the third quadrant is an area having a boundary position that is a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe8 (Y axis).

第4象限下側領域Gは、原点Oと点Fe4を通る直線および原点Oと点Fe8を通る直
線(Y軸)を境界位置とする領域である。第4象限上側領域Hは、原点Oと点Fe4を通
る直線および原点Oと点Fe5(X軸)を通る直線を境界位置とする領域である。
The lower quadrant region G is a region having a boundary position that is a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe8 (Y axis). The upper quadrant H of the fourth quadrant is an area having a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe5 (X axis) as boundary positions.

図9は、第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下
側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象
限上側領域Hそれぞれに対応する、フレームFの部分領域(A’〜H’)を示す図である
FIG. 9 shows a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, a third quadrant lower area F, It is a figure which shows the partial area | region (A'-H ') of the flame | frame F corresponding to 4th quadrant lower area | region G and 4th quadrant upper area | region H, respectively.

第1象限下側領域A’、第1象限上側領域B’、第2象限上側領域C’、第2象限下側
領域D’、第3象限上側領域E’、第3象限下側領域F’、第4象限下側領域G’および
第4象限上側領域H’は、それぞれ第1象限下側領域A、第1象限上側領域B、第2象限
上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限
下側領域Gおよび第4象限上側領域Hに対応する領域である。
First quadrant lower area A ′, first quadrant upper area B ′, second quadrant upper area C ′, second quadrant lower area D ′, third quadrant upper area E ′, third quadrant lower area F ′ , The fourth quadrant lower region G ′ and the fourth quadrant upper region H ′ are respectively a first quadrant lower region A, a first quadrant upper region B, a second quadrant upper region C, a second quadrant lower region D, This is a region corresponding to the third quadrant upper region E, the third quadrant lower region F, the fourth quadrant lower region G, and the fourth quadrant upper region H.

領域特定部357は、上述のように分析用注視点が属するフレームFe上の部分領域を
特定するのに加えて、特定したフレームFe上の部分領域に対応する、フレームF上の部
分領域を特定する。例えば、フレームFe上の第1象限下側領域Aが特定された場合に、
フレームF上の第1象限下側領域A’が対応する部分領域として特定される。すなわち、
領域特定部357は、フレームFe上の部分領域と、これに対応するフレームF上の部分
領域を特定するものであり、第1部分領域特定部および第2部分領域特定部に相当するも
のである。
The area specifying unit 357 specifies the partial area on the frame F corresponding to the specified partial area on the frame Fe, in addition to specifying the partial area on the frame Fe to which the gazing point for analysis belongs as described above. To do. For example, when the first quadrant lower area A on the frame Fe is specified,
The first quadrant lower area A ′ on the frame F is specified as the corresponding partial area. That is,
The region specifying unit 357 specifies a partial region on the frame Fe and a corresponding partial region on the frame F, and corresponds to a first partial region specifying unit and a second partial region specifying unit. .

図9を参照しつつ、フレームF上の部分領域について説明する。点F1と点F4を通る
直線と、X軸との交点を点F5とする。点F1と点F2を通る直線と、Y軸との交点を点
F6とする。点F2と点F3を通る直線と、X軸との交点を点F7とする。点F3と点F
4を通る直線と、Y軸との交点を点F8とする。
The partial area on the frame F will be described with reference to FIG. A point of intersection between the straight line passing through the points F1 and F4 and the X axis is defined as a point F5. A point of intersection between the straight line passing through the points F1 and F2 and the Y axis is defined as a point F6. A point of intersection between the straight line passing through the points F2 and F3 and the X axis is defined as a point F7. Point F3 and point F
Let the intersection of the straight line passing through 4 and the Y axis be point F8.

第1象限下側領域A’は、原点Oと点F1を通る直線および原点Oと点F5を通る直線
(X軸)を境界位置とする領域である。第1象限上側領域B’は、原点Oと点F1を通る
直線および原点Oと点F6を通る直線(Y軸)を境界位置とする領域である。
The first quadrant lower area A ′ is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F5 (X axis). The first quadrant upper area B ′ is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F6 (Y axis).

第2象限上側領域C’は、原点Oと点F2を通る直線および原点Oと点F6を通る直線
(Y軸)を境界位置とする領域である。第2象限下側領域D’は、原点Oと点F2を通る
直線および原点Oと点F7を通る直線(X軸)を境界位置とする領域である。
The second quadrant upper area C ′ is an area having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F6 (Y axis). The second quadrant lower region D ′ is a region having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F7 (X axis).

第3象限上側領域E’は、原点Oと点F3を通る直線および原点Oと点F7を通る直線
(X軸)を境界位置とする領域である。第3象限下側領域F’は、原点Oと点F3を通る
直線および原点Oと点F8とを通る直線(Y軸)を境界位置とする領域である。
The third quadrant upper area E ′ is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F7 (X axis). The lower quadrant F ′ of the third quadrant is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F8 (Y axis).

第4象限下側領域G’は、原点Oと点F4を通る直線および原点Oと点F8を通る直線
(Y軸)を境界位置とする領域である。第4象限上側領域H’は、原点Oと点F4を通る
直線および原点Oと点F5を通る直線(X軸)を境界位置とする領域である。
The fourth quadrant lower region G ′ is a region having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F8 (Y axis). The fourth quadrant upper area H ′ is an area having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F5 (X axis).

補正部358は、フレームFe上の部分領域とフレームFにおける対応する部分領域の
相関関係、すなわちフレームFeからフレームFへの変位値に基づいて、注視点の位置を
補正する。
The correcting unit 358 corrects the position of the gazing point based on the correlation between the partial area on the frame Fe and the corresponding partial area in the frame F, that is, the displacement value from the frame Fe to the frame F.

以下、図10〜図14を参照しつつ、補正部358の処理について詳述する。図10は
、各点の座標を示す図である。図10に示すように、点F1の座標を(x4,y4)、点
F2の座標を(x10,y4)、点F3の座標を(x10,y8)、点F4の座標を(x
4,y8)、点F5の座標を(x4,0)、点F6の座標を(0,y4)、点F7の座標
を(x10,0)、点F8の座標を(0,y8)とする。また、点Fe1の座標を(x6
,y6)、点Fe2の座標を(x11,y11)、点Fe3の座標を(x13,y13)
、点Fe4の座標を(x9,y9)、点Fe5の座標を(x7,0)、点Fe6の座標を
(0,y7)、点Fe7の座標を(x20,0)、点Fe8の座標を(0,y20)とす
る。
Hereinafter, the processing of the correction unit 358 will be described in detail with reference to FIGS. FIG. 10 is a diagram showing the coordinates of each point. As shown in FIG. 10, the coordinates of the point F1 are (x4, y4), the coordinates of the point F2 are (x10, y4), the coordinates of the point F3 are (x10, y8), and the coordinates of the point F4 are (x
4, y8), the coordinates of the point F5 are (x4, 0), the coordinates of the point F6 are (0, y4), the coordinates of the point F7 are (x10, 0), and the coordinates of the point F8 are (0, y8). . Also, the coordinates of the point Fe1 are (x6
, Y6), the coordinates of the point Fe2 are (x11, y11), and the coordinates of the point Fe3 are (x13, y13).
The coordinates of the point Fe4 are (x9, y9), the coordinates of the point Fe5 are (x7,0), the coordinates of the point Fe6 are (0, y7), the coordinates of the point Fe7 are (x20,0), and the coordinates of the point Fe8 are (0, y20).

さらに、図11に示すように、第1象限下側領域Aにおいて検出された分析用注視点を
点P2Aとし、点P2Aの座標を(x2A,y2A)とする。また、点P2Aの補正後の
分析用注視点を点P0Aとし、点P0Aの座標を(x0A,y0A)とする。
Further, as shown in FIG. 11, the point of interest for analysis detected in the first quadrant lower area A is a point P2A, and the coordinates of the point P2A are (x2A, y2A). Further, the point of interest for analysis after the correction of the point P2A is the point P0A, and the coordinates of the point P0A are (x0A, y0A).

さらに、点Fe1と点Fe5を通る直線をL1A、点F1と点F5を通る直線をL2A
とする。点P2Aと原点Oを通る直線をL3A、点P0Aと原点を通る直線をL4A、点
Fe1と原点を通る直線をL5A、点F1と原点を通る直線をL6Aとする。
Further, a straight line passing through the points Fe1 and Fe5 is L1A, and a straight line passing through the points F1 and F5 is L2A.
And A straight line passing through the point P2A and the origin O is L3A, a straight line passing through the point P0A and the origin is L4A, a straight line passing through the point Fe1 and the origin is L5A, and a straight line passing through the point F1 and the origin is L6A.

また、直線L2Aと直線L4Aの交点を点P1Aとし、点P1Aの座標を(x4,y1
A)とする。また、直線L1Aと直線L3Aの交点を点P3Aとし、点P3Aの座標を(
x3A,y3A)とする。
Further, the intersection of the straight line L2A and the straight line L4A is defined as a point P1A, and the coordinates of the point P1A are represented by (x4, y1
A). Further, an intersection of the straight line L1A and the straight line L3A is a point P3A, and the coordinates of the point P3A are (
x3A, y3A).

また、原点と点P0Aの間の距離をd0A、原点と点P1Aの間の距離をd1A、原点
と点P2Aの間の距離をd2A、原点と点P3Aの間の距離をd3Aとする。
Further, the distance between the origin and the point P0A is d0A, the distance between the origin and the point P1A is d1A, the distance between the origin and the point P2A is d2A, and the distance between the origin and the point P3A is d3A.

また、直線L3AとX軸のなす角0Aの角度をθ0A、直線L5AとX軸のなす角1A
の角度をθ1A、直線L4AとX軸のなす角2Aの角度をθ2A、直線L6AとX軸のな
す角3Aの角度をθ3Aとする。
The angle 0A formed by the straight line L3A and the X axis is θ0A, and the angle 1A formed by the straight line L5A and the X axis is 1A.
Is θ1A, the angle 2A formed by the straight line L4A and the X axis is θ2A, and the angle 3A formed by the straight line L6A and the X axis is θ3A.

以上の条件の下、補正部358は、角0Aの角度θ0Aの角1Aの角度θ1Aに対する
割合と、角2Aの角度θ2Aの角3Aの角度θ3Aに対する割合が等しいとして、角2A
の角度θ2Aを求め、さらに、距離d2Aの距離d3Aに対する割合と、距離d0Aの距
離d1Aに対する割合が等しいとして、距離d0Aを求めることにより、補正用注視点の
補正後の位置を算出する。
Under the above conditions, the correction unit 358 assumes that the ratio of the angle θ0A of the angle 0A to the angle θ1A of the angle 1A is equal to the ratio of the angle 2A of the angle 2A to the angle θ3A of the angle 3A.
Further, the corrected position of the gazing point for correction is calculated by determining the distance d0A on the assumption that the ratio of the distance d2A to the distance d3A is equal to the ratio of the distance d0A to the distance d1A.

補正部358は、まず、(式1)〜(式3)により、角度θ0A、角度θ1Aおよび角
度θ3Aを算出する。
First, the correction unit 358 calculates the angle θ0A, the angle θ1A, and the angle θ3A using (Expression 1) to (Expression 3).

角0Aの角度θ0Aの角1Aの角度θ1Aに対する割合と、角2Aの角度θ2Aの角3
Aの角度θ3Aに対する割合が等しいことから、(式4)が成り立つ。補正部358は、
(式4)に(式1)〜(式3)により算出した角度θ0A、角度θ1Aおよび角度θ3A
を代入することにより、角度θ2Aを算出する。
The ratio of the angle 0A to the angle θ1A of the angle 1A and the angle θ1A of the angle 2A and the angle 3 of the angle θ2A of the angle 2A
Since the ratio of A to the angle θ3A is equal, (Equation 4) holds. The correction unit 358
The angle θ0A, the angle θ1A, and the angle θ3A calculated by (Expression 1) to (Expression 3) in (Expression 4).
Is substituted for angle θ2A.

補正部358はまた、点P3Aが直線L1Aと直線L3Aの交点であるとして、点P3
Aの座標(x3A,y3A)を算出する。ここで、直線L1Aは、(式5)により示され
る。
(式5)は、(式6)のように示すことができる。
(式6)において、alおよびblはそれぞれ(式7)および(式8)で示される。
また、直線L3Aは、(式9)により示される。
(式9)を(式6)に代入することにより、(式10)および(式11)が得られる。
補正部358は、(式10)および(式11)により、点P3Aの座標(x3A,y3A
)を算出する。
The correcting unit 358 also assumes that the point P3A is an intersection of the straight line L1A and the straight line L3A, and the point P3
The coordinates (x3A, y3A) of A are calculated. Here, the straight line L1A is represented by (Equation 5).
(Expression 5) can be expressed as (Expression 6).
In (Formula 6), al and bl are represented by (Formula 7) and (Formula 8), respectively.
The straight line L3A is represented by (Equation 9).
By substituting (Equation 9) into (Equation 6), (Equation 10) and (Equation 11) are obtained.
The correction unit 358 calculates the coordinates (x3A, y3A) of the point P3A according to (Expression 10) and (Expression 11).
) Is calculated.

補正部358はさらに、(式12)により、距離d3Aに対する距離d2Aの比k0を
算出する。
Further, the correction unit 358 calculates a ratio k0 of the distance d2A to the distance d3A by (Equation 12).

補正部358はまた、点P1Aの座標(x4,y1A)を算出する。ここで、直線L2
Aは、(式13)により示される。
(式13)を用いて、(式14)および(式15)が得られる。
以上に基づき、補正部358は、(式14)および(式15)により、点P1Aの座標(
x4,y1A)を算出する。
The correcting unit 358 also calculates the coordinates (x4, y1A) of the point P1A. Here, straight line L2
A is represented by (Equation 13).
Using (Expression 13), (Expression 14) and (Expression 15) are obtained.
Based on the above, the correction unit 358 determines the coordinates of the point P1A (Equation 14) and (Equation 15) (
x4, y1A) is calculated.

補正部358はさらに、(式16)により、距離d1Aを算出する。
Further, the correction unit 358 calculates the distance d1A by (Equation 16).

補正部358は、点P0Aが距離d1Aに対する距離d0Aの比がk0となるような点
であるとして、(式17)および(式18)により、点P0Aの座標(x0A,y0A)
を算出する。
The correction unit 358 assumes that the point P0A is a point where the ratio of the distance d0A to the distance d1A is k0, and the coordinates (x0A, y0A) of the point P0A are expressed by (Expression 17) and (Expression 18).
Is calculated.

なお、補正部358は、他の部分領域においても、同様の演算式により、各部分領域に
属する分析用注視点の位置を補正する。
Note that the correction unit 358 also corrects the position of the analysis gazing point belonging to each partial region in the other partial regions using the same arithmetic expression.

図12は、第4象限上側領域Hを示す図である。分析用注視点が第4象限上側領域Hに
属する場合には、X軸を基準として、角0B〜3Bを定め、また、直線L1B〜L6Bを
定める。そして、補正部358は、角0Bの角度θ0Bの角1Bの角度θ1Bに対する割
合と、角2Bの角度θ2Bの角3Bの角度θ3Bに対する割合が等しいとして、角2Bの
角度θ2Bを求める。さらに、補正部358は、距離d2Bの距離d3Bに対する割合と
、距離d0Bの距離d1Bに対する割合が等しいとして、距離d0Bを求める。これによ
り、補正部358は、分析用注視点P2B(x2B,y2B)の補正後の分析用注視点P
0Bの座標(x0B,y0B)を算出する。
FIG. 12 is a diagram illustrating the upper quadrant H of the fourth quadrant. When the analysis gazing point belongs to the upper quadrant H of the fourth quadrant, the angles 0B to 3B are defined with reference to the X axis, and straight lines L1B to L6B are defined. Then, the correction unit 358 determines the angle θ2B of the angle 2B, assuming that the ratio of the angle 0B to the angle θ1B of the angle 1B and the angle θ2B of the angle 2B to the angle θ3B of the angle 3B is equal. Furthermore, the correction unit 358 calculates the distance d0B on the assumption that the ratio of the distance d2B to the distance d3B is equal to the ratio of the distance d0B to the distance d1B. Thereby, the correcting unit 358 corrects the analysis gazing point P2B (x2B, y2B) after the analysis gazing point P2B (x2B, y2B).
The coordinates (x0B, y0B) of 0B are calculated.

図13は、第2象限上側領域Cを示す図である。分析用注視点が第2象限上側領域Cに
属する場合には、Y軸を基準として、角0C〜3Cを定め、また、直線L1C〜L6Cを
定める。そして、補正部358は、角0Cの角度θ0Cの角1Cの角度θ1Cに対する割
合と、角2Cの角度θ2Cの角3Cの角度θ3Cに対する割合が等しいとして、角2Cの
角度θ2Cを求める。さらに、補正部358は、距離d2Cの距離d3Cに対する割合と
、距離d0Cの距離d1Cに対する割合が等しいとして、距離d0Cを求める。これによ
り、補正部358は、分析用注視点P2C(x2C,y2C)の補正後の分析用注視点P
0Cの座標(x0C,y0C)を算出する。
FIG. 13 is a diagram showing the upper quadrant area C of the second quadrant. When the analysis gazing point belongs to the second quadrant upper area C, the angles 0C to 3C are defined with reference to the Y axis, and the straight lines L1C to L6C are defined. Then, the correction unit 358 obtains the angle θ2C of the angle 2C, assuming that the ratio of the angle 0C to the angle θ1C of the angle 1C is equal to the ratio of the angle 2C of the angle 2C to the angle θ3C of the angle 3C. Further, the correction unit 358 calculates the distance d0C on the assumption that the ratio of the distance d2C to the distance d3C is equal to the ratio of the distance d0C to the distance d1C. As a result, the correcting unit 358 corrects the analysis attention point P2C (x2C, y2C) after the analysis attention point P2C (x2C, y2C).
The coordinates of 0C (x0C, y0C) are calculated.

図14は、第1象限上側領域Bを示す図である。分析用注視点が第1象限上側領域Bに
属する場合には、Y軸を基準として、角0D〜3Dを定め、また、直線L1D〜L6Dを
定める。そして、補正部358は、角0Dの角度θ0Dの角1Dの角度θ1Dに対する割
合と、角2Dの角度θ2Dの角3Dの角度θ3Dに対する割合が等しいとして、角2Dの
角度θ2Dを求める。さらに、補正部358は、距離d2Dの距離d3Dに対する割合と
、距離d0Dの距離d1Dに対する割合が等しいとして、距離d0Dを求める。これによ
り、補正部358は、分析用注視点P2D(x2D,y2D)の補正後の分析用注視点P
0Dの座標(x0D,y0D)を算出する。
FIG. 14 is a diagram showing the first quadrant upper area B. As shown in FIG. When the analysis gazing point belongs to the first quadrant upper area B, the angles 0D to 3D are determined with reference to the Y axis, and the straight lines L1D to L6D are determined. Then, the correction unit 358 determines the angle θ2D of the angle 2D, assuming that the ratio of the angle 0D to the angle θ1D of the angle 1D is equal to the ratio of the angle 2D of the angle 2D to the angle θ3D of the angle 3D. Further, the correction unit 358 calculates the distance d0D on the assumption that the ratio of the distance d2D to the distance d3D is equal to the ratio of the distance d0D to the distance d1D. Thereby, the correcting unit 358 corrects the analysis gazing point P2D (x2D, y2D) after the analysis gazing point P2D (x2D, y2D).
The coordinates (x0D, y0D) of 0D are calculated.

図3に戻り、評価部359は、診断画像と、補正後の分析用注視点とに基づいて、発達
障害の程度に関する指標として評価値を算出する。評価部359は、例えば、後述する図
39から図44などの診断画像を表示した際の被験者の分析用注視点の位置に基づいて、
診断画像としての顔画像の目を見ている割合を評価値として算出し、評価値が低いほど、
発達障害の可能性が高いことを示すような評価値を算出する。評価部359は、診断画像
と分析用注視点とに基づいて、評価値を算出すればよく、その算出方法は、実施の形態に
限定されるものではない。
Returning to FIG. 3, the evaluation unit 359 calculates an evaluation value as an index related to the degree of developmental disability based on the diagnostic image and the corrected attention point for analysis. The evaluation unit 359, for example, based on the position of the subject's point of interest for analysis when displaying a diagnostic image such as FIGS.
Calculate the rate of looking at the eyes of the face image as a diagnostic image as the evaluation value, the lower the evaluation value,
Calculate an evaluation value that indicates a high probability of developmental disability. The evaluation unit 359 may calculate the evaluation value based on the diagnostic image and the analysis point of interest, and the calculation method is not limited to the embodiment.

次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支
援処理について図15を用いて説明する。図15は、第1の実施形態における診断支援処
理の一例を示すフローチャートである。
Next, diagnosis support processing by the diagnosis support apparatus 100 according to the first embodiment configured as described above will be described with reference to FIG. FIG. 15 is a flowchart illustrating an example of a diagnosis support process according to the first embodiment.

まず、出力制御部354は、メニュー画面を表示する(ステップS1)。図16は、メ
ニュー画面の一例を示す図である。図16に示すように、メニュー画面は、分析ボタン5
01と、結果表示ボタン502と、プログラム終了ボタン503と、を含む。分析ボタン
501が押下されると、出力制御部354は、診断画像を用いた分析処理を実行するため
の画面である分析メニュー画面を表示部210に表示させる。結果表示ボタン502が押
下されると、出力制御部354は、結果表示画面(後述)を表示部210に表示させる。
プログラム終了ボタン503が押下されると、出力制御部354は、診断支援処理を終了
する。
First, the output control unit 354 displays a menu screen (step S1). FIG. 16 is a diagram illustrating an example of a menu screen. As shown in FIG. 16, the menu screen has an analysis button 5
01, a result display button 502, and a program end button 503. When the analysis button 501 is pressed, the output control unit 354 causes the display unit 210 to display an analysis menu screen that is a screen for executing an analysis process using a diagnostic image. When the result display button 502 is pressed, the output control unit 354 causes the display unit 210 to display a result display screen (described later).
When the program end button 503 is pressed, the output control unit 354 ends the diagnosis support process.

図17は、分析メニュー画面の一例を示す図である。図17に示すように、分析メニュ
ー画面は、「分析を始める」ボタン601と、「基本メニューに戻る」ボタン602と、
キャリブレーション用コンテンツを選択するためのプルダウン611と、分析用コンテン
ツを選択するためのプルダウン612と、情報入力欄613と、を含む。
FIG. 17 is a diagram illustrating an example of the analysis menu screen. As shown in FIG. 17, the analysis menu screen includes a “start analysis” button 601, a “return to basic menu” button 602,
A pull-down 611 for selecting calibration content, a pull-down 612 for selecting analysis content, and an information input field 613 are included.

「分析を始める」ボタン601が押下されると、診断画像を用いた処理(図15のステ
ップS2以降の処理)が開始される。「基本メニューに戻る」ボタン602が押下される
と、図16のメニュー画面に戻る。キャリブレーション用コンテンツとは、較正部355
によるキャリブレーション(視線検出用較正)で使用する画像などのコンテンツを表す。
キャリブレーション用コンテンツの一例は、図21、22である。プルダウン611を用
いて選択されたコンテンツが、較正部355によるキャリブレーションで使用される。分
析用コンテンツとは、診断に用いられる画像(診断画像)などのコンテンツを表す。プル
ダウン612を用いて選択されたコンテンツが、診断画像として使用される。情報入力欄
613は、被験者の情報などの診断に必要な各種情報を入力するための欄である。
When the “start analysis” button 601 is pressed, processing using a diagnostic image (processing after step S2 in FIG. 15) is started. When the “return to basic menu” button 602 is pressed, the menu screen of FIG. 16 is displayed again. The calibration content is the calibration unit 355.
It represents contents such as images used in calibration (calibration for eye-gaze detection).
An example of the calibration content is shown in FIGS. The content selected using the pull-down 611 is used for calibration by the calibration unit 355. The analysis content represents content such as an image (diagnosis image) used for diagnosis. The content selected using the pull-down 612 is used as a diagnostic image. The information input column 613 is a column for inputting various types of information necessary for diagnosis such as subject information.

図15に戻る。分析の開始が指示された場合、例えば、メニュー画面で分析ボタン50
1が押下され、分析メニュー画面で「分析を始める」ボタン601が押下された場合、出
力制御部354は、位置調整用画像を表示部210に表示させる(ステップS2)。
Returning to FIG. When the start of analysis is instructed, for example, the analysis button 50 is displayed on the menu screen.
When 1 is pressed and the “Start Analysis” button 601 is pressed on the analysis menu screen, the output control unit 354 causes the display unit 210 to display a position adjustment image (step S2).

図18は、位置調整用画像701の一例を示す図である。位置調整用画像701は、基
準画像としてのスケール703と、撮像範囲画像としての枠702と、目の位置画像70
5と、マーカ704と、動画像であるキャラクタ画像706と、を含む。図18の例では
、被験者が適切な距離に位置するため、目の位置画像705の直径とマーカ704の幅と
が一致するように表示されている。この場合、出力制御部354は、例えば目の位置画像
705を、距離が適切であることを示す色(例えば緑)で表示してもよい。また、図18
の例では、被験者が基準領域内に存在するため、出力制御部354は、スケール703を
基準領域内であることを示す色(例えば緑)で表示してもよい。被験者の左右の目の位置
画像705の少なくとも一方が基準領域外となったことを検出した場合に、出力制御部3
54が、スケール703を基準領域外であることを示す色(例えば赤)で表示してもよい
。また、出力制御部354は、被験者の左右の目の位置画像705の少なくとも一方が基
準領域外となったことを検出した場合に、「もっと右へ」または「もっと左へ」などの音
声を出力してもよい。出力制御部354は、キャラクタ画像706を、スケール703内
で時間と共に移動させるとともに、目の位置(視線の向き)、形状が変化するように表示
する。動画像は、キャラクタ画像706ではなく、注目を集めさせるものであればよい。
例えば、動画像として花火のような画像や、輝度、色が変化する画像などが考えられる。
FIG. 18 is a diagram illustrating an example of the position adjustment image 701. The position adjustment image 701 includes a scale 703 as a reference image, a frame 702 as an imaging range image, and an eye position image 70.
5, a marker 704, and a character image 706 that is a moving image. In the example of FIG. 18, since the subject is located at an appropriate distance, the diameter of the eye position image 705 and the width of the marker 704 are displayed to match. In this case, the output control unit 354 may display, for example, the eye position image 705 in a color (for example, green) indicating that the distance is appropriate. Further, FIG.
In the example, since the subject exists in the reference area, the output control unit 354 may display the scale 703 in a color (for example, green) indicating that it is in the reference area. When it is detected that at least one of the position images 705 of the left and right eyes of the subject is outside the reference region, the output control unit 3
54 may display the scale 703 in a color (for example, red) indicating that it is outside the reference region. In addition, when the output control unit 354 detects that at least one of the position images 705 of the left and right eyes of the subject is outside the reference region, the output control unit 354 outputs a sound such as “more right” or “more left”. May be. The output control unit 354 displays the character image 706 so that the position of the eyes (the direction of the line of sight) and the shape of the character image 706 change with time in the scale 703. The moving image is not the character image 706 but may be anything that attracts attention.
For example, as a moving image, an image like fireworks, an image in which luminance and color change, and the like can be considered.

本実施形態では、出力制御部354は、基準画像(スケール703)内にキャラクタ画
像706を表示させる。これにより、表示画面101内の適切な位置を被験者に注目させ
ることができる。
In the present embodiment, the output control unit 354 displays the character image 706 in the reference image (scale 703). Thereby, a subject can be made to pay attention to an appropriate position in the display screen 101.

図19は、位置調整用画像の他の例を示す図である。図19は、例えば、図18から時
間が経過した後の位置調整用画像の例である。また、図19は、被験者の目の位置がステ
レオカメラ102に近づいたため、目の位置画像805がマーカ804より大きく表示さ
れた例を示している。この場合、出力制御部354は、例えば目の位置画像805を、距
離が適切でないことを示す色(例えば赤)で表示してもよい。また、出力制御部354は
、目の位置画像805がマーカ804より大きく表示された場合、「もっと後ろ」等の音
声を出力してもよい。また、出力制御部354は、目の位置画像805がマーカ804よ
り小さく表示された場合、「もっと前へ」などの音声を出力してもよい。
FIG. 19 is a diagram illustrating another example of the position adjustment image. FIG. 19 is an example of the position adjustment image after a lapse of time from FIG. FIG. 19 shows an example in which the eye position image 805 is displayed larger than the marker 804 because the eye position of the subject approaches the stereo camera 102. In this case, the output control unit 354 may display, for example, the eye position image 805 in a color (for example, red) indicating that the distance is not appropriate. Further, when the eye position image 805 is displayed larger than the marker 804, the output control unit 354 may output a sound such as “much behind”. Further, when the eye position image 805 is displayed smaller than the marker 804, the output control unit 354 may output a sound such as “move forward”.

図20は、位置調整用画像の他の例を示す図である。図20は、例えば、図19からさ
らに時間が経過した後の位置調整用画像の例である。図19および図20に示すように、
出力制御部354は、基準画像内を移動するキャラクタ画像806、906を表示する。
FIG. 20 is a diagram illustrating another example of the position adjustment image. FIG. 20 is an example of the position adjustment image after a further time has elapsed from FIG. As shown in FIG. 19 and FIG.
The output control unit 354 displays character images 806 and 906 that move within the reference image.

図15に戻る。ステップS2で位置調整用画像を表示することにより、被験者の位置を
適切に調整できる。この結果、以降の処理を高精度に実行可能となる。次に、診断支援装
置100は、視線検出のためのキャリブレーション(視線検出用較正)を実行する(ステ
ップS3)。
Returning to FIG. By displaying the position adjustment image in step S2, the position of the subject can be adjusted appropriately. As a result, the subsequent processing can be executed with high accuracy. Next, the diagnosis support apparatus 100 executes calibration for eye-gaze detection (eye-gaze detection calibration) (step S3).

キャリブレーション処理では、まず出力制御部354が、キャリブレーション用の画像
(例えば、図17のプルダウン611で選択されたキャリブレーション用コンテンツ)を
表示部210に表示させる。
In the calibration process, first, the output control unit 354 causes the display unit 210 to display a calibration image (for example, the calibration content selected by the pull-down 611 in FIG. 17).

図21および図22は、キャリブレーション用の画像の一例を示す図である。出力制御
部354は、まず、図21に示すようなキャリブレーション用の画像を表示部210に表
示させる。キャリブレーション用の画像は、表示画面101の中央付近に位置する円形の
枠1001と、枠1001の中央付近に位置する物体の画像1002とを含む。出力制御
部354は、最初に図21に示すような画像を表示させた後、徐々に枠1001を中心に
向かって縮小するように表示させる。図22は、このようにして縮小された後に表示され
るキャリブレーション用の画像の一例である。縮小後のキャリブレーション用の画像は、
円形の枠1101と、枠1101の中央付近に位置する物体の画像1102とを含む。こ
のような画像を表示することにより、被験者を、表示画面101の中央付近に注目させる
ことができる。
21 and 22 are diagrams illustrating an example of an image for calibration. First, the output control unit 354 causes the display unit 210 to display a calibration image as shown in FIG. The calibration image includes a circular frame 1001 positioned near the center of the display screen 101 and an object image 1002 positioned near the center of the frame 1001. The output control unit 354 first displays an image as shown in FIG. 21, and then displays the image such that the frame 1001 is gradually reduced toward the center. FIG. 22 is an example of a calibration image displayed after being reduced in this way. The image for calibration after reduction is
A circular frame 1101 and an image 1102 of an object located near the center of the frame 1101 are included. By displaying such an image, the subject can be noted near the center of the display screen 101.

較正部355は、被験者が表示画面101の中央を注視しているものとして、視線検出
部351が検出した視線方向が表示画面101の中央に向くように、視線検出のための計
算パラメータを較正する。
The calibration unit 355 calibrates the calculation parameters for line-of-sight detection so that the line of sight detected by the line-of-sight detection unit 351 faces the center of the display screen 101, assuming that the subject is gazing at the center of the display screen 101. .

図15に戻る。ステップS3のキャリブレーションの後、診断支援装置100は、分析
用注視点の位置補正のための補正用注視点検出処理を実行する(ステップS4)。補正用
注視点検出処理においては、診断支援装置100は、ターゲットポイントを示す目印に対
する注視点、すなわち補正用注視点を検出する。補正用注視点検出処理については、後述
する。
Returning to FIG. After the calibration in step S3, the diagnosis support apparatus 100 executes a correction gazing point detection process for correcting the position of the analysis gazing point (step S4). In the correction gazing point detection process, the diagnosis support apparatus 100 detects a gazing point with respect to the mark indicating the target point, that is, a correction gazing point. The correction gazing point detection process will be described later.

次に、診断支援装置100は、診断画像を用いた分析処理を実行する(ステップS5)
。分析処理では、出力制御部354が診断画像を表示し、視点検出部352が分析用注視
点を検出する。また、補正部358が補正用注視点を用いて、分析用注視点の位置を補正
した後、評価部359が補正後の分析用注視点を用いて発達障害の程度に関する指標とし
て評価値を算出する。分析処理の詳細は後述する。なお、評価部359による評価値の算
出を行わず、例えば、図50から図54で説明するように、分析用注視点の検出結果を表
示することで、診断者の診断を支援することも可能である。
Next, the diagnosis support apparatus 100 executes analysis processing using the diagnostic image (step S5).
. In the analysis process, the output control unit 354 displays a diagnostic image, and the viewpoint detection unit 352 detects the gaze point for analysis. In addition, after the correction unit 358 corrects the position of the analysis attention point using the correction attention point, the evaluation unit 359 calculates an evaluation value as an index related to the degree of developmental disorder using the corrected analysis attention point. To do. Details of the analysis process will be described later. It is also possible to support the diagnosis by diagnosing the diagnosis by displaying the result of detection of the gazing point for analysis, as described in FIGS. 50 to 54, for example, without calculating the evaluation value by the evaluation unit 359. It is.

次に、出力制御部354が、分析処理による分析結果(評価結果)を表示部210等に
出力する(ステップS6)。結果を出力する処理の詳細は後述する。
Next, the output control unit 354 outputs the analysis result (evaluation result) by the analysis process to the display unit 210 or the like (step S6). Details of the process of outputting the result will be described later.

次に、ステップS4の補正用注視点検出処理の詳細について説明する。図23は、第1
の実施形態における補正用注視点検出処理の一例を示すフローチャートである。
Next, details of the correction gazing point detection process in step S4 will be described. FIG. 23 shows the first
It is a flowchart which shows an example of the gaze point detection process for correction | amendment in this embodiment.

補正用注視点検出処理においては、まず、出力制御部354は、ターゲットポイントを
示す目印SP0を所定位置(原点位置)に表示する(ステップS110)。次に、視点検
出部352は、目印SP0に対して得られた補正用注視点の位置を検出する(ステップS
111)。視点検出部352は、所定数の補正用注視点を検出し、これらのデータ分布を
計算する(ステップS112)。
In the correction gazing point detection process, first, the output control unit 354 displays the mark SP0 indicating the target point at a predetermined position (origin position) (step S110). Next, the viewpoint detection unit 352 detects the position of the correction gazing point obtained with respect to the mark SP0 (step S).
111). The viewpoint detection unit 352 detects a predetermined number of correction gazing points and calculates their data distribution (step S112).

図24は、データ分布の計算処理を説明するための図である。目印(SP0〜SP4)
を中心とした判定用領域が各目印に対して予め設定されている。なお、本実施の形態にお
いては、目印を中心とする所定の半径の円を判定用領域とする。判定用領域内に所定数以
上の補正用注視点が得られない場合には、被験者がターゲットポイントの目印をしっかり
注視していなかった可能性が高く、補正に有効な補正用注視点を検出していない可能性が
高い。そこで、本実施の形態においては、視点検出部352は、目印を表示している間の
所定時間において、判定用領域内の注視点が所定数以上検出されたか否かにより、検出さ
れた補正用注視点が適正か否かを判断することとする。
FIG. 24 is a diagram for explaining a data distribution calculation process. Mark (SP0-SP4)
A determination area centered on is set in advance for each mark. In the present embodiment, a circle with a predetermined radius centered on the mark is used as the determination area. If a predetermined number of correction gaze points cannot be obtained within the judgment area, it is highly likely that the subject did not gaze at the target point mark, and a correction gaze point that is effective for correction is detected. Most likely not. Therefore, in the present embodiment, the viewpoint detection unit 352 detects the correction for detection based on whether or not a predetermined number or more of the gazing points in the determination area are detected during a predetermined time while the landmark is displayed. Judgment is made on whether or not the gaze point is appropriate.

ステップS112におけるデータ分布計算処理においては、視点検出部352は、判定
用領域内に属する補正用注視点の数を計測する。そして、視点検出部352は、判定用領
域内に属する補正用注視点の数が予め設定された閾値以上である場合に、検出された補正
用注視点が適正であると判断し(ステップS113,Yes)、検出された複数の補正用
注視点のうち、判定用領域に属さない補正用注視点を除いた判定用領域内データ群を特定
する(ステップS114)。
In the data distribution calculation process in step S112, the viewpoint detection unit 352 measures the number of correction gazing points belonging to the determination area. The viewpoint detection unit 352 determines that the detected correction gazing point is appropriate when the number of correction gazing points belonging to the determination area is equal to or greater than a preset threshold (step S113, Yes), the determination-in-area data group excluding the correction gazing point that does not belong to the determination area from among the plurality of correction gazing points detected (step S114).

なお、ステップS113において、補正用注視点が適正でないと判断した場合には(ス
テップS113,No)、ステップS111に戻り、視点検出部352は、再び補正用注
視点の検出をやり直す。
If it is determined in step S113 that the correction gazing point is not appropriate (No in step S113), the process returns to step S111, and the viewpoint detection unit 352 detects the correction gazing point again.

次に、視点検出部352は、判定用領域内データ群の各補正用注視点の座標に基づいて
、判定用領域内データ群の代表値を算出する(ステップS115)。本実施の形態におい
ては、代表値として、判定用領域内データ群の平均値を算出する。なお、代表値は、平均
値以外の値であってもよい。代表値は、例えば標準偏差であってもよい。以降の処理にお
いては、ステップS115により算出された代表値が補正用注視点として利用される。
Next, the viewpoint detection unit 352 calculates the representative value of the in-determination area data group based on the coordinates of each correction gazing point of the in-determination area data group (step S115). In the present embodiment, the average value of the in-determination area data group is calculated as the representative value. The representative value may be a value other than the average value. The representative value may be a standard deviation, for example. In the subsequent processing, the representative value calculated in step S115 is used as the correction gazing point.

次に、すべてのターゲットポイントの目印に対する代表値が算出されていない場合には
(ステップS116,No)、出力制御部354は、次のターゲットポイントを示す目印
を表示する(ステップS117)。そして、ステップS111に戻り、表示中の目印に対
する代表値を算出する(ステップS111〜115)。
Next, when the representative values for all the target point marks have not been calculated (step S116, No), the output control unit 354 displays a mark indicating the next target point (step S117). Then, the process returns to step S111, and representative values for the displayed mark are calculated (steps S111 to S115).

ステップS116において、すべてのターゲットポイントの目印に対する代表値が算出
されると(ステップS116,Yes)、補正用注視点検出処理(ステップS4)が完了
する。
In step S116, when representative values for all target point markers are calculated (step S116, Yes), the correction gazing point detection processing (step S4) is completed.

図25−1〜図25−5は、補正用注視点検出処理(ステップS4)における各ターゲ
ットポイントの目印の表示処理を説明するための図である。出力制御部354は、図23
に示すステップS110において、まず図25−1に示すように目印SP0を表示部21
0に表示する。次に、出力制御部354は、ステップS117において、残りのターゲッ
トポイントの目印を1つずつ順番に表示部210に表示する。
FIGS. 25-1 to 25-5 are diagrams for explaining the display processing of the mark of each target point in the correction gazing point detection processing (step S4). The output control unit 354 is configured as shown in FIG.
In step S110 shown in FIG. 25, first, as shown in FIG.
Display at 0. Next, in step S117, the output control unit 354 displays the remaining target point marks on the display unit 210 one by one in order.

すなわち、出力制御部354は、図25−2に示すようにステップS117において、
SP0の表示をやめ、新たにSP1を表示し、SP1の代表値算出後に再びステップS1
17において、図25−3に示すようにSP1の表示をやめ、新たにSP2を表示する。
同様に、出力制御部354は、続けて、図25−4に示すように、SP2の表示をやめ、
新たにSP3のターゲットポイントを表示する。続いて、図25−5に示すように、SP
3の表示をやめ、新たにSP4のターゲットポイントを表示する。
That is, the output control unit 354, in step S117 as shown in FIG.
The display of SP0 is stopped, SP1 is newly displayed, and step S1 is performed again after calculating the representative value of SP1.
17, the display of SP1 is stopped as shown in FIG. 25-3, and SP2 is newly displayed.
Similarly, the output control unit 354 continues to stop the display of SP2, as shown in FIG.
A new SP3 target point is displayed. Subsequently, as shown in FIG.
3 is stopped and the SP4 target point is newly displayed.

このように、各ターゲットポイントを順番に1つずつ表示することにより、被験者の補
正用注視点を検出することができる。
Thus, by displaying each target point one by one in order, it is possible to detect the subject's correction gazing point.

次に、ターゲットポイントの目印の他の例について説明する。図68〜図36は、ター
ゲットポイントの目印の一例を示す図である。図26〜図36の例では、所定形状の枠と
枠内に表示する画像とを含む目印が用いられる。また、出力制御部354は、複数のター
ゲットポイントごとに、相互に異なる画像を表示させる。さらに、出力制御部354は、
枠内の画像として、枠の中心を含む部分の表示態様が変化するような動画を表示させる。
これにより、ターゲットポイントの目印のうち、より中心に近い位置を被験者に注視させ
ることができる。なお、枠内の表示態様が変化する部分は、厳密に枠の中心点を含んでい
なくともよい。例えば、注目させたい点を決めておけば、中心でなくともよい。その場合
には、補正用注視点の算出の際に、中心ではない点を注目させる点としたことを考慮する
必要がある。
Next, another example of target point marks will be described. 68 to 36 are diagrams showing examples of target point marks. In the example of FIGS. 26 to 36, a mark including a frame having a predetermined shape and an image displayed in the frame is used. In addition, the output control unit 354 displays different images for each of the plurality of target points. Further, the output control unit 354
A moving image in which the display mode of the portion including the center of the frame changes is displayed as the image in the frame.
Thereby, a test subject can be made to gaze at the position nearer the center among the marks of the target points. Note that the portion where the display mode in the frame changes does not have to include the center point of the frame strictly. For example, if you decide what you want to focus on, you don't have to be at the center. In such a case, it is necessary to consider that a point that is not the center is noted when calculating the correction gazing point.

なお、図26〜図36では、5つのターゲットポイントの目印を、図5のSP0→SP
2→SP3→SP4→SP1の順に表示する。このように、ターゲットポイントの目印の
表示順は任意に変更してもよい。
26 to 36, the marks of the five target points are designated as SP0 → SP in FIG.
Displayed in the order of 2 → SP3 → SP4 → SP1. As described above, the display order of the target point marks may be arbitrarily changed.

図26では、出力制御部354は、まず、枠1201と、枠内に位置するキャラクタの
画像1202とを、SP0に相当する位置に表示させる。画像1202は、中心付近が動
く動画である。図27は、中心付近の鼻の部分が拡大されるように動いた後のキャラクタ
の画像1302が、枠1301内に表示された様子を表している。
In FIG. 26, the output control unit 354 first displays a frame 1201 and a character image 1202 located in the frame at a position corresponding to SP0. The image 1202 is a moving image that moves near the center. FIG. 27 shows a state in which an image 1302 of the character after moving so that the nose portion near the center is enlarged is displayed in the frame 1301.

図28に示すように、出力制御部354は、枠を先にターゲットポイントに表示させ、
その後にターゲットポイントに向かってキャラクタの画像が移動するように表示させても
よい。これにより、被験者に注視点を次のターゲットポイントに適切に誘導することがで
きる。図28は、枠1401がターゲットポイント(図5のSP2の位置)に表示され、
キャラクタの画像1402が枠1401に向かって移動している途中の様子を表している
As shown in FIG. 28, the output control unit 354 displays the frame on the target point first,
Thereafter, the character image may be displayed so as to move toward the target point. Thereby, a gaze point can be appropriately guided to the next target point to the subject. In FIG. 28, a frame 1401 is displayed at the target point (the position of SP2 in FIG. 5).
A state in which the character image 1402 is moving toward the frame 1401 is shown.

図29は、図28のキャラクタの画像1402が枠1401の位置まで移動した後に、
画像1402と異なるキャラクタの画像1502が表示された様子を表している。このよ
うに、ターゲットポイントごとに相互に異なる画像を表示させることで、被験者を飽きさ
せずに画像に注目させることができる。図30は、画像1502の中心付近の目の部分が
拡大されるように動いた後のキャラクタの画像1602が、枠1401内に表示された様
子を表している。
FIG. 29 shows the state after the character image 1402 in FIG. 28 has moved to the position of the frame 1401.
A state in which an image 1502 of a character different from the image 1402 is displayed is shown. In this way, by displaying different images for each target point, it is possible to focus on the images without getting tired of the subject. FIG. 30 shows a state in which the character image 1602 after moving so that the eye portion near the center of the image 1502 is enlarged is displayed in the frame 1401.

図31は、図30のキャラクタの画像1602が枠1701の位置(図5のSP3の位
置)まで移動した後に、画像1602と異なるキャラクタの画像1702が表示された様
子を表している。図32は、画像1702の中心付近の色が変化した後のキャラクタの画
像1802が、枠1701内に表示された様子を表している。
FIG. 31 shows a state where a character image 1702 different from the image 1602 is displayed after the character image 1602 in FIG. 30 has moved to the position of the frame 1701 (the position SP3 in FIG. 5). FIG. 32 shows a state where the character image 1802 after the color near the center of the image 1702 is changed is displayed in the frame 1701.

図33は、図32のキャラクタの画像1802が枠1901の位置(図5のSP4の位
置)まで移動した後に、画像1802と異なるキャラクタの画像1902が表示された様
子を表している。図34は、画像1902の中心付近の鼻の部分が拡大されるように動い
た後のキャラクタの画像2002が、枠1901内に表示された様子を表している。
FIG. 33 shows a state in which a character image 1902 different from the image 1802 is displayed after the character image 1802 in FIG. 32 has moved to the position of the frame 1901 (the position SP4 in FIG. 5). FIG. 34 shows a state in which an image 2002 of the character after moving so that the nose portion near the center of the image 1902 is enlarged is displayed in the frame 1901.

図35は、図34のキャラクタの画像2002が枠2101の位置(図5のSP1の位
置)まで移動した後に、画像2002と異なるキャラクタの画像2102が表示された様
子を表している。図36は、画像2102の中心付近の目の部分が拡大されるように動い
た後のキャラクタの画像2202が、枠2101内に表示された様子を表している。
FIG. 35 shows a state in which a character image 2102 different from the image 2002 is displayed after the character image 2002 in FIG. 34 has moved to the position of the frame 2101 (the position SP1 in FIG. 5). FIG. 36 shows a state in which an image 2202 of the character after moving so that the eye portion near the center of the image 2102 is enlarged is displayed in the frame 2101.

次に、ステップS5の分析処理の詳細について説明する。ステップS5の分析処理にお
いては、1つの分析処理であってもよいし、複数の分析処理を行うものであってもよい。
複数の分析処理を行う場合、評価部359は、それぞれの分析処理の結果を総合して、評
価値を算出する。図37は、第1の実施形態における分析処理の一例を示すフローチャー
トである。
Next, details of the analysis processing in step S5 will be described. In the analysis process in step S5, one analysis process or a plurality of analysis processes may be performed.
When performing a plurality of analysis processes, the evaluation unit 359 calculates an evaluation value by integrating the results of the respective analysis processes. FIG. 37 is a flowchart illustrating an example of analysis processing according to the first embodiment.

まず、診断支援装置100は、分析用注視点検出処理を実行する(ステップS101)
。分析用注視点検出処理においては、まず、出力制御部354は、診断画像を表示部21
0に表示する。次に、視点検出部352は、表示部210に診断画像が表示されている際
の被験者の注視点、すなわち分析用注視点を検出する。
First, the diagnosis support apparatus 100 executes a gaze point detection process for analysis (step S101).
. In the gazing point detection process for analysis, first, the output control unit 354 displays a diagnostic image on the display unit 21.
Display at 0. Next, the viewpoint detection unit 352 detects the gaze point of the subject when the diagnostic image is displayed on the display unit 210, that is, the gaze point for analysis.

続いて、領域分割部356が、ターゲットポイントの目印に対する代表値である補正用
注視点に基づいて、対象領域を8つの部分領域(A〜H)に分割する(ステップS102
)。次に、補正部358は、ステップS101において得られた分析用注視点が属する、
フレームFeにおける部分領域を特定し、さらに、特定した部分領域に対応する、フレー
ムFにおける部分領域を特定する(ステップS103)。
Subsequently, the area dividing unit 356 divides the target area into eight partial areas (A to H) based on the correction gazing point, which is a representative value for the target point mark (step S102).
). Next, the correction unit 358 includes the analysis attention point obtained in step S101.
A partial region in the frame Fe is specified, and further, a partial region in the frame F corresponding to the specified partial region is specified (step S103).

図38は、部分領域特定処理(ステップS103)において、フレームFeにおける部
分領域を特定する処理を示すフローチャートである。図38に示すように、まず領域特定
部357は、ステップS101において得られた分析用注視点の座標を視点検出部352
から取得する(ステップS120)。
FIG. 38 is a flowchart showing a process of specifying a partial area in the frame Fe in the partial area specifying process (step S103). As shown in FIG. 38, first, the region specifying unit 357 uses the analysis point of interest obtained in step S101 as the viewpoint detection unit 352.
(Step S120).

次に、領域特定部357は、分析用注視点の座標とフレームFe上の部分領域(A〜H
)に基づいて、分析用注視点が属する部分領域を特定する。領域特定部357は、具体的
には、分析用注視点のx座標の符号を特定し、続いてy座標の符号を特定する。分析用注
視点のx座標が0以上であり、かつ分析用注視点のy座標が0以上である場合には(ステ
ップS121,Yes、ステップS122,Yes)、領域特定部357は、さらに分析
用注視点のxy座標と、点Fe1の座標とに基づいて、分析用注視点が原点Oと点Fe1
を結ぶ直線(直線O−Fe1)より上側に位置するか否かを特定する(ステップS123
)。
Next, the area specifying unit 357 determines the coordinates of the gazing point for analysis and the partial areas (A to H on the frame Fe).
) To identify the partial region to which the analysis attention point belongs. Specifically, the area specifying unit 357 specifies the code of the x coordinate of the gaze point for analysis, and then specifies the code of the y coordinate. When the x coordinate of the gazing point for analysis is 0 or more and the y coordinate of the gazing point for analysis is 0 or more (step S121, Yes, step S122, Yes), the region specifying unit 357 further performs analysis. Based on the xy coordinates of the gazing point and the coordinates of the point Fe1, the gazing point for analysis is the origin O and the point Fe1.
It is specified whether it is located above the straight line (straight line O-Fe1) which connects (step S123).
).

分析用注視点が直線O−Fe1上または直線O−Fe1より下側に位置する場合には(
ステップS123,No)、領域特定部357は、分析用注視点が第1象限下側領域Aに
属すると判断する(ステップS124)。
When the point of interest for analysis is located on the straight line O-Fe1 or below the straight line O-Fe1 (
In step S123, No), the area specifying unit 357 determines that the analysis gaze point belongs to the first quadrant lower area A (step S124).

分析用注視点が直線O−Fe1より上側に位置する場合には(ステップS123,Ye
s)、領域特定部357は、分析用注視点が第1象限上側領域Bに属すると判断する(ス
テップS125)。
When the point of interest for analysis is located above the straight line O-Fe1 (step S123, Ye
s), the area specifying unit 357 determines that the analysis gazing point belongs to the first quadrant upper area B (step S125).

分析用注視点のx座標が0以上であり、かつ分析用注視点のy座標が0より小さい場合
には(ステップS121,Yes、ステップS122,No)、領域特定部357は、さ
らに分析用注視点のxy座標と、点Fe4の座標とに基づいて、分析用注視点が原点Oと
点Fe4を結ぶ直線(直線O−Fe4)より上側に位置するか否かを特定する(ステップ
S126)。
If the x coordinate of the analysis gaze point is 0 or more and the y coordinate of the analysis gaze point is smaller than 0 (step S121, Yes, step S122, No), the region specifying unit 357 further performs the analysis note. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe4, it is specified whether or not the gaze point for analysis is located above the straight line connecting the origin O and the point Fe4 (straight line O-Fe4) (step S126).

分析用注視点が直線O−Fe4上または直線O−Fe4より下側に位置する場合には(
ステップS126,No)、領域特定部357は、分析用注視点が第4象限下側領域Gに
属すると判断する(ステップS127)。
When the point of interest for analysis is located on the straight line O-Fe4 or below the straight line O-Fe4 (
In step S126, No), the area specifying unit 357 determines that the analysis gaze point belongs to the lower quadrant area G (step S127).

分析用注視点が直線O−Fe4より上側に位置する場合には(ステップS126,Ye
s)、領域特定部357は、分析用注視点が第4象限上側領域Hに属すると判断する(ス
テップS128)。
When the point of interest for analysis is located above the straight line O-Fe4 (step S126, Ye
s), the area specifying unit 357 determines that the analysis gazing point belongs to the upper quadrant H of the fourth quadrant (step S128).

分析用注視点のx座標が0より小さく、かつ分析用注視点のy座標が0以上である場合
には(ステップS121,No、ステップS129,Yes)、領域特定部357は、さ
らに分析用注視点のxy座標と、点Fe2の座標とに基づいて、分析用注視点が原点Oと
点Fe2を結ぶ直線(直線O−Fe2)より上側に位置するか否かを特定する(ステップ
S130)。
When the x coordinate of the analysis attention point is smaller than 0 and the y coordinate of the analysis attention point is 0 or more (step S121, No, step S129, Yes), the region specifying unit 357 further performs the analysis attention. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe2, it is specified whether or not the gaze point for analysis is located above the straight line connecting the origin O and the point Fe2 (straight line O-Fe2) (step S130).

分析用注視点が直線O−Fe2上または直線O−Fe2より下側に位置する場合には(
ステップS130,No)、領域特定部357は、分析用注視点が第2象限下側領域Dに
属すると判断する(ステップS131)。
When the point of interest for analysis is located on the straight line O-Fe2 or below the straight line O-Fe2 (
In step S130, No), the area specifying unit 357 determines that the analysis gaze point belongs to the second quadrant lower area D (step S131).

分析用注視点が直線O−Fe2より上側に位置する場合には(ステップS130,Ye
s)、領域特定部357は、分析用注視点が第2象限上側領域Cに属すると判断する(ス
テップS132)。
When the point of interest for analysis is located above the straight line O-Fe2 (step S130, Ye
s), the area specifying unit 357 determines that the analysis gazing point belongs to the upper quadrant C of the second quadrant (step S132).

分析用注視点のx座標が0より小さく、かつ分析用注視点のy座標が0より小さい場合
には(ステップS121,No、ステップS129,No)、領域特定部357は、さら
に分析用注視点のxy座標と、点Fe3の座標とに基づいて、分析用注視点が原点Oと点
Fe3を結ぶ直線(直線O−Fe3)より上側に位置するか否かを特定する(ステップS
133)。
If the x coordinate of the analysis gaze point is smaller than 0 and the y coordinate of the analysis gaze point is smaller than 0 (step S121, No, step S129, No), the region specifying unit 357 further analyzes the gaze point for analysis. Based on the xy coordinates of and the coordinates of the point Fe3, it is specified whether or not the analysis gazing point is located above a straight line (straight line O-Fe3) connecting the origin O and the point Fe3 (step S).
133).

分析用注視点が直線O−Fe3上または直線O−Fe3より下側に位置する場合には(
ステップS133,No)、領域特定部357は、分析用注視点が第3象限下側領域Fに
属すると判断する(ステップS134)。
When the point of interest for analysis is located on the straight line O-Fe3 or below the straight line O-Fe3 (
In step S133, No), the area specifying unit 357 determines that the analysis point of sight belongs to the lower quadrant F of the third quadrant (step S134).

分析用注視点が直線O−Fe3より上側に位置する場合には(ステップS133,Ye
s)、領域特定部357は、分析用注視点が第3象限上側領域Eに属すると判断する(ス
テップS135)。
If the point of interest for analysis is located above the straight line O-Fe3 (step S133, Ye)
s), the area specifying unit 357 determines that the analysis gazing point belongs to the third quadrant upper area E (step S135).

以上で、ステップS103における分析用注視点が属する部分領域を特定する処理が完
了する。
This completes the process of specifying the partial region to which the analysis point of interest belongs in step S103.

図37に戻り、分析用注視点が属する、フレームFeにおける部分領域を特定し、さら
に、特定した部分領域に対応する、フレームFにおける部分領域を特定した後、補正部3
58は、分析用注視点の位置を補正する(ステップS104)。ステップS104におけ
る分析用注視点補正処理においては、補正部358は、ステップS103において特定し
た部分領域毎に異なる演算処理を実行することにより、分析用注視点の補正後の位置を算
出する。演算処理の詳細は、上述したとおりである。
Returning to FIG. 37, after specifying the partial area in the frame Fe to which the analysis attention point belongs, and further specifying the partial area in the frame F corresponding to the specified partial area, the correction unit 3
58 corrects the position of the gazing point for analysis (step S104). In the analysis gazing point correction process in step S104, the correction unit 358 calculates a corrected position of the analysis gazing point by executing different calculation processes for each partial region identified in step S103. The details of the arithmetic processing are as described above.

次に、評価部359は、補正後の分析用注視点の位置に基づいて、評価値を算出する(
ステップS105)。例えば、評価部359は、複数の評価項目を総合して評価値を算出
する。評価部359は例えば分析用注視点の位置が図39〜図44で説明する診断画像の
評価領域内に含まれる割合によって、評価値を算出する。評価部359は、分析用注視点
の位置が一箇所に留まる時間により算出される集中度によって、評価値を算出してもよい
。以上で、分析処理が完了する。なお、図51から図54に示すように診断者(医師など
)に出力する結果表示を行う場合は、ステップS105の評価値を算出する処理は、省略
し、診断画像の表示中に視点検出部352は、表示部210に診断画像が表示されている
際の被験者の注視点、すなわち分析用注視点の位置がどの評価領域に含まれるか、または
、集中度の指標を算出するのみでもよい。
Next, the evaluation unit 359 calculates an evaluation value based on the corrected position of the gazing point for analysis (
Step S105). For example, the evaluation unit 359 calculates an evaluation value by integrating a plurality of evaluation items. For example, the evaluation unit 359 calculates an evaluation value based on a ratio in which the position of the gazing point for analysis is included in the evaluation region of the diagnostic image described with reference to FIGS. The evaluation unit 359 may calculate the evaluation value based on the degree of concentration calculated based on the time during which the position of the gazing point for analysis remains in one place. Thus, the analysis process is completed. 51 to 54, when displaying the result to be output to a diagnostician (such as a doctor), the process of calculating the evaluation value in step S105 is omitted, and the viewpoint detection unit is displayed during the display of the diagnostic image. In 352, it is also possible to calculate only in which evaluation area the gaze point of the subject when the diagnostic image is displayed on the display unit 210, that is, the position of the gaze point for analysis is included, or the index of the degree of concentration.

なお、補正部358による補正方法は一例であり、これに限られるものではない。所定
数(例えば5つ)のターゲットポイントに対応する目印から検出した補正用注視点を用い
て、分析用注視点を補正する方法であれば、他のあらゆる方法を適用できる。
Note that the correction method by the correction unit 358 is an example, and the present invention is not limited to this. Any other method can be applied as long as it is a method for correcting a gaze point for analysis using a gaze point for correction detected from a mark corresponding to a predetermined number (for example, five) target points.

次に、診断画像の例について説明する。図39〜図44は、診断画像の一例を示す図で
ある。図39〜図44は、自然画と幾何学画像とを含む診断画像の例を示す。幾何学画像
とは、1以上の幾何学模様を含む画像を表す。発達障害児は、自然画よりも幾何学画像の
映像を好むためである。自然画は、幾何学画像以外の、自然物または自然物を連想させる
ような画像であればよい。例えば、人物、動物、植物、および自然の景観などをカメラで
撮像した画像(静止画、動画)を自然画として用いてもよい。また、人物および動物など
を模したキャラクタの画像(静止画、動画)を自然画として用いてもよい。
Next, an example of a diagnostic image will be described. 39 to 44 are diagrams illustrating examples of diagnostic images. 39 to 44 show examples of diagnostic images including natural images and geometric images. A geometric image represents an image including one or more geometric patterns. This is because children with developmental disabilities prefer geometric images rather than natural images. The natural image may be a natural object or an image reminiscent of a natural object other than a geometric image. For example, an image (still image or moving image) obtained by capturing a person, an animal, a plant, a natural landscape, or the like with a camera may be used as the natural image. Moreover, you may use the image (still image, moving image) of the character imitating a person, an animal, etc. as a natural image.

評価部359は、例えば、自然画よりも幾何学画像が注視される場合に、発達障害の程
度が高いことを示す評価値を算出する。評価部359は例えば、視点検出部により検出さ
れた視点が幾何学模様を表示した評価領域内か自然画を表示した評価領域内かを判定する
。また、評価部359は例えば、視点検出部により検出された視点が幾何学模様を表示し
た評価領域内かどうかを判定する。幾何学模様を表示した評価領域内である確率が高い場
合、発達障害の評価値を高く算出するようにする。
For example, the evaluation unit 359 calculates an evaluation value indicating that the degree of developmental disorder is high when a geometric image is watched more than a natural image. For example, the evaluation unit 359 determines whether the viewpoint detected by the viewpoint detection unit is within an evaluation region displaying a geometric pattern or an evaluation region displaying a natural image. For example, the evaluation unit 359 determines whether or not the viewpoint detected by the viewpoint detection unit is within the evaluation region in which the geometric pattern is displayed. When the probability of being within the evaluation area displaying the geometric pattern is high, the evaluation value of the developmental disorder is calculated to be high.

診断画像を動画とした場合であって自然画と比較して幾何学画像の動作が速い場合、お
よび、幾何学画像の色が鮮やかである場合などのように、幾何学画像に注目が集まりやす
い診断画像を用いると、健常者であっても幾何学画像を注視する可能性がある。そこで、
図39〜図44の例に示すように、自然画に類似する幾何学画像を含む診断画像を表示し
てもよい。例えば、色調、輝度の分布、形状、動作速度、および、画像内の位置(構図)
の少なくとも1つが自然画と類似または一致する幾何学画像を用いることができる。また
、自然画に人物や動物などの物体が含まれる場合、物体の個数と同じ個数の幾何学模様を
含む幾何学画像を用いてもよい。この場合、人物に対応する幾何学模様を円または楕円と
してもよい。
When a diagnostic image is a moving image and the geometric image operates faster than a natural image, and when the color of the geometric image is vivid, the geometric image tends to attract attention. When a diagnostic image is used, even a healthy person may gaze at the geometric image. there,
As shown in the examples of FIGS. 39 to 44, a diagnostic image including a geometric image similar to a natural image may be displayed. For example, color tone, luminance distribution, shape, operation speed, and position in the image (composition)
It is possible to use a geometric image in which at least one of the images is similar or coincident with the natural image. Further, when an object such as a person or an animal is included in the natural image, a geometric image including the same number of geometric patterns as the number of objects may be used. In this case, the geometric pattern corresponding to the person may be a circle or an ellipse.

また、自然画に人物、動物、および、人物や動物を模したキャラクタなどの顔が含まれ
る場合、顔の大きさと同程度の大きさの幾何学模様を含む幾何学画像を用いてもよい。例
えば、顔の横または縦の長さと半径との差分が第1閾値以下の円、または、顔の横の長さ
と短軸の長さとの差分が第2閾値以下の楕円、または、顔の縦の長さと長軸の長さとの差
分が第3閾値以下の楕円を、幾何学模様として含む幾何学画像を用いてもよい。
In addition, when a natural image includes a face such as a person, an animal, and a character imitating a person or an animal, a geometric image including a geometric pattern having the same size as the face may be used. For example, a circle whose difference between the horizontal or vertical length of the face and the radius is a first threshold value or less, an ellipse whose difference between the horizontal length of the face and the short axis length is a second threshold value or less, or the vertical length of the face A geometric image including an ellipse having a difference between the length of the long axis and the length of the major axis equal to or smaller than a third threshold value as a geometric pattern may be used.

また、複数の診断画像を用いる場合、自然画と幾何学画像の配置が相互に異なる複数の
診断画像を用いてもよい。例えば、自然画と、自然画に対して第1方向に配置された幾何
学模様とを含む診断画像を用いた後、自然画と、自然画に対して第1方向と異なる第2方
向(例えば第1方向の逆方向)に配置された幾何学模様とを含む診断画像を用いてもよい
。これにより診断の精度を向上させることができる。
Moreover, when using a some diagnostic image, you may use the some diagnostic image from which arrangement | positioning of a natural image and a geometric image differs mutually. For example, after using a diagnostic image including a natural image and a geometric pattern arranged in the first direction with respect to the natural image, the natural image and a second direction different from the first direction with respect to the natural image (for example, A diagnostic image including a geometric pattern arranged in a direction opposite to the first direction may be used. Thereby, the accuracy of diagnosis can be improved.

図39は、幾何学画像2301と、自然画2302とを含む診断画像の例である。なお
、図39では、公園の広場および木を背景にして3人の人物を含む自然画2302を模式
的に示しているが、このような構図の写真を自然画2302として用いてもよい。図39
では色を示していないが、カラーの自然画2302を用いる場合は、自然画2302の色
に類似させた色の幾何学模様を含む幾何学画像2301を用いてもよい。例えば、背景の
森や広場の草の緑色に合わせて、幾何学模様の背景を緑色としてもよい。また、人物の服
装の色と類似する色の幾何学模様(図39の例では、線が多数重なる部分など)を含む幾
何学画像2301を用いてもよい。
FIG. 39 is an example of a diagnostic image including a geometric image 2301 and a natural image 2302. In FIG. 39, a natural image 2302 including three persons with a park square and a tree as a background is schematically shown. However, a photograph with such a composition may be used as the natural image 2302. FIG.
Although no color is shown, when a natural color image 2302 is used, a geometric image 2301 including a geometric pattern of a color similar to the color of the natural image 2302 may be used. For example, the background of the geometric pattern may be green in accordance with the green of the background forest or the grass of the square. In addition, a geometric image 2301 including a geometric pattern of a color similar to the color of a person's clothes (in the example of FIG. 39, a portion where a large number of lines overlap) may be used.

図40は、幾何学画像2401と、自然画2402とを含む診断画像の例である。図4
0では、公園の広場および木を背景にして2人の人物を含む自然画2402を模式的に示
している。図40では、2人の人物の顔の大きさと同程度の大きさの2つの円形の幾何学
模様を含む幾何学画像2401の例が示されている。図40では色を示していないが、例
えば、2人の人物の服装の色それぞれと一致または類似する色の円形の幾何学模様を用い
てもよい。
FIG. 40 is an example of a diagnostic image including a geometric image 2401 and a natural image 2402. FIG.
In 0, a natural image 2402 including two persons with a park square and trees in the background is schematically shown. FIG. 40 shows an example of a geometric image 2401 including two circular geometric patterns having the same size as the faces of two persons. Although the color is not shown in FIG. 40, for example, a circular geometric pattern having a color that matches or is similar to the color of clothes of two persons may be used.

図41は、幾何学画像2501と、自然画2502とを含む診断画像の例である。図4
1では、1人の乳児を含む自然画2502を模式的に示している。また、図41では、こ
の乳児の顔の大きさと同程度の大きさの楕円形の幾何学模様を含む幾何学画像2501の
例が示されている。図41では色を示していないが、例えば、自然画内の乳児や背景の色
と同じまたは類似する色の幾何学模様または背景を含む幾何学模様を用いてもよい。また
、自然画内の色の配置と、幾何学模様の色の配置は同じまたは類似してもよい。また、自
然画内の色の濃淡の配置と、幾何学模様の色の濃淡の配置は同じまたは類似してもよい。
FIG. 41 is an example of a diagnostic image including a geometric image 2501 and a natural image 2502. FIG.
In FIG. 1, a natural image 2502 including one infant is schematically shown. In addition, FIG. 41 shows an example of a geometric image 2501 including an elliptical geometric pattern having a size similar to the size of the infant's face. Although the color is not shown in FIG. 41, for example, a geometric pattern having the same or similar color as the color of the infant or background in the natural image or a background may be used. Further, the arrangement of colors in the natural image and the arrangement of colors in the geometric pattern may be the same or similar. Further, the arrangement of color shading in the natural image and the shading arrangement of the color of the geometric pattern may be the same or similar.

図42は、幾何学画像2602と、自然画2601とを含む診断画像の例である。図4
2では、空を背景にして4人の人物を含む自然画2601を模式的に示している。図42
では色を示していないが、例えば、背景の空の青色に合わせて、青色の幾何学模様を含む
幾何学画像2602を用いてもよい。
FIG. 42 is an example of a diagnostic image including a geometric image 2602 and a natural image 2601. FIG.
2 schematically shows a natural image 2601 including four persons against the sky. FIG.
Although no color is shown, a geometric image 2602 including a blue geometric pattern may be used in accordance with the blue sky in the background, for example.

図43は、幾何学画像2702と、自然画2701とを含む診断画像の例である。図4
3では、料理をする2人の人物を含む自然画2701を模式的に示している。また、図4
3では、2人の人物と、円形のフライパンとに対応する3つの円形の幾何学模様を含む幾
何学画像2702の例が示されている。図43では色を示していないが、例えば、手前の
人物の服装の色(例えば線の色)と同じまたは類似する色の円形の幾何学模様を含む幾何
学画像2702を用いてもよい。
FIG. 43 is an example of a diagnostic image including a geometric image 2702 and a natural image 2701. FIG.
In FIG. 3, a natural image 2701 including two persons cooking is schematically shown. Also, FIG.
3 shows an example of a geometric image 2702 including three circular geometric patterns corresponding to two persons and a circular frying pan. Although the color is not shown in FIG. 43, for example, a geometric image 2702 including a circular geometric pattern having the same or similar color as the color of clothes of the person in front (for example, the color of a line) may be used.

図44は、幾何学画像2802と、自然画2801とを含む診断画像の例である。図4
4では、公園の広場および木を背景にして3人の人物を含む自然画2801を模式的に示
している。図44では色を示していないが、例えば、背景の森や広場の草の緑色に合わせ
て、幾何学模様の背景を緑色としてもよい。
FIG. 44 is an example of a diagnostic image including a geometric image 2802 and a natural image 2801. FIG.
In FIG. 4, a natural image 2801 including three persons with a park square and trees in the background is schematically shown. Although the color is not shown in FIG. 44, for example, the background of the geometric pattern may be green according to the green of the background forest or the grass of the square.

なお、図39〜図41と比較して、図42〜図44では、幾何学画像と、自然画の配置
が左右で入れ替わっている。従って、複数の診断画像を用いる場合は、例えば、図39〜
図41のいずれかの診断画像と、図42〜図44のいずれかの診断画像とを順に表示する
ように構成してもよい。
In addition, compared with FIGS. 39-41, in FIGS. 42-44, the arrangement | positioning of a geometric image and a natural image is switched on right and left. Therefore, when using a plurality of diagnostic images, for example, FIG.
Any one of the diagnostic images in FIG. 41 and any one of the diagnostic images in FIGS. 42 to 44 may be displayed in order.

次に、診断画像の他の例について説明する。図45−1、図45−2は、診断画像の一
例を示す図である。図45−1は、ドット4511で人物の形状を表した動画像である第
1オブジェクト4501、第2オブジェクト4502を含む診断画像の例を示す。第1オ
ブジェクト4502は、上下逆向き(180度回転)とした人物の形状をドットで表した
画像である。なお、第2オブジェクト4502は上下逆向きに限られるものではなく、正
しい向き以外に回転させた動画像であればよい。第2オブジェクト4502として、動画
像4501を逆再生(逆の順序で動作)し、回転させた動画像を用いてもよい。健常者は
、人物の形状の向きが正しい動画像の方を注視する傾向があることを利用して、発達障害
の程度を評価するためである。例えば、評価部359は、人物の形状の向きが正しい動画
像が注視される場合に、発達障害の程度に関する指標としての評価値を低くするよう算出
する。なお、図面ではドット4511を繋ぐ点線4512が描かれているが、点線451
2は実際には表示されていない。
Next, another example of the diagnostic image will be described. 45A and 45B are diagrams illustrating an example of a diagnostic image. FIG. 45A illustrates an example of a diagnostic image including a first object 4501 and a second object 4502 that are moving images in which the shape of a person is represented by dots 4511. The first object 4502 is an image in which the shape of a person turned upside down (rotated 180 degrees) is represented by dots. The second object 4502 is not limited to the upside down direction, and may be a moving image that is rotated in a direction other than the correct direction. As the second object 4502, a moving image that is obtained by rotating the moving image 4501 in reverse (moving in the reverse order) and rotating it may be used. This is because a healthy person evaluates the degree of developmental disability by utilizing the tendency that a moving image in which the direction of the shape of the person is correct is watched. For example, the evaluation unit 359 calculates a lower evaluation value as an index related to the degree of developmental disability when a moving image in which the orientation of the person is correct is watched. In the drawing, a dotted line 4512 connecting the dots 4511 is drawn.
2 is not actually displayed.

出力制御部354は、スピーカ105に音声を出力するとともに、この音声に合わせて
動作する人物の形状を模した動画像である第1オブジェクト4501を表示部210に表
示させるとともに、音楽と合わない動作をする人物の形状を上下逆に模した動画像である
第2オブジェクト4502を表示部210に表示させる。出力制御部354は、第1オブ
ジェクト4501と逆の順序で動作し、かつ、第1オブジェクト4501を180度回転
させたオブジェクトとして、第2オブジェクト4502を表示部210に表示させてもよ
い。第2オブジェクト4502は音楽例えば、乳幼児によく知られている音楽等をスピー
カ105から流すとともに、この音楽に合わせて踊る人物の形状をドット4511で表し
た動画像を表示させてもよい。ラジオ体操の音楽とともにラジオ体操の動作を表す動画像
を表示させてもよい。これにより、馴染みのある音楽および動作と類似した正しい向きの
動画像を、健常者がより注視しやすくなるように構成できる。
The output control unit 354 outputs sound to the speaker 105 and causes the display unit 210 to display a first object 4501 that is a moving image simulating the shape of a person who operates according to the sound, and does not match music. The display unit 210 displays a second object 4502 that is a moving image simulating the shape of the person performing the upside down. The output control unit 354 may display the second object 4502 on the display unit 210 as an object that operates in the reverse order of the first object 4501 and rotates the first object 4501 by 180 degrees. The second object 4502 may play music such as music well known to infants from the speaker 105 and display a moving image in which the shape of a person dancing to the music is represented by dots 4511. You may display the moving image showing the operation of radio exercises with the music of radio exercises. Accordingly, it is possible to configure a moving image in a correct direction similar to familiar music and movement so that a healthy person can more easily watch.

なお、図45−1のような診断画像を複数用いて分析を行ってもよい。この場合、正し
い向きの動画像の配置が相互に異なる複数の診断画像を用いてもよい。例えば、正しい向
きの動画像と、この動画像に対して第1方向に配置された逆向きの動画像とを含む診断画
像を用いた後、正しい向きの動画像と、この動画像に対して第1方向と異なる第2方向(
例えば第1方向の逆方向)に配置された逆向きの動画像とを含む診断画像を用いてもよい
。これにより診断の精度を向上させることができる。第1方向は、例えば、表示部210
に向って右である。例えば、2枚の診断画像を用いる場合、図45−1に示すような音声
に合わせて動作する人物の形状を模した第1オブジェクト4501と、音声に合わせて動
作する第1オブジェクト4501を回転させた第2オブジェクト4502と、を含む第1
診断画像を表示部に表示させた後、図45−2に示すような、音声に合わせて動作する人
物の形状を模した動画像である第3オブジェクト4503と、第3オブジェクトに対して
第1方向と異なる第2方向に配置され、第3オブジェクト4503を回転させた動画像で
ある第4オブジェクト4504と、を含む第2診断画像を表示部210に表示させる。第
2方向は例えば表示部210に向って左である。第1診断画像と第2診断画像は、音声に
合わせて動作するオブジェクトが左右入れ替えられたものであってもよい。第3オブジェ
クトは人物の形状をドットで表しており、ドットが音楽に合わせて踊るように動く。第4
オブジェクトは上下逆向き(180度回転)とした人物の形状をドットで表した画像であ
り、ドットの動きは音楽にあっていない。
The analysis may be performed using a plurality of diagnostic images as shown in FIG. In this case, a plurality of diagnostic images having differently arranged moving images may be used. For example, after using a diagnostic image including a moving image in the correct direction and a moving image in the opposite direction arranged in the first direction with respect to the moving image, the moving image in the correct direction and the moving image A second direction different from the first direction (
For example, you may use the diagnostic image containing the moving image of the reverse direction arrange | positioned in the reverse direction of the 1st direction. Thereby, the accuracy of diagnosis can be improved. The first direction is, for example, the display unit 210.
Turn right towards. For example, when two diagnostic images are used, the first object 4501 imitating the shape of a person who operates according to sound and the first object 4501 that operates according to sound are rotated as shown in FIG. A first object including a second object 4502
After the diagnostic image is displayed on the display unit, a first object 4503 that is a moving image imitating the shape of a person who operates in accordance with the sound as shown in FIG. A second diagnostic image that is arranged in a second direction different from the direction and includes a fourth object 4504 that is a moving image obtained by rotating the third object 4503 is displayed on the display unit 210. The second direction is, for example, left toward the display unit 210. The first diagnostic image and the second diagnostic image may be ones in which objects that operate in accordance with the sound are interchanged. The third object represents the shape of a person with dots, and the dots move as if dancing to music. 4th
The object is an image in which the shape of a person upside down (rotated 180 degrees) is represented by dots, and the movement of the dots is not in music.

次に、診断画像を表示する前後に表示するアイキャッチ画像の例について説明する。ア
イキャッチ画像とは、被験者を注目させるために表示する画像(診断前画像)を表す。図
46〜図48は、アイキャッチ画像の一例を示す図である。図46に示すように、被験者
に注目させる位置(図46の例では表示画面101の中央)に、キャラクタの顔3001
と、キャラクタが所持する食物3002とを含むアイキャッチ画像が表示される。出力制
御部354は、例えば、診断画像を表示する前に、被験者に注目させるために図46のよ
うなアイキャッチ画像を表示する。
Next, an example of an eye catch image displayed before and after displaying a diagnostic image will be described. The eye-catching image represents an image (pre-diagnosis image) that is displayed in order to attract the subject. 46 to 48 are diagrams showing examples of the eye catch image. As shown in FIG. 46, the character's face 3001 is placed at a position to be noted by the subject (the center of the display screen 101 in the example of FIG. 46).
And an eye-catching image including the food 3002 possessed by the character. For example, before displaying a diagnostic image, the output control unit 354 displays an eye catch image as shown in FIG.

出力制御部354は、診断画像の背景と、アイキャッチ画像の背景とを、異なる表示態
様で表示してもよい。例えば、診断画像の背景の色と、アイキャッチ画像の背景の色とを
異なるように表示してもよい。これにより、異なる画像に切り替えられたことを被験者が
容易に認識できるようになる。この結果、被験者を表示画面101に、より注目させるこ
とができる。なお、表示態様は色に限られるものではなく、例えば、色調および輝度など
でもよい。
The output control unit 354 may display the background of the diagnostic image and the background of the eye catch image in different display modes. For example, the background color of the diagnostic image may be displayed differently from the background color of the eye catch image. Thus, the subject can easily recognize that the image has been switched to a different image. As a result, the subject can be more focused on the display screen 101. Note that the display mode is not limited to color, and may be, for example, color tone and luminance.

出力制御部354は、特定位置(例えば、注視させる位置)を中心に縮小するように動
作する動画像をアイキャッチ画像として表示してもよい。また、出力制御部354は、ス
ピーカ105に音声を出力するとともに、この音声に合わせて動作するアイキャッチ画像
を表示してもよい。例えば、「見て見て」のように被験者に呼びかける音声を出力すると
ともに、アイキャッチ画像を表示してもよい。これにより、被験者を表示画面101の特
定位置に注目させることができる。この結果、分析処理時に被験者の視点を正しく検出し
、分析(診断)の精度を向上させることができる。
The output control unit 354 may display a moving image that operates so as to reduce around a specific position (for example, a position to be watched) as an eye catch image. The output control unit 354 may output sound to the speaker 105 and display an eye catch image that operates in accordance with the sound. For example, a voice calling to the subject such as “Look and Watch” may be output and an eye-catching image may be displayed. Thereby, the subject can be made to pay attention to the specific position on the display screen 101. As a result, the subject's viewpoint can be correctly detected during analysis processing, and the accuracy of analysis (diagnosis) can be improved.

出力制御部354は、音声に合わせてアイキャッチ画像を動作させた後、特定位置を中
心に縮小するようにアイキャッチ画像を表示してもよい。図47は、図46から動作した
後のアイキャッチ画像の例を示している。図48は、縮小させた後のアイキャッチ画像(
顔3201、食物3202)の例を示す。出力制御部354は、枠内の画像のうち一部の
みを音声に合わせて動作させるように表示してもよい。例えば、キャラクタの顔3101
は動作させず、食物3102のみを動作させてもよい。図47では、キャラクタの鼻の部
分も変化する画像の例が示されている。このように画像の中心に近い部分のみを動作させ
れば、被験者に、より中心に近い位置を注視させることができる。
The output control unit 354 may display the eye catch image so that the eye catch image is reduced around the specific position after the eye catch image is operated according to the sound. FIG. 47 shows an example of an eye catch image after operating from FIG. FIG. 48 shows an eye-catching image after reduction (
An example of a face 3201, food 3202) is shown. The output control unit 354 may display only a part of the image in the frame so as to operate according to the sound. For example, character face 3101
May not be operated, and only the food 3102 may be operated. FIG. 47 shows an example of an image in which the character's nose also changes. Thus, if only the part near the center of the image is operated, it is possible to make the subject gaze at a position closer to the center.

図49は、アイキャッチ画像の表示と音声出力のタイミングの例を示す図である。図4
9の例では、出力制御部354は、サイズが大きいキャラクタのアイキャッチ画像の表示
とともに、「見て、見てー」と呼びかける音声の出力を開始する。出力制御部354は、
アイキャッチ画像として、音声とともに動作する画像(動画像)を用いることができる。
この場合、例えば図49の「画像E1の表示」と記載したタイミングで、図46のアイキ
ャッチ画像が表示される。また、例えば「画像E2の表示」と記載したタイミングで、図
47のアイキャッチ画像が表示される。
FIG. 49 is a diagram illustrating an example of the timing of displaying an eye catch image and outputting sound. FIG.
In the example 9, the output control unit 354 starts outputting the voice calling “Look, see!” Along with the display of the eye-catching image of the large character. The output control unit 354
An image (moving image) that operates with sound can be used as the eye-catching image.
In this case, for example, the eye catch image of FIG. 46 is displayed at the timing described as “display of image E1” of FIG. For example, the eye catch image of FIG. 47 is displayed at the timing described as “display of image E2”.

音声の出力が終了すると、出力制御部354は、アイキャッチ画像の収縮を開始する。
アイキャッチ画像を収縮表示する間、出力制御部354は、音声を出力しない(無音)こ
ととしてもよい。出力制御部354は、アイキャッチ画像のサイズが0になるまで収縮表
示を継続する。例えば図49の「画像E3の表示」と記載したタイミングで、図48のア
イキャッチ画像が表示される。
When the audio output ends, the output control unit 354 starts contraction of the eye catch image.
During the contraction display of the eye-catching image, the output control unit 354 may not output sound (silence). The output control unit 354 continues the contraction display until the size of the eye catch image becomes zero. For example, the eye catch image of FIG. 48 is displayed at the timing described as “display of image E3” of FIG.

次に、結果表示画面、および、結果を出力する処理の詳細について説明する。上述のよ
うに、例えばメニュー画面で結果表示ボタン502が押下されると、出力制御部354は
、結果表示画面を表示部210に表示させる。図51〜図54は、結果表示画面の一例を
示す図である。
Next, details of the result display screen and the process of outputting the results will be described. As described above, for example, when the result display button 502 is pressed on the menu screen, the output control unit 354 causes the display unit 210 to display the result display screen. 51 to 54 are diagrams illustrating an example of a result display screen.

出力制御部354は、評価結果を出力する対象者ごとに異なる結果表示画面を表示して
もよい。例えば、出力制御部354は、被験者に出力する結果表示方法、診断者(医師な
ど)に出力する結果表示方法、のうち、指定された結果表示方法で結果を表示してもよい
。例えば、被験者に対しては自己の評価結果のみを表示する結果表示方法で結果を表示し
、診断者に対しては複数の被験者に対する複数の評価結果を表示する結果表示方法で結果
を表示してもよい。このように対象者に応じて表示方法を切り替えることにより、利便性
を向上させることができる。
The output control unit 354 may display a different result display screen for each target person who outputs the evaluation result. For example, the output control unit 354 may display a result by a designated result display method among a result display method output to a subject and a result display method output to a diagnostician (such as a doctor). For example, for the subject, the result is displayed by a result display method that displays only the self-evaluation result, and for the diagnostician, the result is displayed by a result display method that displays a plurality of evaluation results for a plurality of subjects. Also good. Thus, convenience can be improved by switching a display method according to a subject.

出力制御部354がどの結果表示方法で結果を表示するかを指定する指定方法は任意で
あるが、例えば、外部ファイル(INIファイル等)などに結果表示方法の指定を保存し
、保存した指定を参照して結果表示方法を決定する方法、表示する結果表示方法を指定す
る機能をメニュー画面に追加する方法、および、ログイン認証機能により認証された対象
者の権限に応じて指定を切り替える方法などを適用できる。
The designation method for specifying the result display method by which the output control unit 354 displays the result is arbitrary. For example, the designation of the result display method is saved in an external file (such as an INI file), and the saved designation is used. How to refer to determine the result display method, how to add the function to specify the result display method to be displayed to the menu screen, how to switch the specification according to the authority of the target person authenticated by the login authentication function, etc. Applicable.

図50は、被験者に出力する結果表示画面の一例である。図50に示すように、被験者
に対しては、当該被験者に対する評価結果(分析結果)のみを表示する結果表示方法で結
果を表示してもよい。図50では、分析結果出力欄3301に、評価部359が算出した
発達障害の程度に関する指標である評価値がパーセンテージで表示される例が示されてい
る。基本メニューに戻るボタン3302が押下されると、例えば図16のようなメニュー
画面が表示される。評価部359は、複数の評価項目によって、評価値を算出する。評価
部359は上述した複数の評価項目のそれぞれで、評価値を高くするか低くするかを判定
し、最終的な評価値として、分析結果出力欄3301に出力する。評価部359は、それ
ぞれの評価項目において、評価値をポイントとして付与してもよい。
FIG. 50 is an example of a result display screen output to the subject. As shown in FIG. 50, for the subject, the result may be displayed by a result display method that displays only the evaluation result (analysis result) for the subject. FIG. 50 shows an example in which an evaluation value that is an index related to the degree of developmental disorder calculated by the evaluation unit 359 is displayed as a percentage in the analysis result output field 3301. When the return button 3302 to the basic menu is pressed, for example, a menu screen as shown in FIG. 16 is displayed. The evaluation unit 359 calculates an evaluation value using a plurality of evaluation items. The evaluation unit 359 determines whether to raise or lower the evaluation value for each of the plurality of evaluation items described above, and outputs the result to the analysis result output column 3301 as a final evaluation value. The evaluation unit 359 may give an evaluation value as a point in each evaluation item.

図50のように評価結果を表示部210に表示する代わりに、または、評価結果を表示
部210に表示するとともに、出力制御部354が、評価結果を印字した紙などの記録媒
体をプリンタ324に出力させるように構成してもよい。
Instead of displaying the evaluation result on the display unit 210 as shown in FIG. 50 or displaying the evaluation result on the display unit 210, the output control unit 354 supplies a recording medium such as paper on which the evaluation result is printed to the printer 324. You may comprise so that it may output.

図51〜図54は、診断者に出力する結果表示画面の一例である。図51に示すように
、診断者に対しては、複数の被験者に対する複数の評価結果を表示する結果表示方法で結
果を表示してもよい。図51の結果表示画面は、基本メニューに戻るボタン3401と、
表示ボタン3402と、情報表示欄3403と、被験者リスト3404と、評価項目リス
ト3405と、結果表示欄3406と、を含む。
51 to 54 are examples of result display screens output to the diagnostician. As shown in FIG. 51, for the diagnostician, the result may be displayed by a result display method for displaying a plurality of evaluation results for a plurality of subjects. The result display screen of FIG. 51 includes a button 3401 for returning to the basic menu,
A display button 3402, an information display column 3403, a subject list 3404, an evaluation item list 3405, and a result display column 3406 are included.

基本メニューに戻るボタン3401が押下されると、例えば図16のようなメニュー画
面が表示される。注視点を表示するための注視点表示ボタン3402が押下されると、注
視点表示ボタン3402の右のラジオボタンで選択された表示方式により、検出された注
視点が表示される。選択できる注視点の表示方式としては、例えば、「ヒートマップ表示
」、「視点移動軌跡で表示」、「タイル表示」、「視点移動をリプレイ」が挙げられる。
「ヒートマップ表示」は、図55で示すような一定時間に検出された被験者の視線を画面
上にプロットする表示方式である。座標が重なる場合は、出力制御部354は、色を「青
系→緑系→黄色系→オレンジ系→赤系」へ変化させて表示する。「視点移動軌跡で表示」
は図56で示すように一定時間に検出された被験者の視線を画面上にプロットし、時間的
に連続した点を線で繋いだ表示方式である。「タイル表示」は、図57で示すように一定
面積のブロックに含まれる注視点の検出数に応じて、注視点を検出したブロックの色を変
化させる表示方式である。例えば、出力制御部354は、注視点の検出数に応じて色を「
青系→緑系→黄色系→オレンジ系→赤系」へ変化させて表示する。「視点移動をリプレイ
」は、被験者の注視点の動きを動画で再現する表示方式である。例えば、図58で示すよ
うに、注視点を小さな丸で表現する。
When the return button 3401 to the basic menu is pressed, for example, a menu screen as shown in FIG. 16 is displayed. When a gazing point display button 3402 for displaying a gazing point is pressed, the detected gazing point is displayed by the display method selected by the right radio button of the gazing point display button 3402. Examples of the display method of the gazing point that can be selected include “heat map display”, “display with viewpoint movement locus”, “tile display”, and “replay viewpoint movement”.
“Heat map display” is a display method for plotting the visual line of a subject detected at a certain time as shown in FIG. 55 on a screen. When the coordinates overlap, the output control unit 354 displays the color by changing the color from “blue system → green system → yellow system → orange system → red system”. "Display with viewpoint movement trajectory"
FIG. 56 shows a display method in which the line of sight of a subject detected at a certain time is plotted on a screen, and points that are continuous in time are connected by a line. “Tile display” is a display method in which the color of a block in which a gazing point is detected is changed in accordance with the number of gazing points detected in a block having a certain area as shown in FIG. For example, the output control unit 354 changes the color to “
Change the display to "Blue → Green → Yellow → Orange → Red". “Replay viewpoint movement” is a display method that reproduces the movement of the gaze point of the subject with a moving image. For example, as shown in FIG. 58, the gazing point is expressed by a small circle.

情報表示欄3403は、現在選択されている被験者に関する情報を表示する欄である。
情報表示欄3403には、例えば、図17の分析メニュー画面の情報入力欄613で入力
された情報、および、分析日時などが表示される。情報の編集ボタンが押下された場合に
、表示されている情報を編集するための編集画面(図示せず)を表示してもよい。
The information display column 3403 is a column for displaying information related to the currently selected subject.
In the information display column 3403, for example, the information input in the information input column 613 on the analysis menu screen in FIG. 17 and the analysis date and time are displayed. When the information editing button is pressed, an editing screen (not shown) for editing the displayed information may be displayed.

被験者リスト3404は、被験者を選択可能に表示する領域(第1領域)である。図5
1では、上から1番目の行に対応する被験者が選択された例が示されている。評価項目リ
スト3405は、分析に用いられた評価項目を選択可能に表示する領域(第2領域)であ
る。例えば、被験者リスト3404で選択された被験者に対して表示された1以上の評価
項目が、評価項目リスト3405に表示される。評価項目リスト3405は、評価項目ご
とに番号が振られており(No.)、一連の診断画像(動画)のどのシーンか(Scene)
、タイトル(Title)、診断画像のどの領域の視点を評価するかなどの評価方法の種類(
Type)、一連の診断画像(動画)のうちの該当評価項目の開始時間、該当評価項目の
測定時間、測定時間内に診断画像内で注視点が検出された割合を表すデータ取得率(da
ta rate)が対応付けられている。また、この例の評価項目リスト3405には、
評価領域外に視点が検出された割合(Object以外の割合)、オブジェクト1の評価領域内
に視点が検出された回数(Scan Object数1)、オブジェクト2の評価領域内に視点が検
出された回数(Scan Object数2)、オブジェクト1の評価領域内に注視点が検出された
割合(Object1の割合)、オブジェクト1の評価領域内に視点が検出された割合(Object
2の割合)が表示されている。
The subject list 3404 is an area (first area) for displaying subjects in a selectable manner. FIG.
1 shows an example in which the subject corresponding to the first row from the top is selected. The evaluation item list 3405 is an area (second area) that displays the evaluation items used in the analysis in a selectable manner. For example, one or more evaluation items displayed for the subject selected in the subject list 3404 are displayed in the evaluation item list 3405. The evaluation item list 3405 is numbered for each evaluation item (No.), which scene of a series of diagnostic images (moving images) (Scene)
Type of evaluation method (e.g., title), which area of the diagnostic image should be evaluated (e.g.
Type), data acquisition rate (da) indicating the start time of the corresponding evaluation item in the series of diagnostic images (moving images), the measurement time of the corresponding evaluation item, and the rate at which the gazing point is detected in the diagnostic image within the measurement time
ta rate) is associated. In this example, the evaluation item list 3405 includes
Rate at which viewpoints were detected outside the evaluation area (ratio other than Object), number of times viewpoints were detected within the evaluation area of object 1 (number of scan objects 1), number of times viewpoints were detected within the evaluation area of object 2 (Scan object number 2), the rate at which a gazing point was detected in the evaluation area of object 1 (the ratio of Object 1), the ratio at which a viewpoint was detected in the evaluation area of object 1 (Object
2) is displayed.

評価方法の種類Typeは、例えば、Type−Dでは、オブジェクト1として目、オ
ブジェクト2として口、Type−Eでは、オブジェクト1として診断画像の左半分、オ
ブジェクト2として診断画像の右半分がある。診断支援装置100は、一連の診断画像(
動画)のどの再生時間にどの評価を行うかを対応付けて記憶しており、評価リストとして
表示する。オブジェクト1または2の評価領域内に視点が検出された割合は、以下のよう
に算出される。診断支援装置100は、例えば、1秒間に50回、注視点を検出する。例
えば、測定時間が4秒間の評価項目の場合、200回の注視点の検出を行う。診断画像内
で注視点が検出された回数が180回、オブジェクト1の評価領域内に注視点が検出され
た回数が、54回、オブジェクト2の評価領域内に注視点が検出された回数が108回の
場合は、(data rate)=0.900、(Object以外の割合)=0.100、(
Scan Object数1)=54、(Scan Object数2)=108となり、(Object1の割合)
=0.300、(Object2の割合)=0.600となる。視点検出部352は少なくとも
、診断画像が表示されている間の被験者の視点を検出する。
The types of evaluation methods are, for example, type-D: eye as object 1, mouth as object 2, and type-E: object 1 as the left half of the diagnostic image and object 2 as the right half of the diagnostic image. The diagnosis support apparatus 100 includes a series of diagnostic images (
Which evaluation is to be performed for which playback time of a video) is stored in association with each other, and is displayed as an evaluation list. The ratio at which the viewpoint is detected in the evaluation area of the object 1 or 2 is calculated as follows. For example, the diagnosis support apparatus 100 detects a gazing point 50 times per second. For example, in the case of an evaluation item with a measurement time of 4 seconds, 200 gaze points are detected. The number of times that the gazing point is detected in the diagnostic image is 180 times, the number of times that the gazing point is detected in the evaluation area of the object 1 is 54 times, and the number of times that the gazing point is detected in the evaluation area of the object 2 is 108. In the case of times, (data rate) = 0.900, (ratio other than Object) = 0.100,
Scan Object number 1) = 54, (Scan Object number 2) = 108, and (ratio of Object 1)
= 0.300, (ratio of Object2) = 0.600. The viewpoint detection unit 352 detects at least the viewpoint of the subject while the diagnostic image is displayed.

結果表示欄3406は、検出結果を表示する領域(第3領域)である。結果表示欄34
06は、被験者リスト3404から選択された被験者に対して表示された診断画像、例え
ば、評価項目リスト3405に表示された評価項目のうち、選択された評価項目に対する
検出結果が表示される。評価項目が選択されていない場合は、複数の評価項目に対する検
出結果を総合して表示してもよい。図51の結果表示欄3406は、このように複数の評
価項目に対する検出結果を総合して表示する場合の例を示している。また、評価項目リス
ト3501で選択された評価項目とTypeが共通する他の評価項目の検出結果を総合し
て結果表示欄に表示してもよい。
The result display column 3406 is an area (third area) for displaying the detection result. Result display field 34
In 06, a diagnostic image displayed for the subject selected from the subject list 3404, for example, a detection result for the selected evaluation item among the evaluation items displayed in the evaluation item list 3405 is displayed. When the evaluation item is not selected, the detection results for the plurality of evaluation items may be displayed together. The result display column 3406 in FIG. 51 shows an example in the case where the detection results for a plurality of evaluation items are combined and displayed. In addition, detection results of other evaluation items having the same type as the evaluation item selected in the evaluation item list 3501 may be combined and displayed in the result display column.

図51に示すように、結果表示欄3406で、評価結果の表示態様を、複数の表示態様
から指定できるように構成してもよい。図51では、「DataRate」、「Type
−A」〜「Type−F」の7種類の表示態様のいずれかを選択タブにより指定可能にす
る例が示されている。
As shown in FIG. 51, the result display field 3406 may be configured so that the display form of the evaluation result can be designated from a plurality of display forms. In FIG. 51, “DataRate”, “Type”
An example is shown in which any of the seven types of display modes “-A” to “Type-F” can be specified by a selection tab.

図52は、「Type−D」が指定された場合の結果表示画面の例である。図52では
、Type−Dに対応する複数の評価項目による評価結果をグラフ化した結果表示欄35
11の例が示されている。このように、種類(Type)が共通する複数の評価項目を総
合して結果表示欄に表示してもよい。なお、図52の評価項目リスト3501の例では、
「Type」欄に評価項目の種類が表示されている。
FIG. 52 is an example of a result display screen when “Type-D” is designated. In FIG. 52, a result display field 35 in which the evaluation results of a plurality of evaluation items corresponding to Type-D are graphed.
Eleven examples are shown. As described above, a plurality of evaluation items having a common type may be displayed in the result display column. In the example of the evaluation item list 3501 in FIG.
The type of evaluation item is displayed in the “Type” column.

図53は、「Type−E」が指定された場合の結果表示画面の例である。図53では
、Type−Eに対応する複数の評価項目による評価結果をグラフ化した結果表示欄36
11の例が示されている。
FIG. 53 is an example of a result display screen when “Type-E” is designated. In FIG. 53, a result display field 36 that graphs the evaluation results of a plurality of evaluation items corresponding to Type-E.
Eleven examples are shown.

図54は、「Type−F」が指定された場合の結果表示画面の例である。図54では
、Type−Fに対応する複数の評価項目による評価結果をグラフ化した結果表示欄37
11の例が示されている。
FIG. 54 is an example of a result display screen when “Type-F” is designated. In FIG. 54, a result display field 37 in which the evaluation results of a plurality of evaluation items corresponding to Type-F are graphed.
Eleven examples are shown.

出力制御部354は、被験者リスト内で選択された被験者、および、評価項目リスト内
で選択された評価項目の少なくとも一方が変更された場合に、変更後の被験者および変更
後の評価項目に対応する評価結果を結果表示欄に表示するように構成してもよい。本実施
形態では、このように被験者を選択する欄(被験者リスト)、評価項目を選択する欄(評
価項目リスト)、および、結果表示欄を1つの画面内に表示する。そして、被験者および
評価項目の選択が切り替えられた場合に、結果表示欄に表示する評価結果が、変更された
被験者および評価項目に対応する評価結果に切り替えられる。これにより、診断者は、簡
単な操作で所望の評価結果を表示させることができる。
The output control unit 354 corresponds to the changed subject and the changed evaluation item when at least one of the subject selected in the subject list and the evaluation item selected in the evaluation item list is changed. You may comprise so that an evaluation result may be displayed on a result display column. In this embodiment, a column for selecting a subject (subject list), a column for selecting an evaluation item (evaluation item list), and a result display column are displayed in one screen. Then, when the selection of the subject and the evaluation item is switched, the evaluation result displayed in the result display column is switched to the evaluation result corresponding to the changed subject and the evaluation item. Thereby, the diagnostician can display a desired evaluation result with a simple operation.

以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)キャリブレーションに用いる画像、補正用注視点の検出に用いる画像、および、診
断画像を、この順に表示させるため、診断に必要な各処理を円滑に実行し、診断の精度を
向上させることができる。
(2)自然画と、当該自然画に類似する幾何学画像とを含む診断画像を用いて診断できる
ため、健常者が誤って幾何学画像を注視する可能性を低減できる。これにより、診断の精
度を向上させることができる。
(3)適正位置を示すスケールに対して目を表す画像が表示されるため、被験者はカメラ
に対して自分の位置が正しいか判断して調整することができる。また、目の適切な位置の
範囲を表す基準領域に対応する画像内に、動画像を表示させるため、被験者に表示画面を
注目させ、被験者の位置を適切に調整させることができる。これにより、診断の精度を向
上させることができる。
(4)補正用注視点の検出に用いる画像として、相互に異なる複数の画像を用いるため、
被験者を飽きさせずに画像に注目させることができる。これにより、診断の精度を向上さ
せることができる。
(5)音声に合わせて動作する正しい向きの人物の形状の動画像と、正しくない向きの動
画像とを含む診断画像を用いるため、正しい向きの動画像を、健常者がより注視しやすく
なる。これにより、診断の精度を向上させることができる。
(6)診断画像の背景と、被験者を注目させるために表示するアイキャッチ画像の背景と
を、異なる表示態様で表示するため、異なる画像に切り替えられたことを被験者が容易に
認識できるようになる。この結果、被験者を表示画面に注目させることができ、診断の精
度を向上させることができる。
(7)音声に合わせて動作した後、特定位置を中心に縮小するように、診断前画像を、診
断画像を表示する前に表示部に表示させるアイキャッチ画像を表示するため、最初被験者
の注意を引きながら診断映像を始める直前には無音で落ち着いた診断しやすい状況を作り
ながら表示画面の特定位置に注目させることができる。この結果、分析処理時に被験者の
視点を正しく検出し、診断の精度を向上させることができる。
(8)評価結果を出力する対象者に応じて、評価結果を表示する結果表示画面を切り替え
ることができる。これにより、操作者の利便性を向上させることができる。
(9)被験者を選択する欄、診断画像を選択する欄、および、結果表示欄を1つの画面内
に表示し、被験者および診断画像の選択が切り替えられた場合に、結果表示欄に表示する
評価結果が、変更された被験者および診断画像に対応する評価結果に切り替えられる。こ
れにより、診断者は、簡単な操作で所望の評価結果を表示させることができ、診断者の利
便性を向上させることができる。
As described above, according to the present embodiment, for example, the following effects can be obtained.
(1) Since an image used for calibration, an image used for detecting a correction gazing point, and a diagnostic image are displayed in this order, each process necessary for diagnosis is smoothly executed to improve the accuracy of diagnosis. Can do.
(2) Since diagnosis can be performed using a diagnostic image including a natural image and a geometric image similar to the natural image, it is possible to reduce the possibility that a healthy person mistakenly looks at the geometric image. Thereby, the accuracy of diagnosis can be improved.
(3) Since the image representing the eye is displayed on the scale indicating the appropriate position, the subject can determine whether his / her position is correct with respect to the camera and adjust it. Further, since the moving image is displayed in the image corresponding to the reference region representing the range of the appropriate position of the eyes, it is possible to make the subject pay attention to the display screen and appropriately adjust the position of the subject. Thereby, the accuracy of diagnosis can be improved.
(4) Since a plurality of different images are used as the images used for detecting the correction gazing point,
It is possible to focus on the image without getting the subject bored. Thereby, the accuracy of diagnosis can be improved.
(5) Since a diagnostic image including a moving image of the shape of a correctly oriented person that operates in accordance with the sound and a moving image of an incorrect orientation is used, it becomes easier for a healthy person to watch the moving image of the correct orientation. . Thereby, the accuracy of diagnosis can be improved.
(6) Since the background of the diagnostic image and the background of the eye-catching image displayed to draw attention to the subject are displayed in different display modes, the subject can easily recognize that the screen has been switched to a different image. . As a result, the subject can be focused on the display screen, and the accuracy of diagnosis can be improved.
(7) After operating in accordance with the sound, the pre-diagnosis image is displayed so that the pre-diagnosis image is displayed on the display unit before displaying the diagnosis image so as to be reduced around the specific position. Just before starting a diagnostic image while pulling, it is possible to focus on a specific position on the display screen while creating a quiet and easy-to-diagnose situation. As a result, the viewpoint of the subject can be correctly detected during the analysis process, and the accuracy of diagnosis can be improved.
(8) The result display screen for displaying the evaluation result can be switched according to the target person who outputs the evaluation result. Thereby, the convenience for the operator can be improved.
(9) A column for selecting a subject, a column for selecting a diagnostic image, and a result display column are displayed in one screen, and the evaluation displayed in the result display column when the selection of the subject and the diagnostic image is switched. The result is switched to the evaluation result corresponding to the changed subject and diagnostic image. Thereby, the diagnostician can display a desired evaluation result with a simple operation, and can improve the convenience of the diagnostician.

100 診断支援装置
101 表示画面
102 ステレオカメラ
105 スピーカ
150 記憶部
202 右カメラ
203 赤外LED光源
204 左カメラ
205 赤外LED光源
208 駆動・IF部
210 表示部
300 制御部
351 視線検出部
352 視点検出部
353 距離検出部
354 出力制御部
355 較正部
356 領域分割部
357 領域特定部
358 補正部
359 評価部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display screen 102 Stereo camera 105 Speaker 150 Memory | storage part 202 Right camera 203 Infrared LED light source 204 Left camera 205 Infrared LED light source 208 Drive / IF part 210 Display part 300 Control part 351 Gaze detection part 352 View point detection part 353 Distance detection unit 354 Output control unit 355 Calibration unit 356 Region division unit 357 Region specification unit 358 Correction unit 359 Evaluation unit

Claims (5)

表示部と、
前記表示部の表示領域における被験者の視点を検出する視点検出部と、
前記視点検出部により検出された前記視点の位置を補正するための画像を前記表示部に
表示させる出力制御部と、
を備え、
前記画像は第一の画像及び第二の画像を含み、
前記出力制御部は、前記第一の画像を所定の位置に表示させ、前記第二の画像を前記所定の位置に向かって移動するように表示させるとともに、前記第二の画像が、前記第一の画像よりも注目される表示形態で表示させることを特徴とする診断支援装置。
A display unit;
A viewpoint detector for detecting a viewpoint of test subjects that put in the display area of the display unit,
An output control unit that causes the display unit to display an image for correcting the position of the viewpoint detected by the viewpoint detection unit;
With
The image includes a first image and a second image,
The output control unit displays the first image at a predetermined position, displays the second image so as to move toward the predetermined position, and the second image is displayed as the first image. A diagnostic support apparatus, characterized in that it is displayed in a display form that attracts more attention than the image .
前記表示形態は、形状、色調または輝度を変化させることを特徴とする請求項に記載の診断支援装置。 The diagnosis support apparatus according to claim 1 , wherein the display form changes a shape, a color tone, or luminance. 前記第二の画像は人物または動物を模した画像であることを特徴とする請求項1または2に記載の診断支援装置。  The diagnosis support apparatus according to claim 1, wherein the second image is an image imitating a person or an animal. 表示部の表示領域における被験者の視点を検出する視点検出ステップと、
前記視点検出ステップにより検出された前記視点の位置を補正するための画像を前記表示部に表示させる出力制御ステップと、
を含み、
前記画像は第一の画像及び第二の画像を含み、
前記出力制御ステップは、前記第一の画像を所定の位置に表示させ、前記第二の画像を前記所定の位置に向かって移動するように表示させるとともに、前記第二の画像が、前記第一の画像よりも注目される表示形態で表示させることを特徴とする診断支援方法。
And viewpoint detection step of detecting the viewpoint of test subjects that put in the display area of the display unit,
An output control step of causing the display unit to display an image for correcting the position of the viewpoint detected by the viewpoint detection step;
Including
The image includes a first image and a second image,
In the output control step, the first image is displayed at a predetermined position, the second image is displayed so as to move toward the predetermined position, and the second image is displayed on the first position. A diagnostic support method, characterized by displaying in a display form that attracts more attention than an image of
表示部の表示領域における被験者の視点を検出する視点検出ステップと、
前記視点検出ステップにより検出された前記視点の位置を補正するための画像を前記表示部に表示させる出力制御ステップと、
をコンピュータに実行させ、
前記画像は第一の画像及び第二の画像を含み、
前記出力制御ステップは、前記第一の画像を所定の位置に表示させ、前記第二の画像を前記所定の位置に向かって移動するように表示させるとともに、前記第二の画像が、前記第一の画像よりも注目される表示形態で表示させることを特徴とする診断支援プログラム。
And viewpoint detection step of detecting the viewpoint of test subjects that put in the display area of the display unit,
An output control step of causing the display unit to display an image for correcting the position of the viewpoint detected by the viewpoint detection step;
To the computer,
The image includes a first image and a second image,
In the output control step, the first image is displayed at a predetermined position, the second image is displayed so as to move toward the predetermined position, and the second image is displayed on the first position. A diagnostic support program for displaying in a display form that attracts more attention than the image of .
JP2016127390A 2016-06-28 2016-06-28 Diagnosis support apparatus, diagnosis support method, and diagnosis support program Active JP6217799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016127390A JP6217799B2 (en) 2016-06-28 2016-06-28 Diagnosis support apparatus, diagnosis support method, and diagnosis support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127390A JP6217799B2 (en) 2016-06-28 2016-06-28 Diagnosis support apparatus, diagnosis support method, and diagnosis support program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012218834A Division JP5962401B2 (en) 2012-09-28 2012-09-28 Diagnosis support apparatus and diagnosis support method

Publications (2)

Publication Number Publication Date
JP2016185375A JP2016185375A (en) 2016-10-27
JP6217799B2 true JP6217799B2 (en) 2017-10-25

Family

ID=57202326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127390A Active JP6217799B2 (en) 2016-06-28 2016-06-28 Diagnosis support apparatus, diagnosis support method, and diagnosis support program

Country Status (1)

Country Link
JP (1) JP6217799B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4385197B2 (en) * 2004-03-02 2009-12-16 学校法人東海大学 Eye movement data calibration coefficient calculation device and eye movement data calibration coefficient calculation program
US8371693B2 (en) * 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP5915981B2 (en) * 2010-08-09 2016-05-11 国立大学法人静岡大学 Gaze point detection method and gaze point detection device

Also Published As

Publication number Publication date
JP2016185375A (en) 2016-10-27

Similar Documents

Publication Publication Date Title
WO2014051010A1 (en) Diagnosis assistance device and diagnosis assistance method
JP5974790B2 (en) Diagnosis support apparatus and diagnosis support method
JP5371638B2 (en) Ophthalmic imaging apparatus and method
JP6693105B2 (en) Eye-gaze detecting device and eye-gaze detecting method
JP6638354B2 (en) Eye gaze detection device and eye gaze detection method
JP7378603B2 (en) External alignment display/guidance system for retinal cameras
JP5962401B2 (en) Diagnosis support apparatus and diagnosis support method
JP5962402B2 (en) Diagnosis support apparatus and diagnosis support method
JP6237836B2 (en) Gaze point detection device and gaze point detection method
JP6135550B2 (en) Diagnosis support apparatus and diagnosis support method
JP5949404B2 (en) Diagnosis support apparatus and diagnosis support method
JP5966833B2 (en) Diagnosis support apparatus, diagnosis support method, and diagnosis support program
JP2019118548A (en) Cornea reflection position detection device, visual line detection device, and cornea reflection position detection method
JP5949405B2 (en) Diagnosis support apparatus and diagnosis support method
JP2018143571A (en) Optometry apparatus
JP6217799B2 (en) Diagnosis support apparatus, diagnosis support method, and diagnosis support program
JP5880378B2 (en) Diagnosis support apparatus and diagnosis support method
JP5966832B2 (en) Diagnosis support apparatus and diagnosis support method
JP5880379B2 (en) Diagnosis support apparatus and diagnosis support method
JP6471533B2 (en) Gaze detection device and gaze detection method
JP6909391B2 (en) Line-of-sight detection device and line-of-sight detection method
JP7052471B2 (en) Evaluation device, evaluation method and evaluation program
JP5587478B2 (en) Ophthalmic imaging apparatus and control method thereof
JP2015181798A (en) Detection apparatus and detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170911

R150 Certificate of patent or registration of utility model

Ref document number: 6217799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150