JP2014039787A - Gaze point detecting apparatus, gaze point detection method, diagnosis support apparatus and diagnosis support method - Google Patents

Gaze point detecting apparatus, gaze point detection method, diagnosis support apparatus and diagnosis support method Download PDF

Info

Publication number
JP2014039787A
JP2014039787A JP2012215874A JP2012215874A JP2014039787A JP 2014039787 A JP2014039787 A JP 2014039787A JP 2012215874 A JP2012215874 A JP 2012215874A JP 2012215874 A JP2012215874 A JP 2012215874A JP 2014039787 A JP2014039787 A JP 2014039787A
Authority
JP
Japan
Prior art keywords
gazing point
correction
point
gazing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012215874A
Other languages
Japanese (ja)
Other versions
JP5971061B2 (en
Inventor
Katsuyuki Shudo
勝行 首藤
Shuji Hakojima
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012215874A priority Critical patent/JP5971061B2/en
Publication of JP2014039787A publication Critical patent/JP2014039787A/en
Application granted granted Critical
Publication of JP5971061B2 publication Critical patent/JP5971061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gaze point detecting apparatus capable of performing calibration with good accuracy in a short time.SOLUTION: A gaze point detecting apparatus includes: a display control part for displaying four or more marks for correcting gaze points in different positions in an object area on a display screen; a gaze point detecting part for detecting a gaze point of a subject in the object area; an area dividing part for dividing the object area into a plurality of first partial areas on the basis of the respective positions of gaze points for correction detected corresponding to the respective marks; a first partial area specifying part for specifying the first partial area to which the object gaze point belongs on the basis of the position of the object gaze point of the detection object of the gaze point detecting apparatus; a second partial area specifying part for specifying a second partial area which is an area within an object area determined on the basis of the position of the mark corresponding to the gaze point for correction for determining the specified first partial area; and a gaze point correction part for correcting the position of the object gaze point on the basis of the correlation between the position of the first partial area and the position of the second partial area.

Description

本発明は、注視点検出装置、注視点検出方法、診断支援装置および診断支援方法に関する。   The present invention relates to a gaze point detection device, a gaze point detection method, a diagnosis support device, and a diagnosis support method.

最近、発達障害者が増加傾向にあると言われている。発達障害は、早期に発見し、療育を開始することで、その症状を軽減し、社会に適応できる効果が高くなることがわかっている。我が国においても、1歳半検診時の問診などによる早期発見を目指している。   Recently, people with developmental disabilities are said to be on the rise. It is known that developmental disabilities are detected early and treatment begins, thereby reducing the symptoms and increasing the effect of adapting to society. In Japan as well, we aim for early detection through interviews at the age of 1 and a half.

発達障害児の特徴として、対面する相手の目を見ない(視線をそらす)ことが挙げられる。この特徴を利用した診断方法として、検査対象となる被検査者に人物の顔画像を見せ、その際の被検査者の注視点位置に基づいて、発達障害を診断する方法が知られている(例えば、特許文献1参照)。   One characteristic of children with developmental disabilities is that they do not look at the eyes of their opponents. As a diagnostic method using this feature, a method is known in which a person's face image is shown to an examinee to be examined, and a developmental disorder is diagnosed based on the gaze position of the examinee at that time ( For example, see Patent Document 1).

特許文献1に開示されている装置は、まず被検査者が人物の顔画像を見ているときの被検査者の顔をカメラで撮影し、被検査者の注視点が顔画像中の目の領域および目以外の領域と一致する時間を計測し、計測結果に基づいて自閉症指数を算出するものである。   The apparatus disclosed in Patent Literature 1 first captures the face of the subject when the subject is looking at the face image of the person with a camera, and the gaze point of the subject is the eye in the face image. The time corresponding to the region and the region other than the eyes is measured, and the autism index is calculated based on the measurement result.

注視点を検出する技術は、発達障害者の検査以外にも、例えば、映像の画質評価、ユーザ支援ロボット、アルツハイマー型痴呆症の診断など様々な分野に用いられている。注視点を検出する技術としては、例えば5点法や、9点法など、所定の目印を注視させることにより、個人の目の特性に対応させるためのキャリブレーションを行うものが知られている(例えば、特許文献2参照)。   The technique for detecting a gazing point is used in various fields, for example, image quality evaluation, user support robots, diagnosis of Alzheimer-type dementia in addition to the examination of persons with developmental disabilities. As a technique for detecting a gazing point, for example, a technique for performing calibration to correspond to the characteristics of an individual eye by gazing a predetermined mark such as a 5-point method or a 9-point method is known ( For example, see Patent Document 2).

特開2011−206542号公報JP 2011-206542 A 特開2005−245598号公報JP 2005-245598 A

しかしながら、従来の5点法、9点法などの注視点検出技術においては、キャリブレーション精度が十分でなく、より高精度なキャリブレーション技術が求められている。キャリブレーションに用いる注視点の数を増やすことにより、精度を向上させることが可能であるが、注視点の数を増やした場合には、被検査者の負担が大きくなる。特に発達障害の検査など乳幼児を被検査者とする場合には、できるだけ短い時間で検査を終了させることが重要であり、短時間で高精度にキャリブレーションを完了することのできる技術が望まれている。   However, in conventional gaze point detection techniques such as the 5-point method and the 9-point method, the calibration accuracy is not sufficient, and a more accurate calibration technology is required. The accuracy can be improved by increasing the number of gazing points used for calibration, but when the number of gazing points is increased, the burden on the examinee increases. In particular, when an infant is to be inspected, such as for a developmental disability test, it is important to complete the test in as short a time as possible, and a technology that can complete calibration with high accuracy in a short time is desired. Yes.

本発明は、上記に鑑みてなされたものであって、短時間の簡易的なキャリブレーションのみで測定を開始することが可能で、かつ補正結果を高精度とすることが可能な注視点検出装置、注視点検出方法、診断支援装置および診断支援方法を提供することを目的とする。   The present invention has been made in view of the above, and it is possible to start measurement with only a simple calibration in a short time, and to be able to start a measurement with high accuracy and a correction result. An object of the present invention is to provide a gaze point detection method, a diagnosis support apparatus, and a diagnosis support method.

上述した課題を解決し、目的を達成するために、本発明は、被検出者の注視点位置を検出する注視点検出装置であって、表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御部と、前記対象領域内の被検出者の注視点を検出する注視点検出部と、前記注視点検出部により検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割部と、前記注視点検出部により検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定部と、特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定部と、前記第1部分領域特定部により特定された前記第1部分領域の位置と、前記第2部分領域特定部により特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正部とを備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a gaze point detection device that detects a gaze position of a person to be detected, and a plurality of gaze points at different positions in a target area on a display screen. Each of the display control unit that displays a gaze point correction mark, the gaze point detection unit that detects the gaze point of the detected person in the target area, and the gaze point detected by the gaze point detection unit, An area dividing unit that divides the target area into a plurality of first partial areas based on each position of the correction gazing point, which is the gazing point detected corresponding to a landmark, and detected by the gazing point detection unit. Among the gazing points, a first partial area specifying unit that specifies the first partial area to which the target gazing point belongs based on the position of the target gazing point that is the gazing point that is the detection target of the gazing point detection device. And the identified first partial area A second partial region specifying unit that specifies a second partial region that is a region within the target region that is determined based on the position of the mark corresponding to the correction gazing point that determines the correction point, and the first partial region specifying unit A gazing point correction unit that corrects the position of the target gazing point based on a correlation between the position of the first partial region and the position of the second partial region specified by the second partial region specifying unit; It is characterized by providing.

また、本発明は、被検出者の注視点位置を検出する注視点検出方法であって、表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御ステップと、前記対象領域内の被検出者の注視点を検出する注視点検出ステップと、前記注視点検出ステップにおいて検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割ステップと、前記注視点検出ステップにおいて検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定ステップと、特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定ステップと、前記第1部分領域特定ステップにおいて特定された前記第1部分領域の位置と、前記第2部分領域特定ステップにおいて特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正ステップとを含むことを特徴とする。   The present invention is also a gaze point detection method for detecting a gaze point position of a detected person, and a display control step for displaying a plurality of gaze point correction marks at different positions in a target area on a display screen. And a gazing point detecting step for detecting a gazing point of the detected person in the target area, and the gazing point detected corresponding to each mark among the gazing points detected in the gazing point detection step. Of the gaze points detected in the gaze point detection step, an area dividing step that divides the target area into a plurality of first partial areas based on positions of certain correction gaze points, the gaze point detection device A first partial region specifying step for specifying the first partial region to which the target gazing point belongs based on the position of the target gazing point that is the gazing point of the detection target; and the specified first portion In a second partial region specifying step that specifies a second partial region that is a region within the target region that is determined based on the position of the mark corresponding to the correction gazing point that defines a region, and in the first partial region specifying step A gazing point correction step of correcting the position of the target gazing point based on the correlation between the position of the specified first partial region and the position of the second partial region specified in the second partial region specifying step. It is characterized by including.

また、本発明は、被検出者の注視点位置に基づいて、発達障害の診断を支援する診断支援装置であって、表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御部と、前記対象領域内の被検出者の注視点を検出する注視点検出部と、前記注視点検出部により検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割部と、前記注視点検出部により検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定部と、特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定部と、前記第1部分領域特定部により特定された前記第1部分領域の位置と、前記第2部分領域特定部により特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正部と、補正後の前記対象注視点の位置に基づいて、発達障害の程度を示す評価値を算出する評価部とを備えることを特徴とする。   The present invention also provides a diagnosis support apparatus that supports diagnosis of developmental disability based on the position of the gaze point of the person to be detected, and a plurality of gaze correction points at different positions in the target area on the display screen. A display control unit that displays a landmark, a gazing point detection unit that detects a gazing point of the detected person in the target area, and the gazing point detected by the gazing point detection unit, corresponding to each landmark An area dividing unit that divides the target region into a plurality of first partial regions based on each position of the correction gazing point that is the detected gazing point, and the gazing point detected by the gazing point detection unit The first partial region specifying unit that specifies the first partial region to which the target gazing point belongs is specified based on the position of the target gazing point that is the gazing point that is the detection target of the gazing point detection device. Defining the first partial region A second partial region specifying unit that specifies a second partial region that is a region within the target region that is determined based on a position of the mark corresponding to the correct gazing point; and the first partial region specifying unit that is specified by the first partial region specifying unit A gazing point correction unit that corrects the position of the target gazing point based on the correlation between the position of the first partial region and the position of the second partial region specified by the second partial region specifying unit; And an evaluation unit that calculates an evaluation value indicating the degree of developmental disability based on the position of the target gazing point.

また、本発明は、被検出者の注視点位置に基づいて、発達障害の診断を支援する診断支援方法であって、表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御ステップと、前記対象領域内の被検出者の注視点を検出する注視点検出ステップと、前記注視点検出ステップにおいて検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割ステップと、前記注視点検出ステップにおいて検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定ステップと、特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定ステップと、前記第1部分領域特定ステップにおいて特定された前記第1部分領域の位置と、前記第2部分領域特定ステップにおいて特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正ステップと、補正後の前記対象注視点の位置に基づいて、発達障害の程度を示す評価値を算出する評価ステップとを含むことを特徴とする。   Further, the present invention is a diagnosis support method for supporting developmental disorder diagnosis based on the position of the gaze point of the detected person, and a plurality of gaze correction points at different positions in the target area on the display screen. A display control step for displaying a landmark, a gazing point detection step for detecting a gazing point of the detected person in the target area, and the gazing point detected in the gazing point detection step, corresponding to each landmark. A region dividing step for dividing the target region into a plurality of first partial regions based on each position of the correction gazing point that is the detected gazing point; and the gazing point detected in the gazing point detection step A first partial region specifying step for specifying the first partial region to which the target gazing point belongs, based on a position of the target gazing point that is the gazing point as a detection target of the gazing point detection device; A second partial region specifying step for specifying a second partial region that is a region within the target region determined based on the position of the mark corresponding to the correction gazing point that defines the specified first partial region; The position of the target gazing point based on a correlation between the position of the first partial area specified in the first partial area specifying step and the position of the second partial area specified in the second partial area specifying step. And a gazing point correction step for correcting the inequality, and an evaluation step for calculating an evaluation value indicating the degree of developmental disorder based on the corrected position of the target gazing point.

本発明によれば、短時間の簡易的なキャリブレーションのみで測定を開始することが可能で、かつ補正結果を高精度とするという効果を奏する。   According to the present invention, it is possible to start measurement with only simple calibration in a short time, and there is an effect that the correction result is highly accurate.

図1は、実施の形態1の診断支援装置の概略構成を示す図である。FIG. 1 is a diagram illustrating a schematic configuration of the diagnosis support apparatus according to the first embodiment. 図2は、診断支援装置の処理に利用される座標系を説明するための図である。FIG. 2 is a diagram for explaining a coordinate system used for processing of the diagnosis support apparatus. 図3は、図1に示す各部の詳細な機能の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 1. 図4は、ターゲットポイントの目印の一例を示す図である。FIG. 4 is a diagram illustrating an example of a target point mark. 図5は、被検査者の瞳孔の位置を検出する方法を模式的に示す説明図である。FIG. 5 is an explanatory diagram schematically showing a method for detecting the position of the pupil of the subject. 図6は、SP0a〜SP4aを示す図である。FIG. 6 is a diagram illustrating SP0a to SP4a. 図7は、フレームFとフレームFeとを示す図である。FIG. 7 is a diagram showing the frame F and the frame Fe. 図8は、フレームFeの部分領域を示す図である。FIG. 8 is a diagram showing a partial region of the frame Fe. 図9は、フレームFの部分領域を示す図である。FIG. 9 is a diagram illustrating a partial region of the frame F. 図10は、各点の座標を示す図である。FIG. 10 is a diagram showing the coordinates of each point. 図11は、第1象限下側領域Aを示す図である。FIG. 11 is a diagram showing the lower quadrant A of the first quadrant. 図12は、第4象限上側領域Hを示す図である。FIG. 12 is a diagram illustrating the upper quadrant H of the fourth quadrant. 図13は、第2象限上側領域Cを示す図である。FIG. 13 is a diagram showing the upper quadrant area C of the second quadrant. 図14は、第1象限上側領域Bを示す図である。FIG. 14 is a diagram showing the first quadrant upper area B. As shown in FIG. 図15は、実施の形態1の診断支援装置による第1診断処理を示すフローチャートである。FIG. 15 is a flowchart illustrating a first diagnosis process performed by the diagnosis support apparatus according to the first embodiment. 図16は、実施の形態1の補正用注視点検出処理の詳細を示すフローチャートである。FIG. 16 is a flowchart showing details of the correction gazing point detection processing according to the first embodiment. 図17は、実施の形態1のデータ分布の計算処理を説明するための図である。FIG. 17 is a diagram for explaining data distribution calculation processing according to the first embodiment. 図18−1は、補正用注視点検出処理(ステップS102)におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 18A is a diagram for explaining target point mark display processing in correction gazing point detection processing (step S102). 図18−2は、補正用注視点検出処理(ステップS102)におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 18-2 is a diagram for explaining target point mark display processing in the correction gazing point detection processing (step S102). 図18−3は、補正用注視点検出処理(ステップS102)におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 18C is a diagram for explaining the target point mark display process in the correction gazing point detection process (step S102). 図18−4は、補正用注視点検出処理(ステップS102)におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 18D is a diagram for explaining target point mark display processing in the correction gazing point detection processing (step S102). 図18−5は、補正用注視点検出処理(ステップS102)におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 18-5 is a diagram for explaining target point mark display processing in the correction gazing point detection processing (step S102). 図19は、実施の形態1の部分領域特定処理(ステップS104)において、フレームFeにおける部分領域を特定する処理を示すフローチャートである。FIG. 19 is a flowchart showing a process of specifying a partial area in the frame Fe in the partial area specifying process (step S104) of the first embodiment. 図20は、実施の形態1の診断支援装置による第2診断処理を示すフローチャートである。FIG. 20 is a flowchart illustrating a second diagnosis process performed by the diagnosis support apparatus according to the first embodiment. 図21は、不足データ取得処理(ステップS204)における詳細な処理を示すフローチャートである。FIG. 21 is a flowchart showing detailed processing in the deficient data acquisition processing (step S204). 図22−1は、不足データ取得処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 22-1 is a diagram for explaining target point mark display processing in the deficient data acquisition processing. 図22−2は、不足データ取得処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 22-2 is a diagram for explaining target point landmark display processing in the deficient data acquisition processing. 図22−3は、不足データ取得処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 22C is a diagram for explaining target point mark display processing in the deficient data acquisition processing. 図22−4は、不足データ取得処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 22D is a diagram for explaining the target point mark display process in the deficient data acquisition process. 図22−5は、不足データ取得処理におけるターゲットポイントの目印の表示処理を説明するための図である。FIG. 22-5 is a diagram for explaining the target point mark display process in the deficient data acquisition process. 図23は、実施の形態2にかかる診断支援装置の機能ブロック図である。FIG. 23 is a functional block diagram of the diagnosis support apparatus according to the second embodiment. 図24は、全ての補正用注視点が検出された場合の補正用注視点データSPm0〜SPm4の位置を示す図である。FIG. 24 is a diagram illustrating the positions of the correction gazing point data SPm0 to SPm4 when all the correction gazing points are detected. 図25は、補正用注視点SPm1を検出できなかった場合の予測の例を示す図である。FIG. 25 is a diagram illustrating an example of prediction when the correction gazing point SPm1 cannot be detected. 図26は、補正用注視点SPm4を検出できなかった場合の予測の例を示す図である。FIG. 26 is a diagram illustrating an example of prediction when the correction gazing point SPm4 cannot be detected. 図27は、補正用注視点SPm2、SPm4を検出できなかった場合の予測の例を示す図である。FIG. 27 is a diagram illustrating an example of prediction when the correction gazing points SPm2 and SPm4 cannot be detected. 図28に、補正用注視点SPm1、SPm2を検出できなかった場合の予測の例を示す図である。FIG. 28 is a diagram illustrating an example of prediction when correction gazing points SPm1 and SPm2 cannot be detected. 図29に、補正用注視点SPm1、SPm2、SPm3を検出できなかった場合の予測の例を示す図である。FIG. 29 is a diagram illustrating an example of prediction when the correction gazing points SPm1, SPm2, and SPm3 cannot be detected. 図30は、実施の形態2の補正用注視点検出処理の手順を示すフローチャートである。FIG. 30 is a flowchart illustrating a procedure of correction gazing point detection processing according to the second embodiment. 図31は、実施の形態2の補正用注視点予測処理の手順を示すフローチャートである。FIG. 31 is a flowchart illustrating a procedure of correction gazing point prediction processing according to the second embodiment.

以下に添付図面を参照して、注視点検出装置、注視点検出方法、診断支援装置および診断支援方法の実施の形態を詳細に説明する。   Hereinafter, embodiments of a gaze point detection device, a gaze point detection method, a diagnosis support device, and a diagnosis support method will be described in detail with reference to the accompanying drawings.

(実施の形態1)
図1は、実施の形態1にかかる、注視点検出装置を備える診断支援装置100の概略構成を示す図である。本実施の形態にかかる診断支援装置100は、医師による発達障害の診断の指標となる評価値を得るための検査、すなわち診断を支援するための検査を行う装置である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a schematic configuration of a diagnosis support apparatus 100 including a gazing point detection apparatus according to the first embodiment. The diagnosis support apparatus 100 according to the present embodiment is an apparatus that performs a test for obtaining an evaluation value that is an index for diagnosis of developmental disorder by a doctor, that is, a test for supporting a diagnosis.

発達障害児の特徴として、対面する相手の目を見ないことが挙げられる。本実施の形態にかかる診断支援装置100は、この特徴を利用し、検査対象となる人物、すなわち被検査者に顔画像を見せた際に、被検査者が顔画像中の目を見ている時間と、目以外を見ている時間とを計測し、計測結果に基づいて、評価値を算出するものである。ここで、被検査者は、注視点検出の対象となる被検出者である。   One characteristic of children with developmental disabilities is that they do not see the eyes of the person they are facing. The diagnosis support apparatus 100 according to the present embodiment uses this feature, and when the face image is shown to the person to be inspected, that is, the examinee, the examinee looks at the eyes in the face image. Time and time other than eyes are measured, and an evaluation value is calculated based on the measurement result. Here, the inspected person is a to-be-detected person who is a target for gaze point detection.

診断支援装置100は、第1表示部101と、第2表示部102と、スピーカ103と、ステレオカメラ110と、赤外LED光源121,122と、駆動・IF部130と、制御部140と、記憶部150とを備えている。   The diagnosis support apparatus 100 includes a first display unit 101, a second display unit 102, a speaker 103, a stereo camera 110, infrared LED light sources 121 and 122, a drive / IF unit 130, a control unit 140, And a storage unit 150.

第1表示部101は、被検査者に注視させる画像等を表示する。第2表示部102は、当該診断支援装置100の操作内容や、診断結果などを表示する。第1表示部101および第2表示部102は、例えばモニタ画面である。スピーカ103は、診断結果などを音声出力する。また、スピーカ103は、検査時に被検査者に注意を促すための音声を出力する。   The first display unit 101 displays an image or the like that causes the subject to gaze. The second display unit 102 displays the operation content of the diagnosis support apparatus 100, the diagnosis result, and the like. The first display unit 101 and the second display unit 102 are, for example, monitor screens. The speaker 103 outputs a diagnosis result or the like as a sound. In addition, the speaker 103 outputs a sound for urging the person to be inspected during the inspection.

ステレオカメラ110は、被験者から見て第1表示部101の下側に設置されている。ステレオカメラ110は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ111と左カメラ112の1組のカメラを備えている。以下、右カメラ111と左カメラ112とを、適宜左右カメラ111,112と称する。   The stereo camera 110 is installed below the first display unit 101 when viewed from the subject. The stereo camera 110 is an imaging unit that can perform stereo shooting with infrared rays, and includes a pair of cameras, a right camera 111 and a left camera 112. Hereinafter, the right camera 111 and the left camera 112 are referred to as left and right cameras 111 and 112, as appropriate.

右カメラ111および左カメラ112の各レンズの周囲には、円周方向に赤外LED(Light Emitting Diode)光源121,122がそれぞれ配置されている。赤外LED光源121,122は、内周のLEDと外周のLEDとを含む。内周のLEDと外周のLEDについては、後述する。   Around each lens of the right camera 111 and the left camera 112, infrared LED (Light Emitting Diode) light sources 121 and 122 are respectively arranged in the circumferential direction. The infrared LED light sources 121 and 122 include an inner peripheral LED and an outer peripheral LED. The inner and outer peripheral LEDs will be described later.

ステレオカメラ110は、被検査者の顔を撮像する。ステレオカメラ110は、赤外LED光源121,122から赤外線が照射されているタイミングにおいて、画像を撮像する。すなわち、ステレオカメラ110は、赤外線の反射光の画像を撮像する。   Stereo camera 110 images the face of the subject. The stereo camera 110 captures an image at a timing when infrared rays are emitted from the infrared LED light sources 121 and 122. That is, the stereo camera 110 captures an image of infrared reflected light.

なお、ステレオカメラ110は、被検査者の顔を撮像可能な位置に設置されていればよく、その設置位置は実施の形態に限定されるものではない。また、撮像される画像(以下、撮像画像と称する)は、被検査者の瞳孔を含む画像であればよく、瞳孔を含む顔の一部のみを含む画像であってもよく、また顔に加えて、顔以外を含む画像であってもよい。   The stereo camera 110 only needs to be installed at a position where the face of the subject can be imaged, and the installation position is not limited to the embodiment. Further, the image to be captured (hereinafter referred to as a captured image) may be an image including the pupil of the examinee, may be an image including only a part of the face including the pupil, and may be added to the face. It may be an image including other than the face.

駆動・IF部130は、ステレオカメラ110に含まれる各部を駆動する。また、駆動・IF部130は、ステレオカメラ110に含まれる各部と、制御部140とのインタフェースとして機能する。   The drive / IF unit 130 drives each unit included in the stereo camera 110. The drive / IF unit 130 functions as an interface between each unit included in the stereo camera 110 and the control unit 140.

制御部140は、第1表示部101、第2表示部102および駆動・IF部130と接続している。制御部140は、第1表示部101および第2表示部102に表示すべき画像等を制御する。   The control unit 140 is connected to the first display unit 101, the second display unit 102, and the drive / IF unit 130. The control unit 140 controls images to be displayed on the first display unit 101 and the second display unit 102.

制御部140はまた、ステレオカメラ110により得られた撮像画像に基づいて、被検査者の注視点を検出し、検出した注視点の位置を較正(キャリブレーション)する。制御部140は、検出された注視点に基づいて、発達障害の診断のための評価値を算出する。   The control unit 140 also detects the gaze point of the subject based on the captured image obtained by the stereo camera 110 and calibrates the position of the detected gaze point. The control unit 140 calculates an evaluation value for diagnosis of developmental disorder based on the detected gazing point.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は例えば、第1表示部101に表示する画像等を記憶する。   The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. For example, the storage unit 150 stores an image to be displayed on the first display unit 101.

図2は、診断支援装置100の処理に利用される座標系を説明するための図である。本実施の形態にかかる第1表示部101は、横方向を長辺とする長方形の画面である。診断支援装置100は、図2に示すような、第1表示部101の画面の中央位置を原点として、上下をY座標(上を+方向とする)、横をX座標(第1表示部101に向かって右を+方向とする)、奥行きをZ座標(第1表示部101の手前を+方向とする)とするXYZ座標系において処理を行う。   FIG. 2 is a diagram for explaining a coordinate system used for processing of the diagnosis support apparatus 100. The first display unit 101 according to the present embodiment is a rectangular screen having a long side in the horizontal direction. As shown in FIG. 2, the diagnosis support apparatus 100 uses the center position of the screen of the first display unit 101 as an origin, the Y coordinate (upward is the + direction), and the horizontal coordinate X (the first display unit 101). The process is performed in an XYZ coordinate system in which the right is the + direction and the depth is the Z coordinate (the front of the first display unit 101 is the + direction).

図3は、図1に示す各部の詳細な機能の一例を示すブロック図である。赤外LED光源121は、内周のLEDである波長1−LED123と、外周のLEDである波長2−LED124とを備えている。赤外LED光源122は、内周のLEDである波長1−LED125と、外周のLEDである波長2−LED126とを備えている。   FIG. 3 is a block diagram illustrating an example of detailed functions of each unit illustrated in FIG. 1. The infrared LED light source 121 includes a wavelength 1-LED 123 that is an inner peripheral LED and a wavelength 2-LED 124 that is an outer peripheral LED. The infrared LED light source 122 includes a wavelength 1-LED 125 that is an inner peripheral LED and a wavelength 2-LED 126 that is an outer peripheral LED.

波長1−LED123,125は、波長1の赤外線を照射する。波長2−LED124,126は、波長2の赤外線を照射する。波長1および波長2は、互いに異なる波長である。波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長である。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。   Wavelength 1-LEDs 123 and 125 emit infrared light having a wavelength 1. The wavelength 2-LEDs 124 and 126 emit infrared light having a wavelength 2. Wavelength 1 and wavelength 2 are different from each other. Wavelength 1 and wavelength 2 are, for example, a wavelength of less than 900 nm and a wavelength of 900 nm or more, respectively. When the reflected light reflected by the pupil is irradiated with infrared light having a wavelength of less than 900 nm, a bright pupil image is obtained as compared with the case where reflected light reflected by the pupil is irradiated with infrared light having a wavelength of 900 nm or more. It is because it is obtained.

駆動・IF部130は、カメラIF131,132と、LED駆動制御部133と、スピーカ駆動部134とを備えている。カメラIF131およびカメラIF132は、それぞれ右カメラ111および左カメラ112と接続する。カメラIF131,132は、左右カメラ111,112を駆動する。右カメラ111は、左カメラ112およびLED駆動制御部133にフレーム同期信号を送信する。   The drive / IF unit 130 includes camera IFs 131 and 132, an LED drive control unit 133, and a speaker drive unit 134. The camera IF 131 and the camera IF 132 are connected to the right camera 111 and the left camera 112, respectively. The camera IFs 131 and 132 drive the left and right cameras 111 and 112. The right camera 111 transmits a frame synchronization signal to the left camera 112 and the LED drive control unit 133.

LED駆動制御部133は、波長1−LED123,125および波長2−LED124,126の発光を制御する。具体的には、LED駆動制御部133は、このフレーム同期信号に基づいて、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED123、波長1−LED125)を発光させる。この発光タイミングに対応して、左右カメラ111,112は、画像を撮像する。撮像された画像は、カメラIF131,132を介して制御部140に入力される。   The LED drive control unit 133 controls light emission of the wavelength 1-LEDs 123 and 125 and the wavelength 2 -LEDs 124 and 126. Specifically, the LED drive control unit 133 causes the left and right wavelength 1 infrared light sources (wavelength 1-LED 123, wavelength 1-LED 125) to emit light in the first frame at different timings based on the frame synchronization signal. . Corresponding to this light emission timing, the left and right cameras 111 and 112 capture images. The captured image is input to the control unit 140 via the camera IFs 131 and 132.

同様に、LED駆動制御部133は、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED124、波長2−LED126)を発光させる。この発光タイミングに対応して、左右カメラ111,112は、画像を撮像する。撮像された画像は、カメラIF131,132を介して制御部140に入力される。   Similarly, the LED drive control unit 133 causes the left and right wavelength 2 infrared light sources (wavelength 2-LED 124, wavelength 2-LED 126) to emit light at different timings in the second frame. Corresponding to this light emission timing, the left and right cameras 111 and 112 capture images. The captured image is input to the control unit 140 via the camera IFs 131 and 132.

スピーカ駆動部134は、スピーカ103を駆動する。制御部140は、診断支援装置100全体を制御する。制御部140は、具体的には、表示制御部141と、注視点検出部142と、領域分割部143と、領域特定部144と、注視点補正部145と、評価部146とを備えている。   The speaker driving unit 134 drives the speaker 103. The control unit 140 controls the entire diagnosis support apparatus 100. Specifically, the control unit 140 includes a display control unit 141, a gazing point detection unit 142, an area dividing unit 143, an area specifying unit 144, a gazing point correction unit 145, and an evaluation unit 146. .

表示制御部141は、第1表示部101および第2表示部102への各種情報の表示を制御する。表示制御部141は、例えば第1表示部101に検査画像を表示する。検査画像は、被検査者の注視点を検出するための対象画像であり、具体的には、人物の顔画像である。より好ましくは、検査画像は、被検査者の母親の顔画像である。ここで、第1表示部101の画面は、検査画像を表示する表示領域であり、かつ注視点が検出される対象領域である。   The display control unit 141 controls display of various types of information on the first display unit 101 and the second display unit 102. The display control unit 141 displays an inspection image on the first display unit 101, for example. The inspection image is a target image for detecting the gaze point of the person to be inspected, and is specifically a human face image. More preferably, the inspection image is a face image of the mother of the subject. Here, the screen of the first display unit 101 is a display area for displaying an inspection image, and is a target area where a gazing point is detected.

さらに、表示制御部141は、第1表示部101に、注視点位置の補正処理に用いられる目標注視点位置(ターゲットポイント)の目印を表示する。ここで、ターゲットポイントとは、被検査者に注視させる位置である。   Further, the display control unit 141 displays a mark of the target gazing point position (target point) used for the gazing point position correction process on the first display unit 101. Here, the target point is a position to be watched by the subject.

図4は、ターゲットポイントの目印の一例を示す図である。図4に示すように、目印は、所定の半径の円の画像である。本実施の形態においては、表示制御部141は、第1表示部101に、その表示領域内の異なる5つのターゲットポイントを示す5つの目印(SP0〜SP4)を表示する。   FIG. 4 is a diagram illustrating an example of a target point mark. As shown in FIG. 4, the mark is an image of a circle having a predetermined radius. In the present embodiment, the display control unit 141 displays five marks (SP0 to SP4) indicating five different target points in the display area on the first display unit 101.

本実施の形態においては、長方形の画面(表示領域)の各辺に平行な4辺を有する四角形の頂点位置を、SP1〜SP4のターゲットポイントとする。また、画面のほぼ中央を、SP0のターゲットポイントとする。すなわち、SP0は、表示領域において、SP1〜SP4に比べて内側の位置を示す中心目印である。なお、本実施の形態においては、SP0は、XYZ座標系の原点、すなわち第1表示部101の画面の中央位置に一致するものとする。ターゲットポイントの目印の画像の種類および表示位置は、記憶部150等に予め設定されているものとする。   In the present embodiment, the quadrangle vertex positions having four sides parallel to each side of the rectangular screen (display area) are set as the target points of SP1 to SP4. Also, the approximate center of the screen is the SP0 target point. That is, SP0 is a center mark indicating an inner position in the display area as compared with SP1 to SP4. In the present embodiment, SP0 is assumed to coincide with the origin of the XYZ coordinate system, that is, the center position of the screen of the first display unit 101. It is assumed that the type and display position of the target point mark image are set in advance in the storage unit 150 or the like.

また、他の例としては、表示制御部141は、目印である円画像の半径を所定範囲で変化させるなどの表示制御を行ってもよい。これにより、被検査者の注意をターゲットポイントに向け易くすることができる。   As another example, the display control unit 141 may perform display control such as changing the radius of a circle image as a mark within a predetermined range. Thereby, it is possible to easily direct the attention of the subject to the target point.

ターゲットポイントの目印は、第1表示部101の他の領域と、輝度や彩度が異なる画像であればよく、円画像以外の画像であってもよい。また、他の例としては、ターゲットポイントの配置位置に光を照射するなどによりターゲットポイントの目印を示すこととしてもよい。すなわち、目印は、画像以外に光であってもよい。このように、ターゲットポイントは、被検査者が注視すべき位置を認識可能な態様であればよく、その表示態様は実施の形態に限定されるものではない。   The mark of the target point may be an image that is different in luminance and saturation from other regions of the first display unit 101, and may be an image other than a circular image. As another example, the target point mark may be indicated by irradiating light to the target point arrangement position. That is, the mark may be light other than the image. As described above, the target point only needs to be an aspect that allows the subject to recognize the position to be watched, and the display aspect is not limited to the embodiment.

図3に戻り、注視点検出部142は、ステレオカメラ110により撮像された画像に基づいて、被検査者の注視点を検出する。注視点検出部142は、具体的には、上述の補正用に表示されたターゲットポイントの目印表示時の被検査者の注視点(以下、補正用注視点と称する)を検出する。なお、注視点検出部142は、同一目印に対して得られた複数の注視点位置の平均を算出し、これを注視点位置とする。注視点検出部142はまた、検査画像表示時の被検査者の注視点(以下、検査用注視点と称する)を検出する。なお、検査用注視点は、注視点検出装置を備える診断支援装置100が検出対象とする対象注視点である。   Returning to FIG. 3, the gazing point detection unit 142 detects the gazing point of the subject based on the image captured by the stereo camera 110. Specifically, the gaze point detection unit 142 detects the gaze point of the inspected person (hereinafter referred to as a correction gaze point) at the time of displaying the mark of the target point displayed for the above correction. Note that the gazing point detection unit 142 calculates an average of a plurality of gazing point positions obtained for the same mark, and sets this as the gazing point position. The gaze point detection unit 142 also detects a gaze point of the inspected person (hereinafter referred to as an examination gaze point) when the examination image is displayed. The inspection gazing point is a target gazing point to be detected by the diagnosis support apparatus 100 including the gazing point detection apparatus.

注視点検出部142による注視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特開2005−198743号公報に記載された技術と同様に、ステレオカメラを用いて被験者の視点を検出する場合を例に説明する。   As a gazing point detection method by the gazing point detection unit 142, any conventionally used method can be applied. Below, the case where a test subject's viewpoint is detected using a stereo camera is demonstrated to an example similarly to the technique described in Unexamined-Japanese-Patent No. 2005-198743.

注視点検出部142は、ステレオカメラ110で撮影された画像から、被検査者の視線方向を検出する。注視点検出部142は、例えば、特開2011−206542号公報および特開2008−125629号公報に記載された方法を用いて、被検査者の視線方向を検出する。具体的には、注視点検出部142は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。注視点検出部142は、左右カメラ111,112で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被検査者の瞳孔の位置を算出する。また、注視点検出部142は、左右カメラ111,112で撮影された画像を用いて被検査者の角膜反射の位置を算出する。そして、左右カメラ111,112は、被験者の瞳孔の位置と角膜反射位置とから、被検査者の視線方向を表す視線ベクトルを算出する。   The gazing point detection unit 142 detects the line-of-sight direction of the subject from the image captured by the stereo camera 110. The gaze point detection unit 142 detects the line-of-sight direction of the subject using, for example, the methods described in Japanese Patent Application Laid-Open Nos. 2011-206542 and 2008-125629. Specifically, the gazing point detection unit 142 obtains a difference between an image captured by irradiating infrared light having a wavelength 1 and an image captured by irradiating infrared light having a wavelength 2, and an image in which a pupil image is clarified. Is generated. The gazing point detection unit 142 calculates the position of the pupil of the subject using a stereo vision technique using the two images generated as described above from the images captured by the left and right cameras 111 and 112, respectively. In addition, the gazing point detection unit 142 calculates the position of the corneal reflection of the subject using the images captured by the left and right cameras 111 and 112. Then, the left and right cameras 111 and 112 calculate a line-of-sight vector that represents the line-of-sight direction of the subject from the position of the pupil of the subject and the corneal reflection position.

注視点検出部142は、例えば図2のような座標系で表される視線ベクトルとXY平面との交点を、被検査者の注視点として検出する。両目の視線方向が得られた場合は、被検査者の左右の視線の交点を求めることによって注視点を計測してもよい。   The gazing point detection unit 142 detects, for example, the intersection of the line-of-sight vector represented in the coordinate system as shown in FIG. 2 and the XY plane as the gazing point of the subject. When the gaze direction of both eyes is obtained, the gaze point may be measured by obtaining the intersection of the left and right gazes of the subject.

なお、被検査者の注視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被検査者の注視点を検出してもよい。   Note that the method of detecting the gaze point of the subject is not limited to this. For example, the gaze point of the person to be inspected may be detected by analyzing an image captured using visible light instead of infrared light.

図5は、被検査者の瞳孔の位置を検出する方法を模式的に示す説明図である。注視点検出部142は、右カメラ111で検出した瞳孔の位置と角膜反射の位置関係とから、右カメラ111から見た被検査者201の視線の方向を算出する。また、注視点検出部142は、左カメラ112で検出した瞳孔の位置と角膜反射の位置関係とから、左カメラ112から見た被検査者201の視線の方向を算出する。そして、注視点検出部142は、求められた2つの視線の方向の交点から、図2に示すXY座標系における、被検査者201の注視点の位置を算出する。   FIG. 5 is an explanatory diagram schematically showing a method for detecting the position of the pupil of the subject. The gaze point detection unit 142 calculates the direction of the line of sight of the subject 201 viewed from the right camera 111 from the position of the pupil detected by the right camera 111 and the positional relationship of corneal reflection. The gazing point detection unit 142 calculates the direction of the line of sight of the subject 201 viewed from the left camera 112 from the position of the pupil detected by the left camera 112 and the positional relationship of corneal reflection. Then, the gazing point detection unit 142 calculates the position of the gazing point of the inspected person 201 in the XY coordinate system illustrated in FIG. 2 from the intersection of the obtained two line-of-sight directions.

図3に戻り、領域分割部143は、補正用に表示されたターゲットポイントの目印に対して検出された補正用注視点に基づいて、第1表示部101の画面を複数の部分領域に分割する。   Returning to FIG. 3, the area dividing unit 143 divides the screen of the first display unit 101 into a plurality of partial areas based on the correction gazing point detected with respect to the target point mark displayed for correction. .

領域特定部144は、検査画像に対して検出された検査用注視点が、表示領域中のいずれの部分領域に属するかを特定する。   The area specifying unit 144 specifies which partial area in the display area the inspection gazing point detected for the inspection image belongs to.

注視点補正部145は、検査用注視点が属する部分領域に基づいて、検査用注視点の位置を補正する。   The gazing point correction unit 145 corrects the position of the inspection gazing point based on the partial region to which the inspection gazing point belongs.

ここで、領域分割部143、領域特定部144および注視点補正部145の処理について図6〜図9を参照しつつ詳述する。   Here, the processing of the region dividing unit 143, the region specifying unit 144, and the gaze point correcting unit 145 will be described in detail with reference to FIGS.

図6に示す点SP0a〜SP4aは、それぞれターゲットポイントの目印SP0〜SP4を被検査者が注視することによって得られた被検査者の補正用注視点である。   Points SP0a to SP4a shown in FIG. 6 are correction point of sight of the inspected person obtained by the inspected person gazing at the marks SP0 to SP4 of the target points, respectively.

領域分割部143は、まず点SP0aをXY座標系の原点に一致させる。具体的には、領域分割部143は、XY座標系の原点からSP0aへの原点変位値を算出する。ここで、原点とSP0の位置とは一致する。そして、領域分割部143は、SP1a〜SP4aそれぞれを、原点変位値だけ移動させたSP1b〜SP4bの座標を求める。例えば、SP0aの座標が(x0,y0)である場合には、原点変位値は、(−x0,−y0)となる。したがって、領域分割部143は、SP1a〜SP4aそれぞれの座標に(−x0,−y0)を加算することにより、SP1b〜SP4bの座標を得る。   The area dividing unit 143 first matches the point SP0a with the origin of the XY coordinate system. Specifically, the region dividing unit 143 calculates an origin displacement value from the origin of the XY coordinate system to SP0a. Here, the origin and the position of SP0 coincide. Then, the region dividing unit 143 obtains the coordinates of SP1b to SP4b obtained by moving each of SP1a to SP4a by the origin displacement value. For example, when the coordinates of SP0a are (x0, y0), the origin displacement value is (−x0, −y0). Therefore, the area dividing unit 143 obtains the coordinates of SP1b to SP4b by adding (−x0, −y0) to the coordinates of SP1a to SP4a.

図7は、フレームFと図6の点SP0aをXY座標系の原点に移動させた後のフレームFeとを示す図である。フレームFは、ターゲットポイント点F1〜F4により定まるフレームである。点F1〜F4は、それぞれ点SP1〜SP4に相当する。フレームFeは、ターゲットポイントに対応して検出された補正用注視点に対応する点Fe1〜Fe4により定まるフレームである。点Fe1〜Fe4は、それぞれ点SP1b〜SP4bに相当する。すなわち、フレームFは、表示画面のXY座標系に対応する基準フレームであり、フレームFeは、被検査者固有の誤差等を含む誤差フレームである。なお、フレームFとフレームFeとは、左右カメラ111,112の撮像対象となるフレームとは異なる概念のものである。   FIG. 7 is a diagram showing the frame F and the frame Fe after the point SP0a in FIG. 6 is moved to the origin of the XY coordinate system. The frame F is a frame determined by the target point points F1 to F4. Points F1 to F4 correspond to points SP1 to SP4, respectively. The frame Fe is a frame determined by points Fe1 to Fe4 corresponding to the correction gazing points detected corresponding to the target points. Points Fe1 to Fe4 correspond to points SP1b to SP4b, respectively. That is, the frame F is a reference frame corresponding to the XY coordinate system of the display screen, and the frame Fe is an error frame including an error unique to the subject. Note that the frame F and the frame Fe have different concepts from the frames to be imaged by the left and right cameras 111 and 112.

注視点検出部142により算出される検査用注視点は、フレームFe上の点である。さらに、被検査者の眼球の非球面な形状などに起因して、視線方向により、すなわち目印位置によって、誤差の程度が異なる。そこで、本実施の形態にかかる診断支援装置100においては、対象領域を8つの部分領域に分割し、部分領域単位で検査用注視点のフレームFe上の座標値をフレームF上の座標値に変換することにより、検査用注視点の補正を行うこととする。   The inspection gazing point calculated by the gazing point detection unit 142 is a point on the frame Fe. Furthermore, due to the aspherical shape of the eyeball of the examinee, the degree of error varies depending on the line-of-sight direction, that is, the mark position. Therefore, in the diagnosis support apparatus 100 according to the present embodiment, the target area is divided into eight partial areas, and the coordinate values on the frame Fe of the gazing point for inspection are converted into the coordinate values on the frame F in units of partial areas. By doing so, the gaze point for inspection will be corrected.

領域分割部143は、点Fe1〜Fe4の位置に基づいて、対象領域を8つの部分領域に分割する。図8は、8つの部分領域を示す図である。各部分領域は、原点O、点Fe1〜Fe4、X軸、Y軸により定まる領域である。ここで、点Fe1〜Fe4は、それぞれSP1b〜SP4bに対応する点である。そして、SP1b〜SP4bは、それぞれSP1a〜SP4aに基づいて定まる点である。すなわち、領域分割部143は、SP1a〜SP4aの位置に基づいて、対象領域を8つの部分領域に分割するものである。   The area dividing unit 143 divides the target area into eight partial areas based on the positions of the points Fe1 to Fe4. FIG. 8 is a diagram showing eight partial areas. Each partial region is a region determined by the origin O, points Fe1 to Fe4, the X axis, and the Y axis. Here, the points Fe1 to Fe4 are points corresponding to SP1b to SP4b, respectively. SP1b to SP4b are points determined based on SP1a to SP4a, respectively. That is, the region dividing unit 143 divides the target region into eight partial regions based on the positions of SP1a to SP4a.

ここで、点Fe1と点Fe4を通る直線と、X軸との交点を点Fe5とする。点Fe1と点Fe2を通る直線と、Y軸との交点を点Fe6とする。点Fe2と点Fe3を通る直線と、X軸との交点を点Fe7とする。点Fe3と点Fe4を通る直線と、Y軸との交点を点Fe8とする。   Here, the intersection of the straight line passing through the points Fe1 and Fe4 and the X axis is defined as a point Fe5. An intersection point between a straight line passing through the points Fe1 and Fe2 and the Y axis is defined as a point Fe6. A point of intersection between the straight line passing through the points Fe2 and Fe3 and the X axis is defined as a point Fe7. A point of intersection between the straight line passing through the points Fe3 and Fe4 and the Y axis is defined as a point Fe8.

領域分割部143は、図8に示す第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hの8つの部分領域に分割する。また、領域特定部144は、検査用注視点の座標と、領域分割部143により分割された8つの部分領域の位置とに基づいて、注視点検出部142により検出された検査用注視点がこの8つの部分領域のうちいずれの部分領域に属する点であるかを特定する。   The area dividing unit 143 includes a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, and a third quadrant shown in FIG. The area is divided into eight partial areas of a lower area F, a fourth quadrant lower area G, and a fourth quadrant upper area H. In addition, the region specifying unit 144 determines whether the inspection point of interest detected by the point of interest detection unit 142 is based on the coordinates of the inspection point of interest and the positions of the eight partial regions divided by the region dividing unit 143. Which of the eight partial areas belongs to which partial area is specified.

ここで、第1象限下側領域Aは、原点Oと点Fe1を通る直線および原点Oと点Fe5を通る直線(X軸)を境界位置とする領域である。第1象限上側領域Bは、原点Oと点Fe1を通る直線および原点Oと点Fe6を通る直線(Y軸)を境界位置とする領域である。   Here, the lower quadrant A of the first quadrant is an area in which a straight line passing through the origin O and the point Fe1 and a straight line passing through the origin O and the point Fe5 (X axis) are boundary positions. The first quadrant upper area B is an area having a boundary position that is a straight line passing through the origin O and the point Fe1 and a straight line passing through the origin O and the point Fe6 (Y axis).

第2象限上側領域Cは、原点Oと点Fe2を通る直線および原点Oと点Fe6を通る直線(Y軸)を境界位置とする領域である。第2象限下側領域Dは、原点Oと点Fe2を通る直線および原点Oと点Fe7を通る直線(X軸)を境界位置とする領域である。   The second quadrant upper area C is an area having a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe6 (Y axis) as boundary positions. The lower quadrant area D is an area having a boundary position that is a straight line passing through the origin O and the point Fe2 and a straight line passing through the origin O and the point Fe7 (X axis).

第3象限上側領域Eは、原点Oと点Fe3を通る直線および原点Oと点Fe7を通る直線(X軸)を境界位置とする領域である。第3象限下側領域Fは、原点Oと点Fe3を通る直線および原点Oと点Fe8を通る直線(Y軸)を境界位置とする領域である。   The third quadrant upper area E is an area having a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe7 (X axis) as boundary positions. The lower quadrant F of the third quadrant is an area having a boundary position that is a straight line passing through the origin O and the point Fe3 and a straight line passing through the origin O and the point Fe8 (Y axis).

第4象限下側領域Gは、原点Oと点Fe4を通る直線および原点Oと点Fe8を通る直線(Y軸)を境界位置とする領域である。第4象限上側領域Hは、原点Oと点Fe4を通る直線および原点Oと点Fe5(X軸)を通る直線を境界位置とする領域である。   The lower quadrant region G is a region having a boundary position that is a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe8 (Y axis). The upper quadrant H of the fourth quadrant is an area having a straight line passing through the origin O and the point Fe4 and a straight line passing through the origin O and the point Fe5 (X axis) as boundary positions.

図9は、第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hそれぞれに対応する、フレームFの部分領域(A’〜H’)を示す図である。   FIG. 9 shows a first quadrant lower area A, a first quadrant upper area B, a second quadrant upper area C, a second quadrant lower area D, a third quadrant upper area E, a third quadrant lower area F, It is a figure which shows the partial area | region (A'-H ') of the flame | frame F corresponding to 4th quadrant lower area | region G and 4th quadrant upper area | region H, respectively.

第1象限下側領域A’、第1象限上側領域B’、第2象限上側領域C’、第2象限下側領域D’、第3象限上側領域E’、第3象限下側領域F’、第4象限下側領域G’および第4象限上側領域H’は、それぞれ第1象限下側領域A、第1象限上側領域B、第2象限上側領域C、第2象限下側領域D、第3象限上側領域E、第3象限下側領域F、第4象限下側領域Gおよび第4象限上側領域Hに対応する領域である。   First quadrant lower area A ′, first quadrant upper area B ′, second quadrant upper area C ′, second quadrant lower area D ′, third quadrant upper area E ′, third quadrant lower area F ′ , The fourth quadrant lower region G ′ and the fourth quadrant upper region H ′ are respectively a first quadrant lower region A, a first quadrant upper region B, a second quadrant upper region C, a second quadrant lower region D, This is a region corresponding to the third quadrant upper region E, the third quadrant lower region F, the fourth quadrant lower region G, and the fourth quadrant upper region H.

領域特定部144は、上述のように検査用注視点が属するフレームFe上の部分領域を特定するのに加えて、特定したフレームFe上の部分領域に対応する、フレームF上の部分領域を特定する。例えば、フレームFe上の第1象限下側領域Aが特定された場合に、フレームF上の第1象限下側領域A’が対応する部分領域として特定される。すなわち、領域特定部144は、フレームFe上の部分領域と、これに対応するフレームF上の部分領域を特定するものであり、第1部分領域特定部および第2部分領域特定部に相当するものである。   The area specifying unit 144 specifies a partial area on the frame F corresponding to the specified partial area on the frame Fe, in addition to specifying the partial area on the frame Fe to which the inspection point of interest belongs as described above. To do. For example, when the first quadrant lower area A on the frame Fe is specified, the first quadrant lower area A ′ on the frame F is specified as the corresponding partial area. That is, the region specifying unit 144 specifies a partial region on the frame Fe and a corresponding partial region on the frame F, and corresponds to a first partial region specifying unit and a second partial region specifying unit. It is.

図9を参照しつつ、フレームF上の部分領域について説明する。点F1と点F4を通る直線と、X軸との交点を点F5とする。点F1と点F2を通る直線と、Y軸との交点を点F6とする。点F2と点F3を通る直線と、X軸との交点を点F7とする。点F3と点F4を通る直線と、Y軸との交点を点F8とする。   The partial area on the frame F will be described with reference to FIG. A point of intersection between the straight line passing through the points F1 and F4 and the X axis is defined as a point F5. A point of intersection between the straight line passing through the points F1 and F2 and the Y axis is defined as a point F6. A point of intersection between the straight line passing through the points F2 and F3 and the X axis is defined as a point F7. A point of intersection between the straight line passing through the points F3 and F4 and the Y axis is defined as a point F8.

第1象限下側領域A’は、原点Oと点F1を通る直線および原点Oと点F5を通る直線(X軸)を境界位置とする領域である。第1象限上側領域B’は、原点Oと点F1を通る直線および原点Oと点F6を通る直線(Y軸)を境界位置とする領域である。   The first quadrant lower area A 'is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F5 (X axis). The first quadrant upper area B 'is an area having a boundary position that is a straight line passing through the origin O and the point F1 and a straight line passing through the origin O and the point F6 (Y axis).

第2象限上側領域C’は、原点Oと点F2を通る直線および原点Oと点F6を通る直線(Y軸)を境界位置とする領域である。第2象限下側領域D’は、原点Oと点F2を通る直線および原点Oと点F7を通る直線(X軸)を境界位置とする領域である。   The second quadrant upper area C 'is an area having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F6 (Y axis). The second quadrant lower area D 'is an area having a boundary position that is a straight line passing through the origin O and the point F2 and a straight line passing through the origin O and the point F7 (X axis).

第3象限上側領域E’は、原点Oと点F3を通る直線および原点Oと点F7を通る直線(X軸)を境界位置とする領域である。第3象限下側領域F’は、原点Oと点F3を通る直線および原点Oと点F8とを通る直線(Y軸)を境界位置とする領域である。   The third quadrant upper area E 'is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F7 (X axis). The third quadrant lower area F ′ is an area having a boundary position that is a straight line passing through the origin O and the point F3 and a straight line passing through the origin O and the point F8 (Y axis).

第4象限下側領域G’は、原点Oと点F4を通る直線および原点Oと点F8を通る直線(Y軸)を境界位置とする領域である。第4象限上側領域H’は、原点Oと点F4を通る直線および原点Oと点F5を通る直線(X軸)を境界位置とする領域である。   The fourth quadrant lower region G ′ is a region having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F8 (Y axis). The upper quadrant H ′ of the fourth quadrant is an area having a boundary position that is a straight line passing through the origin O and the point F4 and a straight line passing through the origin O and the point F5 (X axis).

注視点補正部145は、フレームFe上の部分領域とフレームFにおける対応する部分領域の相関関係、すなわちフレームFeからフレームFへの変位値に基づいて、注視点の位置を補正する。   The gazing point correction unit 145 corrects the position of the gazing point based on the correlation between the partial area on the frame Fe and the corresponding partial area in the frame F, that is, the displacement value from the frame Fe to the frame F.

以下、図10〜図14を参照しつつ、注視点補正部145の処理について詳述する。図10は、各点の座標を示す図である。図10に示すように、点F1の座標を(x4,y4)、点F2の座標を(x10,y4)、点F3の座標を(x10,y8)、点F4の座標を(x4,y8)、点F5の座標を(x4,0)、点F6の座標を(0,y4)、点F7の座標を(x10,0)、点F8の座標を(0,y8)とする。また、点Fe1の座標を(x6,y6)、点Fe2の座標を(x11,y11)、点Fe3の座標を(x13,y13)、点Fe4の座標を(x9,y9)、点Fe5の座標を(x7,0)、点Fe6の座標を(0,y7)、点Fe7の座標を(x20,0)、点Fe8の座標を(0,y20)とする。   Hereinafter, the process of the gaze point correction unit 145 will be described in detail with reference to FIGS. FIG. 10 is a diagram showing the coordinates of each point. As shown in FIG. 10, the coordinates of the point F1 are (x4, y4), the coordinates of the point F2 are (x10, y4), the coordinates of the point F3 are (x10, y8), and the coordinates of the point F4 are (x4, y8). The coordinates of the point F5 are (x4, 0), the coordinates of the point F6 are (0, y4), the coordinates of the point F7 are (x10, 0), and the coordinates of the point F8 are (0, y8). Also, the coordinates of the point Fe1 are (x6, y6), the coordinates of the point Fe2 are (x11, y11), the coordinates of the point Fe3 are (x13, y13), the coordinates of the point Fe4 are (x9, y9), and the coordinates of the point Fe5 Is (x7,0), the coordinates of the point Fe6 are (0, y7), the coordinates of the point Fe7 are (x20,0), and the coordinates of the point Fe8 are (0, y20).

さらに、図11に示すように、第1象限下側領域Aにおいて検出された検査用注視点を点P2Aとし、点P2Aの座標を(x2A,y2A)とする。また、点P2Aの補正後の検査用注視点を点P0Aとし、点P0Aの座標を(x0A,y0A)とする。   Further, as shown in FIG. 11, the inspection point of gaze detected in the lower quadrant A is a point P2A, and the coordinates of the point P2A are (x2A, y2A). Further, the point of gazing for inspection after the correction of the point P2A is the point P0A, and the coordinates of the point P0A are (x0A, y0A).

さらに、点Fe1と点Fe5を通る直線をL1A、点F1と点F5を通る直線をL2Aとする。点P2Aと原点Oを通る直線をL3A、点P0Aと原点を通る直線をL4A、点Fe1と原点を通る直線をL5A、点F1と原点を通る直線をL6Aとする。   Further, a straight line passing through the points Fe1 and Fe5 is L1A, and a straight line passing through the points F1 and F5 is L2A. A straight line passing through the point P2A and the origin O is L3A, a straight line passing through the point P0A and the origin is L4A, a straight line passing through the point Fe1 and the origin is L5A, and a straight line passing through the point F1 and the origin is L6A.

また、直線L2Aと直線L4Aの交点を点P1Aとし、点P1Aの座標を(x4,y1A)とする。また、直線L1Aと直線L3Aの交点を点P3Aとし、点P3Aの座標を(x3A,y3A)とする。   Further, an intersection of the straight line L2A and the straight line L4A is a point P1A, and the coordinates of the point P1A are (x4, y1A). Further, an intersection of the straight line L1A and the straight line L3A is a point P3A, and the coordinates of the point P3A are (x3A, y3A).

また、原点と点P0Aの間の距離をd0A、原点と点P1Aの間の距離をd1A、原点と点P2Aの間の距離をd2A、原点と点P3Aの間の距離をd3Aとする。   Further, the distance between the origin and the point P0A is d0A, the distance between the origin and the point P1A is d1A, the distance between the origin and the point P2A is d2A, and the distance between the origin and the point P3A is d3A.

また、直線L3AとX軸のなす角0Aの角度をθ0A、直線L5AとX軸のなす角1Aの角度をθ1A、直線L4AとX軸のなす角2Aの角度をθ2A、直線L6AとX軸のなす角3Aの角度をθ3Aとする。   In addition, the angle 0A formed by the straight line L3A and the X axis is θ0A, the angle 1A formed by the straight line L5A and the X axis is θ1A, the angle 2A formed by the straight line L4A and the X axis is θ2A, and the straight line L6A and the X axis are The angle 3A formed is defined as θ3A.

以上の条件の下、注視点補正部145は、角0Aの角度θ0Aの角1Aの角度θ1Aに対する割合と、角2Aの角度θ2Aの角3Aの角度θ3Aに対する割合が等しいとして、角2Aの角度θ2Aを求め、さらに、距離d2Aの距離d3Aに対する割合と、距離d0Aの距離d1Aに対する割合が等しいとして、距離d0Aを求めることにより、補正用注視点の補正後の位置を算出する。   Under the above conditions, the gaze point correcting unit 145 assumes that the ratio of the angle 0A to the angle θ1A of the angle 1A and the angle θ1A of the angle 2A to the angle θ3A of the angle 2A is equal to the angle θ2A of the angle 2A. Further, assuming that the ratio of the distance d2A to the distance d3A is equal to the ratio of the distance d0A to the distance d1A, the position d0A is calculated to calculate the corrected position of the gazing point for correction.

注視点補正部145は、まず、(式1)〜(式3)により、角度θ0A、角度θ1Aおよび角度θ3Aを算出する。

Figure 2014039787
Figure 2014039787
Figure 2014039787
First, the gaze point correcting unit 145 calculates the angle θ0A, the angle θ1A, and the angle θ3A using (Expression 1) to (Expression 3).
Figure 2014039787
Figure 2014039787
Figure 2014039787

角0Aの角度θ0Aの角1Aの角度θ1Aに対する割合と、角2Aの角度θ2Aの角3Aの角度θ3Aに対する割合が等しいことから、(式4)が成り立つ。注視点補正部145は、(式4)に(式1)〜(式3)により算出した角度θ0A、角度θ1Aおよび角度θ3Aを代入することにより、角度θ2Aを算出する。

Figure 2014039787
Since the ratio of the angle 0A to the angle θ1A of the angle 1A and the angle θ1A of the angle 1A is equal to the ratio of the angle θ2A of the angle 2A to the angle θ3A of the angle 3A, (Equation 4) holds. The gazing point correction unit 145 calculates the angle θ2A by substituting the angle θ0A, the angle θ1A, and the angle θ3A calculated by (Expression 1) to (Expression 3) into (Expression 4).
Figure 2014039787

注視点補正部145はまた、点3Aが直線L1Aと直線L3Aの交点であるとして、点P3Aの座標(x3A,y3A)を算出する。ここで、直線L1Aは、(式5)により示される。

Figure 2014039787
(式5)は、(式6)のように示すことができる。
Figure 2014039787
(式6)において、alおよびblはそれぞれ(式7)および(式8)で示される。
Figure 2014039787
Figure 2014039787
また、直線L3Aは、(式9)により示される。
Figure 2014039787
(式9)を(式6)に代入することにより、(式10)および(式11)が得られる。
Figure 2014039787
Figure 2014039787
注視点補正部145は、(式10)および(式11)により、点P3Aの座標(x3A,y3A)を算出する。 The gaze point correction unit 145 also calculates the coordinates (x3A, y3A) of the point P3A, assuming that the point 3A is an intersection of the straight line L1A and the straight line L3A. Here, the straight line L1A is represented by (Equation 5).
Figure 2014039787
(Expression 5) can be expressed as (Expression 6).
Figure 2014039787
In (Formula 6), al and bl are represented by (Formula 7) and (Formula 8), respectively.
Figure 2014039787
Figure 2014039787
The straight line L3A is represented by (Equation 9).
Figure 2014039787
By substituting (Equation 9) into (Equation 6), (Equation 10) and (Equation 11) are obtained.
Figure 2014039787
Figure 2014039787
The gaze point correction unit 145 calculates the coordinates (x3A, y3A) of the point P3A by using (Expression 10) and (Expression 11).

注視点補正部145はさらに、(式12)により、距離d3Aに対する距離d2Aの比k0を算出する。

Figure 2014039787
The gaze point correcting unit 145 further calculates a ratio k0 of the distance d2A to the distance d3A by (Equation 12).
Figure 2014039787

注視点補正部145はまた、点P1Aの座標(x4,y1A)を算出する。ここで、直線L2Aは、(式13)により示される。

Figure 2014039787
(式13)を用いて、(式14)および(式15)が得られる。
Figure 2014039787
Figure 2014039787
以上に基づき、注視点補正部145は、(式14)および(式15)により、点P1Aの座標(x4,y1A)を算出する。 The gaze point correction unit 145 also calculates the coordinates (x4, y1A) of the point P1A. Here, the straight line L2A is represented by (Equation 13).
Figure 2014039787
Using (Expression 13), (Expression 14) and (Expression 15) are obtained.
Figure 2014039787
Figure 2014039787
Based on the above, the gaze point correction unit 145 calculates the coordinates (x4, y1A) of the point P1A using (Expression 14) and (Expression 15).

注視点補正部145はさらに、(式16)により、距離d1Aを算出する。

Figure 2014039787
The gaze point correcting unit 145 further calculates the distance d1A by (Equation 16).
Figure 2014039787

注視点補正部145は、点P0Aが距離d1Aに対する距離d0Aの比がk0となるような点であるとして、(式17)および(式18)により、点P0Aの座標(x0A,y0A)を算出する。

Figure 2014039787
Figure 2014039787
The gazing point correction unit 145 calculates the coordinates (x0A, y0A) of the point P0A according to (Expression 17) and (Expression 18), assuming that the point P0A is a point where the ratio of the distance d0A to the distance d1A is k0. To do.
Figure 2014039787
Figure 2014039787

なお、注視点補正部145は、他の部分領域においても、同様の演算式により、各部分領域に属する検査用注視点の位置を補正する。   Note that the gazing point correction unit 145 corrects the position of the inspection gazing point belonging to each partial area in the other partial areas using the same arithmetic expression.

図12は、第4象限上側領域Hを示す図である。検査用注視点が第4象限上側領域Hに属する場合には、X軸を基準として、角0B〜3Bを定め、また、直線L1B〜L6Bを定める。そして、注視点補正部145は、角0Bの角度θ0Bの角1Bの角度θ1Bに対する割合と、角2Bの角度θ2Bの角3Bの角度θ3Bに対する割合が等しいとして、角2Bの角度θ2Bを求める。さらに、注視点補正部145は、距離d2Bの距離d3Bに対する割合と、距離d0Bの距離d1Bに対する割合が等しいとして、距離d0Bを求める。これにより、注視点補正部145は、検査用注視点P2B(x2B,y2B)の補正後の検査用注視点P0Bの座標(x0B,y0B)を算出する。   FIG. 12 is a diagram illustrating the upper quadrant H of the fourth quadrant. When the inspection gazing point belongs to the upper quadrant H of the fourth quadrant, the angles 0B to 3B are defined with reference to the X axis, and straight lines L1B to L6B are defined. Then, the gaze point correcting unit 145 obtains the angle θ2B of the angle 2B, assuming that the ratio of the angle 0B to the angle θ1B of the angle 1B is equal to the ratio of the angle 2B to the angle θ3B of the angle 2B. Further, the gaze point correction unit 145 determines the distance d0B on the assumption that the ratio of the distance d2B to the distance d3B is equal to the ratio of the distance d0B to the distance d1B. Thereby, the gazing point correction unit 145 calculates the coordinates (x0B, y0B) of the inspection gazing point P0B after correcting the inspection gazing point P2B (x2B, y2B).

図13は、第2象限上側領域Cを示す図である。検査用注視点が第2象限上側領域Cに属する場合には、Y軸を基準として、角0C〜3Cを定め、また、直線L1C〜L6Cを定める。そして、注視点補正部145は、角0Cの角度θ0Cの角1Cの角度θ1Cに対する割合と、角2Cの角度θ2Cの角3Cの角度θ3Cに対する割合が等しいとして、角2Cの角度θ2Cを求める。さらに、注視点補正部145は、距離d2Cの距離d3Cに対する割合と、距離d0Cの距離d1Cに対する割合が等しいとして、距離d0Cを求める。これにより、注視点補正部145は、検査用注視点P2C(x2C,y2C)の補正後の検査用注視点P0Cの座標(x0C,y0C)を算出する。   FIG. 13 is a diagram showing the upper quadrant area C of the second quadrant. When the inspection gazing point belongs to the second quadrant upper area C, the angles 0C to 3C are defined with reference to the Y axis, and straight lines L1C to L6C are defined. Then, the gazing point correction unit 145 obtains the angle θ2C of the angle 2C on the assumption that the ratio of the angle 0C to the angle θ1C of the angle 1C is equal to the ratio of the angle 2C of the angle 2C to the angle θ3C of the angle 3C. Furthermore, the gaze point correction unit 145 determines the distance d0C on the assumption that the ratio of the distance d2C to the distance d3C is equal to the ratio of the distance d0C to the distance d1C. Thereby, the gaze point correction unit 145 calculates the coordinates (x0C, y0C) of the inspection point of interest P0C after the correction of the inspection point of interest P2C (x2C, y2C).

図14は、第1象限上側領域Bを示す図である。検査用注視点が第1象限上側領域Bに属する場合には、Y軸を基準として、角0D〜3Dを定め、また、直線L1D〜L6Dを定める。そして、注視点補正部145は、角0Dの角度θ0Dの角1Dの角度θ1Dに対する割合と、角2Dの角度θ2Dの角3Dの角度θ3Dに対する割合が等しいとして、角2Dの角度θ2Dを求める。さらに、注視点補正部145は、距離d2Dの距離d3Dに対する割合と、距離d0Dの距離d1Dに対する割合が等しいとして、距離d0Dを求める。これにより、注視点補正部145は、検査用注視点P2D(x2D,y2D)の補正後の検査用注視点P0Dの座標(x0D,y0D)を算出する。   FIG. 14 is a diagram showing the first quadrant upper area B. As shown in FIG. When the inspection gazing point belongs to the first quadrant upper area B, the angles 0D to 3D are defined with reference to the Y axis, and the straight lines L1D to L6D are defined. Then, the gaze point correcting unit 145 obtains the angle θ2D of the angle 2D on the assumption that the ratio of the angle 0D to the angle θ1D of the angle 1D is equal to the ratio of the angle 2D of the angle 2D to the angle θ3D of the angle 3D. Further, the gaze point correction unit 145 determines the distance d0D on the assumption that the ratio of the distance d2D to the distance d3D is equal to the ratio of the distance d0D to the distance d1D. Thereby, the gazing point correction unit 145 calculates the coordinates (x0D, y0D) of the inspection gazing point P0D after correcting the inspection gazing point P2D (x2D, y2D).

図3に戻り、評価部146は、検査画像と、補正後の検査用注視点とに基づいて、発達障害の評価値を算出する。評価部146は、検査画像を表示した際の被検査者の検査用注視点の位置に基づいて、検査画像としての顔画像の目を見ている割合を評価値として算出し、評価値が低いほど、発達障害の可能性が高いことを示すような評価値を算出する。評価部146による処理の詳細については、例えば特開2011−206542号公報を参照することができる。評価部146は、検査画像と検査用注視点とに基づいて、評価値を算出すればよく、その算出方法は、本実施の形態に限定されるものではない。   Returning to FIG. 3, the evaluation unit 146 calculates an evaluation value of the developmental disorder based on the inspection image and the corrected inspection point of interest. The evaluation unit 146 calculates, as an evaluation value, a ratio of looking at the eyes of the face image as the inspection image based on the position of the gaze point for inspection of the examinee when the inspection image is displayed, and the evaluation value is low The evaluation value that indicates that the possibility of developmental disorder is high is calculated. For details of the processing performed by the evaluation unit 146, reference can be made to, for example, JP 2011-206542A. The evaluation unit 146 may calculate the evaluation value based on the inspection image and the inspection gazing point, and the calculation method is not limited to the present embodiment.

図15は、診断支援装置100による第1診断処理を示すフローチャートである。第1診断処理において、診断支援装置100は、まず、簡易キャリブレーションを実行する(ステップS100)。簡易キャリブレーションにおいては、表示制御部141は、1点または2点のターゲットポイントを第1表示部101に表示する。   FIG. 15 is a flowchart showing the first diagnosis process by the diagnosis support apparatus 100. In the first diagnosis process, the diagnosis support apparatus 100 first executes simple calibration (step S100). In the simple calibration, the display control unit 141 displays one or two target points on the first display unit 101.

続いて、注視点検出部142は、表示されたターゲットポイントに対応する較正用注視点を検出する。そして、注視点補正部145は、検出された較正用注視点に基づいて、注視点の簡易キャリブレーションを実行する。   Subsequently, the gazing point detection unit 142 detects a gazing point for calibration corresponding to the displayed target point. Then, the gazing point correction unit 145 performs simple gazing point calibration based on the detected calibration gazing point.

なお、注視点の非常に大きなずれが発生しないことがわかっている場合には、簡易キャリブレーション(ステップS100)を省略してもよい。   In addition, when it is known that a very large shift of the gazing point does not occur, the simple calibration (step S100) may be omitted.

次に、診断支援装置100は、検査用注視点検出処理を実行する(ステップS101)。検査用注視点検出処理においては、まず、表示制御部141は、検査画像を第1表示部101に表示する。次に、注視点検出部142は、第1表示部101に検査画像が表示されている際の被検査者の注視点、すなわち検査用注視点を検出する。   Next, the diagnosis support apparatus 100 executes inspection gazing point detection processing (step S101). In the inspection gazing point detection process, first, the display control unit 141 displays an inspection image on the first display unit 101. Next, the gazing point detection unit 142 detects the gazing point of the inspected person when the inspection image is displayed on the first display unit 101, that is, the inspection gazing point.

次に、診断支援装置100は、補正用注視点検出処理を実行する(ステップS102)。補正用注視点検出処理においては、診断支援装置100は、ターゲットポイントを示す目印に対する注視点、すなわち補正用注視点を検出する。補正用注視点検出処理については、後述する。   Next, the diagnosis support apparatus 100 executes correction gazing point detection processing (step S102). In the correction gazing point detection process, the diagnosis support apparatus 100 detects a gazing point with respect to the mark indicating the target point, that is, a correction gazing point. The correction gazing point detection process will be described later.

続いて、領域分割部143が、補正用注視点に基づいて、対象領域を8つの部分領域(A〜H)に分割する(ステップS103)。次に、注視点補正部145は、ステップS101において得られた検査用注視点が属する、フレームFeにおける部分領域を特定し、さらに、特定した部分領域に対応する、フレームFにおける部分領域を特定する(ステップS104)。部分領域を特定する処理については後述する。   Subsequently, the area dividing unit 143 divides the target area into eight partial areas (A to H) based on the correction gazing point (step S103). Next, the gazing point correction unit 145 identifies a partial region in the frame Fe to which the inspection gazing point obtained in step S101 belongs, and further identifies a partial region in the frame F corresponding to the identified partial region. (Step S104). Processing for specifying the partial area will be described later.

次に、注視点補正部145は、検査用注視点の位置を較正する(ステップS105)。ステップS105における検査用注視点較正処理においては、注視点検出部145は、ステップS104において特定した部分領域毎に異なる演算処理を実行することにより、検査用注視点の較正後の位置を算出する。   Next, the gazing point correction unit 145 calibrates the position of the inspection gazing point (step S105). In the inspection gazing point calibration process in step S105, the gazing point detection unit 145 calculates a post-calibration position of the inspection gazing point by executing different calculation processes for each partial region identified in step S104.

次に、評価部146は、補正後の検査用注視点の位置に基づいて、評価値を算出する(ステップS106)。なお、評価値は、例えば第2表示部102に出力される。以上で、診断処理が完了する。   Next, the evaluation unit 146 calculates an evaluation value based on the corrected position of the gazing point for inspection (step S106). The evaluation value is output to the second display unit 102, for example. Thus, the diagnosis process is completed.

なお、第1診断処理においては、検査用注視点検出処理(ステップS101)の後に、補正用注視点検出処理(ステップS102)を行ったが、他の例としては、補正用注視点検出処理(ステップS102)の後に、検査用注視点検出処理(ステップS101)を行うこととしてもよい。   In the first diagnosis process, the correction gazing point detection process (step S102) is performed after the inspection gazing point detection process (step S101). As another example, the correction gazing point detection process (step S102) is performed. After step S102), an inspection gazing point detection process (step S101) may be performed.

次に、診断支援装置100は、補正用注視点検出処理を実行する(ステップS102)。図16は、実施の形態1の補正用注視点検出処理の詳細を示すフローチャートである。補正用注視点検出処理においては、まず、表示制御部141は、ターゲットポイントを示す目印SP0を所定位置(原点位置)に表示する(ステップS110)。次に、注視点検出部142は、目印SP0に対して得られた補正用注視点の位置を検出する(ステップS111)。注視点検出部142は、所定数の補正用注視点を検出し、これらのデータ分布を計算する(ステップS112)。   Next, the diagnosis support apparatus 100 executes correction gazing point detection processing (step S102). FIG. 16 is a flowchart showing details of the correction gazing point detection processing according to the first embodiment. In the correction gazing point detection process, first, the display control unit 141 displays the mark SP0 indicating the target point at a predetermined position (origin position) (step S110). Next, the gazing point detection unit 142 detects the position of the correction gazing point obtained for the mark SP0 (step S111). The gazing point detection unit 142 detects a predetermined number of correction gazing points and calculates the data distribution thereof (step S112).

図17は、データ分布の計算処理を説明するための図である。目印(SP0〜SP4)を中心とした基準領域が各目印に対して予め設定されている。なお、本実施の形態においては、目印を中心とする所定の半径の円を基準領域とする。基準領域内に所定数以上の較正用注視点が得られない場合には、被検査者がターゲットポイントの目印をしっかり注視していなかった可能性が高く、補正に有効な補正用注視点を検出していない可能性が高い。そこで、本実施の形態においては、注視点検出部142は、目印を表示している間の所定時間において、基準領域内の注視点が所定数以上検出されたか否かにより、検出された補正用注視点が適正か否かを判断することとする。   FIG. 17 is a diagram for explaining data distribution calculation processing. A reference area centered on the marks (SP0 to SP4) is set in advance for each mark. In the present embodiment, a circle having a predetermined radius centered on the mark is used as the reference region. If a predetermined number of calibration gaze points cannot be obtained within the reference area, it is likely that the inspector did not gaze closely at the target point mark, and a correction gaze point that is effective for correction is detected. It's likely not. Therefore, in the present embodiment, the gazing point detection unit 142 detects the correction point detected depending on whether or not a predetermined number or more of gazing points in the reference area are detected during a predetermined time while the landmark is displayed. Judgment is made on whether or not the gaze point is appropriate.

ステップS112におけるデータ分布計算処理においては、注視点検出部142は、基準領域内に属する補正用注視点の数を計測する。そして、注視点検出部142は、基準領域内に属する補正用注視点の数が予め設定された閾値以上である場合に、検出された補正用注視点が適正であると判断し(ステップS113,Yes)、検出された複数の較正用注視点のうち、基準領域に属さない補正用注視点を除いた基準領域内データ群を特定する(ステップS114)。   In the data distribution calculation process in step S112, the gazing point detection unit 142 measures the number of correction gazing points belonging to the reference area. Then, the gazing point detection unit 142 determines that the detected gazing point for correction is appropriate when the number of gazing points for correction belonging to the reference area is equal to or greater than a preset threshold (step S113, Yes), the reference area data group excluding the correction gazing point that does not belong to the reference area among the detected calibration gazing points is specified (step S114).

なお、ステップS113において、補正用注視点が適正でないと判断した場合には(ステップS113,No)、ステップS111に戻り、注視点検出部142は、再び補正用注視点の検出をやり直す。   If it is determined in step S113 that the correction gazing point is not appropriate (No in step S113), the process returns to step S111, and the gazing point detection unit 142 again detects the correction gazing point.

次に、注視点検出部142は、基準領域内データ群の各補正用注視点の座標に基づいて、基準領域内データ群の代表値を算出する(ステップS115)。本実施の形態においては、代表値として、基準領域内データ群の平均値を算出する。なお、代表値は、平均値以外の値であってもよい。代表値は、例えば標準偏差であってもよい。以降の処理においては、ステップS115により算出された代表値が補正用注視点として利用される。   Next, the gazing point detection unit 142 calculates a representative value of the data group in the reference area based on the coordinates of each correction gazing point in the data group in the reference area (step S115). In the present embodiment, the average value of the data group in the reference area is calculated as the representative value. The representative value may be a value other than the average value. The representative value may be a standard deviation, for example. In the subsequent processing, the representative value calculated in step S115 is used as the correction gazing point.

次に、すべてのターゲットポイントの目印に対する代表値が算出されていない場合には(ステップS116,No)、表示制御部141は、次のターゲットポイントを示す目印を表示する(ステップS117)。そして、ステップS111に戻り、表示中の目印に対する代表値を算出する(ステップS111〜115)。   Next, when the representative values for the marks of all target points have not been calculated (No at Step S116), the display control unit 141 displays a mark indicating the next target point (Step S117). Then, the process returns to step S111, and representative values for the displayed mark are calculated (steps S111 to S115).

ステップS116において、すべてのターゲットポイントの目印に対する代表値が算出されると(ステップS116,Yes)、補正用注視点検出処理(ステップS102)が完了する。   In step S116, when representative values for all target point markers are calculated (step S116, Yes), the correction gazing point detection processing (step S102) is completed.

図18−1〜図18−5は、補正用注視点検出処理(ステップS102)における各ターゲットポイントの目印の表示処理を説明するための図である。表示制御部141は、図16に示すステップS110において、まず図18−1に示すように目印SP0を第1表示部101に表示する。次に、表示制御部141は、ステップS117において、残りのターゲットポイントの目印を1つずつ順番に第1表示部101に表示する。   FIG. 18A to FIG. 18E are diagrams for explaining the mark point display process of each target point in the correction gazing point detection process (step S102). In step S110 shown in FIG. 16, the display control unit 141 first displays the mark SP0 on the first display unit 101 as shown in FIG. Next, in step S117, the display control unit 141 displays the remaining target point marks one by one on the first display unit 101 in order.

すなわち、表示制御部141は、図18−2に示すようにステップS117において、SP0の表示をやめ、新たにSP1を表示し、SP1の代表値算出後に再びステップS117において、図18−3に示すようにSP1の表示をやめ、新たにSP2を表示する。同様に、表示制御部141は、続けて、図18−4に示すように、SP2の表示をやめ、新たにSP3のターゲットポイントを表示する。続いて、図18−5に示すように、SP3の表示をやめ、新たにSP4のターゲットポイントを表示する。   That is, the display control unit 141 stops displaying SP0 in step S117 as shown in FIG. 18-2, newly displays SP1, and again after calculating the representative value of SP1, in step S117, the display control unit 141 again displays in FIG. 18-3. Thus, the display of SP1 is stopped and SP2 is newly displayed. Similarly, the display control unit 141 continues to stop displaying SP2 and newly display the target point of SP3 as shown in FIG. 18-4. Subsequently, as shown in FIG. 18-5, the display of SP3 is stopped and the target point of SP4 is newly displayed.

このように、各ターゲットポイントを順番に1つずつ表示することにより、被検査者の補正用注視点を検出することができる。   Thus, by displaying each target point one by one in order, it is possible to detect the gaze point for correction of the subject.

図19は、部分領域特定処理(ステップS104)において、フレームFeにおける部分領域を特定する処理を示すフローチャートである。図19に示すように、まず領域特定部144は、ステップS101において得られた検査用注視点の座標を注視点検出部142から取得する(ステップS120)。   FIG. 19 is a flowchart showing a process of specifying a partial area in the frame Fe in the partial area specifying process (step S104). As shown in FIG. 19, first, the region specifying unit 144 acquires the coordinates of the inspection gazing point obtained in step S101 from the gazing point detection unit 142 (step S120).

次に、領域特定部144は、検査用注視点の座標とフレームFe上の部分領域(A〜H)に基づいて、検査用注視点が属する部分領域を特定する。領域特定部144は、具体的には、検査用注視点のx座標の符号を特定し、続いてy座標の符号を特定する。検査用注視点のx座標が0以上であり、かつ検査用注視点のy座標が0以上である場合には(ステップS121,Yes、ステップS122,Yes)、領域特定部144は、さらに検査用注視点のxy座標と、点Fe1の座標とに基づいて、検査用注視点が原点Oと点Fe1を結ぶ直線(直線O−Fe1)より上側に位置するか否かを特定する。   Next, the area specifying unit 144 specifies the partial area to which the inspection gazing point belongs based on the coordinates of the inspection gazing point and the partial areas (A to H) on the frame Fe. Specifically, the area specifying unit 144 specifies the code of the x coordinate of the inspection gazing point, and then specifies the code of the y coordinate. When the x coordinate of the inspection gazing point is 0 or more and the y coordinate of the inspection gazing point is 0 or more (step S121, Yes, step S122, Yes), the region specifying unit 144 further performs inspection. Based on the xy coordinates of the gazing point and the coordinates of the point Fe1, it is determined whether or not the inspection gazing point is located above a straight line (straight line O-Fe1) connecting the origin O and the point Fe1.

検査用注視点が直線O−Fe1上または直線O−Fe1より下側に位置する場合には(ステップS123,No)、領域特定部144は、検査用注視点が第1象限下側領域Aに属すると判断する(ステップS124)。   When the inspection gazing point is located on the straight line O-Fe1 or below the straight line O-Fe1 (No in step S123), the region specifying unit 144 sets the inspection gazing point in the first quadrant lower region A. It is determined that it belongs (step S124).

検査用注視点が直線O−Fe1より上側に位置する場合には(ステップS123,Yes)、領域特定部144は、検査用注視点が第1象限上側領域Bに属すると判断する(ステップS125)。   When the inspection gazing point is located above the straight line O-Fe1 (step S123, Yes), the region specifying unit 144 determines that the inspection gazing point belongs to the first quadrant upper region B (step S125). .

検査用注視点のx座標が0以上であり、かつ検査用注視点のy座標が0より小さい場合には(ステップS121,Yes、ステップS122,No)、領域特定部144は、さらに検査用注視点のxy座標と、点Fe4の座標とに基づいて、検査用注視点が原点Oと点Fe4を結ぶ直線(直線O−Fe4)より上側に位置するか否かを特定する。   When the x coordinate of the inspection point of interest is 0 or more and the y coordinate of the inspection point of interest is smaller than 0 (step S121, Yes, step S122, No), the region specifying unit 144 further performs the inspection note. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe4, it is determined whether or not the inspection gazing point is located above a straight line (straight line O-Fe4) connecting the origin O and the point Fe4.

検査用注視点が直線O−Fe4上または直線O−Fe4より下側に位置する場合には(ステップS126,No)、領域特定部144は、検査用注視点が第4象限下側領域Gに属すると判断する(ステップS127)。   When the inspection gazing point is located on the straight line O-Fe4 or below the straight line O-Fe4 (No in step S126), the region specifying unit 144 sets the inspection gazing point in the lower quadrant G of the fourth quadrant. It is determined that it belongs (step S127).

検査用注視点が直線O−Fe4より上側に位置する場合には(ステップS126,Yes)、領域特定部144は、検査用注視点が第4象限上側領域Hに属すると判断する(ステップS128)。   When the inspection gazing point is located above the straight line O-Fe4 (step S126, Yes), the region specifying unit 144 determines that the inspection gazing point belongs to the fourth quadrant upper region H (step S128). .

検査用注視点のx座標が0より小さく、かつ検査用注視点のy座標が0以上である場合には(ステップS121,No、ステップS129,Yes)、領域特定部144は、さらに検査用注視点のxy座標と、点Fe2の座標とに基づいて、検査用注視点が原点Oと点Fe2を結ぶ直線(直線O−Fe2)より上側に位置するか否かを特定する。   When the x coordinate of the inspection gazing point is smaller than 0 and the y coordinate of the inspection gazing point is 0 or more (step S121, No, step S129, Yes), the region specifying unit 144 further performs the inspection note. Based on the xy coordinates of the viewpoint and the coordinates of the point Fe2, it is specified whether or not the inspection gazing point is located above the straight line connecting the origin O and the point Fe2 (straight line O-Fe2).

検査用注視点が直線O−Fe2上または直線O−Fe2より下側に位置する場合には(ステップS130,No)、領域特定部144は、検査用注視点が第2象限下側領域Dに属すると判断する(ステップS131)。   When the inspection gazing point is located on the straight line O-Fe2 or below the straight line O-Fe2 (step S130, No), the region specifying unit 144 sets the inspection gazing point in the lower quadrant D of the second quadrant. It is determined that it belongs (step S131).

検査用注視点が直線O−Fe2より上側に位置する場合には(ステップS130,Yes)、領域特定部144は、検査用注視点が第2象限上側領域Cに属すると判断する(ステップS132)。   When the inspection gazing point is located above the straight line O-Fe2 (step S130, Yes), the region specifying unit 144 determines that the inspection gazing point belongs to the second quadrant upper region C (step S132). .

検査用注視点のx座標が0より小さく、かつ検査用注視点のy座標が0より小さい場合には(ステップS121,No、ステップS129,No)、領域特定部144は、さらに検査用注視点のxy座標と、点Fe3の座標とに基づいて、検査用注視点が原点Oと点Fe3を結ぶ直線(直線O−Fe3)より上側に位置するか否かを特定する。   When the x coordinate of the inspection gazing point is smaller than 0 and the y coordinate of the inspection gazing point is smaller than 0 (step S121, No, step S129, No), the region specifying unit 144 further performs the inspection gazing point. Whether the inspection gazing point is located above the straight line connecting the origin O and the point Fe3 (straight line O-Fe3) is specified based on the xy coordinates of the point and the coordinates of the point Fe3.

検査用注視点が直線O−Fe3上または直線O−Fe3より下側に位置する場合には(ステップS133,No)、領域特定部144は、検査用注視点が第3象限下側領域Fに属すると判断する(ステップS134)。   When the inspection gazing point is located on the straight line O-Fe3 or below the straight line O-Fe3 (step S133, No), the region specifying unit 144 sets the inspection gazing point in the lower quadrant F of the third quadrant. It is determined that it belongs (step S134).

検査用注視点が直線O−Fe3より上側に位置する場合には(ステップS133,Yes)、領域特定部144は、検査用注視点が第3象限上側領域Eに属すると判断する(ステップS135)。   When the inspection gazing point is located above the straight line O-Fe3 (step S133, Yes), the region specifying unit 144 determines that the inspection gazing point belongs to the third quadrant upper region E (step S135). .

以上で、ステップS104における検査用注視点が属する部分領域を特定する処理が完了する。   This completes the process of specifying the partial region to which the inspection point of interest belongs in step S104.

以上のように、第1診断処理においては、5つの目印に対応した補正用注視点のみから、精度よく注視点位置を補正することができる。すなわち、短時間で簡易的なキャリブレーションを行った後でも良好に補正することができる。   As described above, in the first diagnosis process, it is possible to accurately correct the gazing point position from only the correction gazing points corresponding to the five marks. That is, even after simple calibration is performed in a short time, the correction can be satisfactorily performed.

図20は、診断支援装置100による第2診断処理を示すフローチャートである。第2診断処理においては、検査用注視点を検出するための一連の処理を診断計測1、診断計測2および診断計測3の3回に分けて実行し、各工程が終了し次の工程を開始する前、すなわち各工程の間に補正用注視点検出のための処理を行う。このように、第2診断処理においては、検査用注視点検出処理と、補正用注視点検出処理のタイミングが第1診断処理と異なっている。   FIG. 20 is a flowchart illustrating the second diagnosis process performed by the diagnosis support apparatus 100. In the second diagnostic process, a series of processes for detecting the gazing point for inspection are executed in three steps, diagnostic measurement 1, diagnostic measurement 2 and diagnostic measurement 3, and each process ends and the next process starts. Processing for detecting a gazing point for correction is performed before each step, that is, between each step. Thus, in the second diagnosis process, the timings of the inspection gazing point detection process and the correction gazing point detection process are different from those of the first diagnosis process.

具体的には、図20に示すように、診断支援装置100は、まず必要に応じて簡易キャリブレーションを実行する(ステップS200)。次に、注視点検出部142は、各目印に対応する失敗フラグに「1」を設定する(ステップS201)。なお、失敗フラグの初期値は「1」であり、各目印に対応する補正用注視点が得られると、値が「0」に変更される。失敗フラグは、例えば記憶部150に記憶されている。   Specifically, as shown in FIG. 20, the diagnosis support apparatus 100 first executes simple calibration as necessary (step S200). Next, the gazing point detection unit 142 sets “1” to the failure flag corresponding to each mark (step S201). The initial value of the failure flag is “1”, and the value is changed to “0” when a correction gazing point corresponding to each mark is obtained. The failure flag is stored in the storage unit 150, for example.

続いて、診断支援装置100は、検査用注視点を検出するための診断計測1を実行する(ステップS202)。続いて、注視点検出部142は、各目印に対応する失敗フラグの値を参照する。失敗フラグが存在する場合、すなわち1が設定されている失敗フラグが存在する場合には(ステップS203,Yes)、補正用注視点の不足データを取得する(ステップS204)。一方、失敗フラグが存在しない場合には(ステップS203,No)、ステップS205に進む。   Subsequently, the diagnosis support apparatus 100 executes the diagnostic measurement 1 for detecting the inspection gazing point (step S202). Subsequently, the gazing point detection unit 142 refers to the value of the failure flag corresponding to each mark. If there is a failure flag, that is, if there is a failure flag for which 1 is set (step S203, Yes), deficient data for the correction gazing point is acquired (step S204). On the other hand, when the failure flag does not exist (step S203, No), the process proceeds to step S205.

図21は、不足データ取得処理(ステップS204)における詳細な処理を示すフローチャートである。まず、注視点検出部142は、SP0の失敗フラグを参照する。SP0の失敗フラグが1である場合には(ステップS220,Yes)、表示制御部141は、ターゲットポイントの目印SP0を第1表示部101に表示する(ステップS221)。ステップS220において、SP0の失敗フラグが1でない場合には(ステップS220,No)、ステップS228へ進む。   FIG. 21 is a flowchart showing detailed processing in the deficient data acquisition processing (step S204). First, the gazing point detection unit 142 refers to the failure flag of SP0. If the failure flag of SP0 is 1 (step S220, Yes), the display control unit 141 displays the target point mark SP0 on the first display unit 101 (step S221). In step S220, when the failure flag of SP0 is not 1 (step S220, No), it progresses to step S228.

ステップS222〜ステップS226の処理は、図16を参照しつつ説明したステップS111〜ステップS115の処理と同様である。ただし、ステップS224において、適正でないと判断された場合には(ステップS224,No)、ステップS222に戻らず、ステップS228へ進む。   The processing in steps S222 to S226 is the same as the processing in steps S111 to S115 described with reference to FIG. However, if it is determined in step S224 that it is not appropriate (No in step S224), the process proceeds to step S228 without returning to step S222.

また、注視点検出部142は、代表値算出処理(ステップS226)の後、処理対象となっている目印、すなわちこのとき第1表示部101に表示されている目印に対応する失敗フラグに「0」をセットする(ステップS227)。   In addition, the gaze point detection unit 142 sets “0” to the failure flag corresponding to the mark to be processed, that is, the mark displayed on the first display unit 101 at this time, after the representative value calculation process (step S226). "Is set (step S227).

次に、注視点検出部142は、未処理のターゲットポイントが存在するか否かを確認する。未処理のターゲットポイントが存在する場合、すなわち次に処理すべきSPが存在する場合には(ステップS228,Yes)、注視点検出部142は、次のSPの失敗フラグの値を参照する。次のSPの失敗フラグが1である場合には(ステップS229,Yes)、表示制御部141はまず、目印SP0を表示し、次のターゲットポイントまで目印を移動表示する(ステップS230)。次に、表示制御部141は、次のターゲットポイントの目印SPを表示する(ステップS231)。そして、ステップS222に戻り、注視点検出部142は、次の目印に対応する補正用注視点の検出を行う。   Next, the gaze point detection unit 142 confirms whether or not an unprocessed target point exists. When there is an unprocessed target point, that is, when there is an SP to be processed next (step S228, Yes), the gazing point detection unit 142 refers to the value of the failure flag of the next SP. When the failure flag of the next SP is 1 (step S229, Yes), the display control unit 141 first displays the mark SP0 and moves and displays the mark to the next target point (step S230). Next, the display control unit 141 displays the mark SP of the next target point (step S231). Then, returning to step S222, the gaze point detection unit 142 detects a correction gaze point corresponding to the next mark.

一方、ステップS229において、次のSPの失敗フラグが1でない場合には(ステップS229,No)、ステップS228に戻る。   On the other hand, if the failure flag of the next SP is not 1 in step S229 (No in step S229), the process returns to step S228.

また、ステップS228において、未処理のターゲットポイントが存在しない場合、すなわちすべてのSPに対する処理が終了し、次に処理すべきSPが存在しない場合には(ステップS228,No)、不足データ取得処理(ステップS204)が完了する。   In step S228, when there is no unprocessed target point, that is, when processing for all SPs is completed and there is no SP to be processed next (step S228, No), insufficient data acquisition processing ( Step S204) is completed.

図22−1〜図22−5は、不足データ取得処理(ステップS204)におけるターゲットポイントの目印の表示処理を説明するための図である。表示制御部141は、図21に示すステップS221において、まず図22−1に示すようにSP0の目印を第1表示部101に表示する。次に、表示制御部141は、ステップS230において、SP0からを次のSPまで目印を移動表示した後、次の目印を1つずつ順番の第1表示部101に表示する。   FIG. 22-1 to FIG. 22-5 are diagrams for explaining target point mark display processing in the deficient data acquisition processing (step S204). In step S221 shown in FIG. 21, the display control unit 141 first displays the SP0 mark on the first display unit 101 as shown in FIG. Next, in step S230, the display control unit 141 moves and displays the mark from SP0 to the next SP, and then displays the next mark on the first display unit 101 in order.

すなわち、表示制御部141は、ステップS230において、図22−2に示すようにSP0からSP1に目印を移動表示した後、ステップS231において、SP1を表示する。続いて、表示制御部141は、SP1にかかる処理後に再びステップS230において、図22−3に示すようにSP0からSP2に目印を移動表示した後、ステップS231において、SP2を表示する。同様に、表示制御部141は、図22−4に示すように、SP0からSP3へ目印を移動表示した後、SP3を表示し、続いて、図22−5に示すように、SP0からSP4へ目印を移動表示した後、SP4を表示する。   That is, the display control unit 141 moves and displays the mark from SP0 to SP1 as shown in FIG. 22-2 in step S230, and then displays SP1 in step S231. Subsequently, the display control unit 141 moves and displays the mark from SP0 to SP2 as shown in FIG. 22-3 again in step S230 after the processing related to SP1, and then displays SP2 in step S231. Similarly, as shown in FIG. 22-4, the display control unit 141 moves and displays the mark from SP0 to SP3, and then displays SP3. Subsequently, as shown in FIG. 22-5, from SP0 to SP4. After the mark is moved and displayed, SP4 is displayed.

図20に戻り、ステップS204の不足データ取得処理(ステップS204)が完了すると、次に、診断支援装置100は、診断計測2を実行する(ステップS205)。続いて、注視点検出部142は、失敗フラグが存在する場合には(ステップS206,Yes)、不足データを取得する(ステップS207)。なお、失敗フラグが存在しない場合には(ステップS206,No)、ステップS208へ進む。   Returning to FIG. 20, when the deficient data acquisition process (step S204) in step S204 is completed, the diagnosis support apparatus 100 next executes the diagnostic measurement 2 (step S205). Subsequently, when there is a failure flag (Yes at Step S206), the gazing point detection unit 142 acquires insufficient data (Step S207). If there is no failure flag (No at Step S206), the process proceeds to Step S208.

次に、診断支援装置100は、診断計測3を実行する(ステップS208)。続いて、
注視点検出部142は、失敗フラグが存在する場合には(ステップS209,Yes)、不足データを取得し(ステップS210)、ステップS209に戻る。なお、失敗フラグが存在しない場合には(ステップS209,No)、ステップS211に進み、注視点が較正され(ステップS211)、較正後の注視点に基づいて評価値が算出され(ステップS212)、第2診断処理が完了する。
Next, the diagnosis support apparatus 100 executes diagnosis measurement 3 (step S208). continue,
If there is a failure flag (Yes at Step S209), the gazing point detection unit 142 acquires insufficient data (Step S210) and returns to Step S209. If the failure flag does not exist (step S209, No), the process proceeds to step S211, the gazing point is calibrated (step S211), and an evaluation value is calculated based on the gazing point after calibration (step S212). The second diagnosis process is completed.

なお、不足データ取得処理(ステップS207、ステップS210)は、不足データ取得処理(ステップS204)と同様の処理である。   The insufficient data acquisition process (steps S207 and S210) is the same process as the insufficient data acquisition process (step S204).

このように、第2診断処理においては、診断計測の合間に補正用注視点検出処理を行い、かつ各補正用注視点検出処理においては、適切な補正用注視点が検出されるまで、補正用注視点の検出を繰り返すのではなく、処理を一旦終了し、次の補正用注視点検出処理において、代表値算出が完了していない補正用注視点の検出を行うこととしたので、被検査者が検査にストレスを感じるのを軽減することができる。   As described above, in the second diagnosis process, the correction gazing point detection process is performed between the diagnostic measurements, and in each correction gazing point detection process, correction is performed until an appropriate correction gazing point is detected. Instead of repeating the detection of the gazing point, the process is temporarily ended, and in the next correction gazing point detection process, the correction gazing point for which the representative value calculation has not been completed is detected. Can reduce stress on the test.

このように、本実施の形態にかかる診断支援装置100による評価値算出処理においては、補正用注視点を検出するタイミングは、検査用注視点を検出する前後いずれであってもよく、また検査用注視点検出の途中であってもよい。   As described above, in the evaluation value calculation process performed by the diagnosis support apparatus 100 according to the present embodiment, the timing for detecting the correction gazing point may be either before or after the inspection gazing point is detected. The gazing point may be detected.

このため、長時間の検査に集中することの難しい乳幼児を被検査者とする場合であっても、精度よく検査用注視点の位置を較正することができる。   For this reason, even when the infant who is difficult to concentrate on the inspection for a long time is set as the person to be inspected, the position of the inspection gazing point can be accurately calibrated.

このように、本実施の形態にかかる診断支援装置100による診断処理においては、5つの目印に対応した補正用注視点のみから、精度よく注視点位置を補正することができる。すなわち、短時間での簡易的なキャリブレーションやキャリブレーションなしでも、精度よく通視点位置の補正を行うことができる。そのため、測定を即時に開始することが可能で、乳幼児の測定に適している。補正のための測定はどのタイミングでも問題ない。   As described above, in the diagnosis process performed by the diagnosis support apparatus 100 according to the present embodiment, it is possible to accurately correct the gazing point position from only the correction gazing points corresponding to the five marks. That is, it is possible to accurately correct the viewpoint position without simple calibration or calibration in a short time. Therefore, the measurement can be started immediately and is suitable for measurement of infants. The measurement for correction does not have any problem at any timing.

以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。   As described above, the present invention has been described using the embodiment, but various changes or improvements can be added to the above embodiment.

そうした第1の変更例としては、本実施の形態においては、注視点検出部142は、5つのターゲットポイントに対する較正用注視点を検出したが、5つよりも多い数のターゲットポイントを設定し、各ターゲットポイントに対する較正用注視点を検出することとしてもよい。この場合には、領域分割部143は、これらに基づいて、表示領域を8つより多い数の部分領域に分割する。そして、注視点補正部145は、各部分領域に対応する演算により検査用注視点を較正する。これにより、より高い精度で検査用注視点のキャリブレーションを行うことができる。   As such a first modification, in the present embodiment, the gazing point detection unit 142 detects calibration gazing points for five target points, but sets more than five target points, It is good also as detecting the gazing point for calibration with respect to each target point. In this case, the area dividing unit 143 divides the display area into more than eight partial areas based on these. The gazing point correction unit 145 calibrates the inspection gazing point by calculation corresponding to each partial region. Thereby, it is possible to calibrate the gazing point for inspection with higher accuracy.

また、第2の変更例としては、表示制御部141は、基準となる中心のターゲットポイントの目印SP0は表示しなくともよい。この場合には、領域分割部143は、SP1〜SP4の目印の平均値をSP0とし、また、SP1a〜SP4aの平均値をSP0aとして処理を行うこととする。   As a second modification, the display control unit 141 may not display the mark SP0 of the central target point serving as a reference. In this case, the region dividing unit 143 performs processing by setting the average value of the marks SP1 to SP4 as SP0 and the average value of SP1a to SP4a as SP0a.

また、第3の変更例としては、フレームFeを原点と、点SP1b〜SP4bにより定めるのに替えて、点SP0a〜SP4aにより定めてもよい。この場合には、点SP0aを通り、x軸またはy軸に平行な直線と、点SP1a〜SP4aそれぞれと点SP0aを通る直線のなす角を、較正に用いるフレームFe上の角を定義すればよい。例えば、図11に示す第1象限下側領域においては、点SP0aを通りx軸に平行な直線と、点SP0aと点SP1aを通る直線のなす角を角θ1Aとすればよい。   As a third modification, the frame Fe may be defined by points SP0a to SP4a instead of being defined by the origin and points SP1b to SP4b. In this case, an angle formed by a straight line passing through the point SP0a and parallel to the x-axis or the y-axis and a straight line passing through each of the points SP1a to SP4a and the point SP0a may be defined as an angle on the frame Fe used for calibration. . For example, in the first quadrant lower region shown in FIG. 11, an angle formed by a straight line passing through the point SP0a and parallel to the x axis and a straight line passing through the points SP0a and SP1a may be the angle θ1A.

(実施の形態2)
実施の形態1では、注視点位置の補正に必要な目印に対する補正用注視点が検出されなかった場合には、再度、補正用注視点の検出を行っていた。しかしながら、1歳半健診などでは、被験者が集中力の弱い乳幼児であり、補正用注視点を再度検出するために、何度も画面を注視させることが困難である。
(Embodiment 2)
In the first embodiment, when the correction gazing point for the mark necessary for correcting the gazing point position is not detected, the correction gazing point is detected again. However, in a one-and-a-half year medical checkup, the subject is an infant with weak concentration, and it is difficult to cause the screen to be watched many times in order to detect the correction gazing point again.

このため、本実施の形態では、補正用注視点を検出することができなかった場合には、目の特性等を利用して、検出できた補正用注視点データから、検出できなかった補正用注視点の位置を予測して、予測した補正用注視点の位置を注視点位置の補正に用いている。   For this reason, in this embodiment, when the correction gazing point cannot be detected, the correction characteristic that cannot be detected from the correction gazing point data that can be detected using the eye characteristics or the like is used. The position of the gazing point is predicted, and the predicted position of the gazing point for correction is used for correcting the position of the gazing point.

図23は、実施の形態2にかかる注視点検出装置を備える診断支援装置2300の各部の詳細な機能の一例を示すブロック図である。本実施の形態の診断支援装置2300は、図23に示すように、ステレオカメラ110と、赤外LED光源121,122と、スピーカ103と、駆動・IF部130と、制御部2340と、記憶部150と、第1表示部101と、第2表示部102とを主に備えている。ここで、ステレオカメラ110、赤外LED光源121,122と、スピーカ103、駆動・IF部130、記憶部150、第1表示部101、第2表示部102の機能および構成については実施の形態1と同様であるので説明を省略する。   FIG. 23 is a block diagram illustrating an example of detailed functions of each unit of the diagnosis support apparatus 2300 including the gazing point detection apparatus according to the second embodiment. As shown in FIG. 23, a diagnosis support apparatus 2300 according to the present embodiment includes a stereo camera 110, infrared LED light sources 121 and 122, a speaker 103, a drive / IF unit 130, a control unit 2340, and a storage unit. 150, a first display unit 101, and a second display unit 102 are mainly provided. Here, the functions and configurations of the stereo camera 110, the infrared LED light sources 121 and 122, the speaker 103, the drive / IF unit 130, the storage unit 150, the first display unit 101, and the second display unit 102 are described in the first embodiment. Since it is the same as that of FIG.

制御部2340は、実施の形態1と同様に、第1表示部101、第2表示部102および駆動・IF部130と接続している。また、制御部2340は、実施の形態1と同様に、第1表示部101および第2表示部102に表示すべき画像等を制御する。   The control unit 2340 is connected to the first display unit 101, the second display unit 102, and the drive / IF unit 130 as in the first embodiment. In addition, the control unit 2340 controls images to be displayed on the first display unit 101 and the second display unit 102 as in the first embodiment.

制御部2340は、図23に示すように、表示制御部141と、注視点検出部142と、注視点予測部2341と、領域分割部2343と、領域特定部144と、注視点補正部145と、評価部146とを主に備えている。ここで、表示制御部141、注視点検出部142、領域特定部144、注視点補正部145、評価部146の機能については実施の形態1と同様であるので説明を省略する。   As shown in FIG. 23, the control unit 2340 includes a display control unit 141, a gazing point detection unit 142, a gazing point prediction unit 2341, an area division unit 2343, an area specifying unit 144, and a gazing point correction unit 145. The evaluation unit 146 is mainly provided. Here, since the functions of the display control unit 141, the gazing point detection unit 142, the region specifying unit 144, the gazing point correction unit 145, and the evaluation unit 146 are the same as those in the first embodiment, the description thereof is omitted.

注視点予測部2341は、注視点検出部142によって、中心目印に対応した補正用注視点と、中心目印より外側の4点以上の目印のうち少なくとも1つの目印に対応した補正用注視点とが検出され、4点以上の目印のうち一部の目印に対応した補正用注視点が検出されなかった場合に、検出された補正用注視点の位置と被験者の目の特性とに基づいて、検出されなかった補正用注視点の位置を予測する。   The gaze point prediction unit 2341 uses the gaze point detection unit 142 to determine a correction gaze point corresponding to the center mark and a correction gaze point corresponding to at least one of the four or more marks outside the center mark. Detected based on the detected position of the correction gazing point and the characteristics of the subject's eye when no correction gazing point corresponding to some of the four or more points is detected. The position of the correction gazing point that was not performed is predicted.

ステレオカメラ110が第1表示部101の下に設置された本実施の形態の診断支援装置2300や、ステレオカメラ110が第1表示部101の上に設置されたような診断支援装置では、被験者を、被験者の角膜の下側か上側から撮影するので、注視点を検出する際に、上側の歪と下側の歪が異なり、測定の歪みも上下で異なるが、左右は対称となることが多い。このため、本実施の形態の注視点予測部2341は、注視点の位置補正のためのターゲットポイントの目印に対応する補正用注視点を検出することができなかった場合、この被験者の目の特性を利用して、検出できかった補正用注視点の位置を予測している。   In the diagnosis support apparatus 2300 of the present embodiment in which the stereo camera 110 is installed below the first display unit 101 or the diagnosis support apparatus in which the stereo camera 110 is installed on the first display unit 101, the subject is Since the subject's cornea is taken from below or above, the upper and lower distortions are different when detecting the gaze point, and the measurement distortions are also different vertically, but the left and right are often symmetrical. . For this reason, when the gaze point prediction unit 2341 according to the present embodiment cannot detect the gaze point for correction corresponding to the mark of the target point for correcting the position of the gaze point, the eye characteristics of the subject Is used to predict the position of the correction gazing point that could not be detected.

図24は、全ての目印に対応する補正用注視点が検出された場合における補正用注視点データSPm0〜SPm4の位置を示す図である。図24に示すように、補正用注視点SPm1〜SPm4は、中心目印SP0に対応する補正用注視点SPm0を通る垂線に対して左右対称となっている。補正用注視点SPm1〜SPm4は、補正用注視点SPm0を通る水平線に対して上下対称となっている。   FIG. 24 is a diagram illustrating the positions of the correction gazing point data SPm0 to SPm4 when the correction gazing point corresponding to all the marks is detected. As shown in FIG. 24, the correction gazing points SPm1 to SPm4 are symmetrical with respect to a perpendicular line passing through the correction gazing point SPm0 corresponding to the center mark SP0. The correction gazing points SPm1 to SPm4 are vertically symmetric with respect to a horizontal line passing through the correction gazing point SPm0.

一方、中心目印SP0については、最初に出現させることが多く、第1表示部101の中央位置ということもあって、被験者に見逃される場合は少なく、中心目印SP0に対応する補正用注視点SPm0の検出の失敗も非常に少ない。   On the other hand, the center mark SP0 often appears first, and is often the center position of the first display unit 101, so that it is rarely missed by the subject, and the correction gazing point SPm0 corresponding to the center mark SP0 is small. There are very few detection failures.

このため、本実施の形態の注視点予測部2341は、補正用注視点を検出することができなかった場合、検出された補正用注視点の位置と、中心目印SP0に対応した補正用注視点SPm0を通る垂線または水平線に対して線対称な位置を目の特性に基づく位置として求め、この位置を検出されなかった補正用注視点の位置として予測する。   For this reason, when the gaze point prediction unit 2341 according to the present embodiment cannot detect the gaze point for correction, the position of the gaze point for correction detected and the gaze point for correction corresponding to the center mark SP0. A position that is line-symmetric with respect to a perpendicular line or a horizontal line passing through SPm0 is obtained as a position based on eye characteristics, and this position is predicted as the position of a correction gazing point that has not been detected.

図23に戻り、領域分割部2343は、補正用に表示されたターゲットポイントの目印に対して検出された補正用注視点の位置、および注視点予測部2341によって予測された補正用注視点の位置それぞれに基づいて、第1表示部101の画面を複数の部分領域(第1部分領域)に分割する。   Returning to FIG. 23, the region dividing unit 2343 detects the position of the correction gazing point detected with respect to the target point mark displayed for correction, and the position of the correction gazing point predicted by the gazing point prediction unit 2341. Based on each, the screen of the first display unit 101 is divided into a plurality of partial areas (first partial areas).

以下、注視点予測部2341による補正用注視点の位置の予測の詳細について具体例をあげて説明する。以降、中心目印に対応する補正用注視点SPm0を通る水平線をX軸、補正用注視点SPm0を通る垂線をY軸とする。   Hereinafter, the details of the prediction of the position of the correction gazing point by the gazing point prediction unit 2341 will be described with a specific example. Hereinafter, the horizontal line passing through the correction gazing point SPm0 corresponding to the center mark is taken as the X axis, and the perpendicular line passing through the correction gazing point SPm0 is taken as the Y axis.

図25は、補正用注視点SPm1を検出できなかった場合の予測の例を示す図である。図25では、中心目印に対応する補正用注視点SPm0については、XY座標系の原点への変位は完了しているものとする。   FIG. 25 is a diagram illustrating an example of prediction when the correction gazing point SPm1 cannot be detected. In FIG. 25, it is assumed that the correction gazing point SPm0 corresponding to the center mark has been completely displaced to the origin of the XY coordinate system.

まず、注視点予測部2341は、Y軸に対する対称性を優先するため、Y座標値はそのままとする。そして、注視点予測部2341は、検出できた補正用注視点SPm2のデータから、補正用注視点SPm0を通るY軸に対して線対称となる位置にX座標値を定める。そして、注視点予測部2341は、当該位置のX,Y座標を、検出できなかった補正用注視点SPm1の位置として予測する。   First, the gaze point predicting unit 2341 prioritizes symmetry with respect to the Y axis, so the Y coordinate value is left as it is. The gaze point prediction unit 2341 then determines an X coordinate value at a position that is line-symmetric with respect to the Y axis passing through the correction gaze point SPm0 from the detected data of the correction gaze point SPm2. Then, the gaze point prediction unit 2341 predicts the X and Y coordinates of the position as the position of the correction gaze point SPm1 that could not be detected.

図26は、補正用注視点SPm4を検出できなかった場合の予測の例を示す図である。注視点予測部2341は、図25の例と同様に、検出できた補正用注視点SPm3のデータから、Y軸に対して線対称な位置を、検出できなかった補正用注視点SPm4の位置として予測する。   FIG. 26 is a diagram illustrating an example of prediction when the correction gazing point SPm4 cannot be detected. As in the example of FIG. 25, the gaze point predicting unit 2341 determines, as the position of the correction gazing point SPm4 that cannot be detected, from the data of the correction gazing point SPm3 that can be detected, the position that is line symmetric with respect to the Y axis. Predict.

図27は、補正用注視点SPm2、SPm4の2つを検出できなかった場合の予測の例を示す図である。この場合には、注視点予測部2341は、図25の例と同様に、検出できた補正用注視点SPm1のデータとY軸に対して線対称な位置を、補正用注視点SPm2の位置として予測し、検出できた補正用注視点SPm3のデータとY軸に対して線対称な位置を、検出できなかった補正用注視点SPm4の位置として予測する。   FIG. 27 is a diagram illustrating an example of prediction when two correction gazing points SPm2 and SPm4 cannot be detected. In this case, similarly to the example of FIG. 25, the gazing point prediction unit 2341 uses a position that is line-symmetric with respect to the detected data of the correction gazing point SPm1 and the Y axis as the position of the correction gazing point SPm2. A predicted and detected position of the correction gazing point SPm3 and a position symmetrical with respect to the Y axis are predicted as the position of the correction gazing point SPm4 that could not be detected.

図28に、補正用注視点SPm1、SPm2の2つを検出できなかった場合の予測の例を示す図である。この例では、左右対称を利用して得られるデータがないので、注視点予測部2341は、上下対称から補正用注視点SPm1,SPm2の位置を予測する。すなわち、注視点予測部2341は、検出できた補正用注視点SPm4のデータとX軸に対して線対称な位置を、検出できなかった補正用注視点SPm1の位置として予測し、検出できた補正用注視点SPm3のデータとX軸に対して線対称な位置を、検出できなかった補正用注視点SPm2の位置として予測する。   FIG. 28 is a diagram illustrating an example of prediction when two correction gazing points SPm1 and SPm2 cannot be detected. In this example, since there is no data obtained using left-right symmetry, the gaze point prediction unit 2341 predicts the positions of the correction gaze points SPm1 and SPm2 from the vertical symmetry. That is, the gazing point prediction unit 2341 predicts the detected data of the correction gazing point SPm4 and the position line-symmetric with respect to the X axis as the position of the correction gazing point SPm1 that could not be detected, and the detected correction. A position that is line-symmetric with respect to the data of the gazing point SPm3 and the X axis is predicted as the position of the correction gazing point SPm2 that could not be detected.

図29に、補正用注視点SPm1、SPm2、SPm3の3つを検出できなかった場合の予測の例を示す図である。注視点予測部2341は、まず、左右対称性を用い、検出できた補正用注視点SPm4のデータとY軸に対して線対称な位置を、検出できなかった補正用注視点SPm3の位置として予測する。これにより図28の例と同様の状態となる。このため、注視点予測部2341は、上下対称性を用い、検出できた補正用注視点SPm4のデータとX軸に対して線対称な位置を、検出できなかった補正用注視点SPm1の位置として予測し、先に予測した補正用注視点SPm3のデータとX軸に対して線対称な位置を、検出できなかった補正用注視点SPm2の位置として予測する。   FIG. 29 is a diagram illustrating an example of prediction when three correction gazing points SPm1, SPm2, and SPm3 cannot be detected. First, the gaze point prediction unit 2341 uses left-right symmetry to predict the position of the correction gazing point SPm3 that could not be detected from the data of the correction gazing point SPm4 that could be detected and the position that is line-symmetric with respect to the Y axis. To do. As a result, the same state as in the example of FIG. 28 is obtained. For this reason, the gaze point prediction unit 2341 uses vertical symmetry, and the position of the correction gazing point SPm1 that could not be detected is detected as the position of the correction gazing point SPm4 that is detected and the line symmetric with respect to the X axis. A position that is line-symmetric with respect to the X-axis and the data of the correction gazing point SPm3 predicted previously is predicted as the position of the correction gazing point SPm2 that could not be detected.

上記の各例において、注視点予測部2341は、補正用注視点の位置を予測したら、補正用注視点のデータを生成する。   In each of the above examples, the gazing point prediction unit 2341 generates correction gazing point data after predicting the position of the gazing point for correction.

このように、中心目印の補正用注視点SPm0とその他の1点の目印に対する補正用注視点の検出が完了していれば、おおよその注視点位置による補正を行うことができる。特に、発達障害の診断支援装置などでは、分析用の注視対象物は比較的大きいので、この補正でも大部分が問題なく測定が可能となる。   As described above, when the correction gazing point SPm0 for the center mark and the other one sight mark have been detected, the correction based on the approximate gazing point position can be performed. In particular, in a developmental disorder diagnosis support apparatus or the like, the target object for analysis is relatively large, so that even this correction can be measured with no problem.

次に、以上のように構成された本実施の形態における補正用注視点検出処理および補正用注視点予測処理について説明する。なお、本実施の形態の第1診断処理については図15を用いて説明した実施の形態1と同様である。図30は、実施の形態2の補正用注視点検出処理の詳細を示すフローチャートである。図30は、図15に示した第1診断処理におけるステップS102の補正用注視点検出処理として実行される。   Next, correction gaze point detection processing and correction gaze point prediction processing according to the present embodiment configured as described above will be described. The first diagnosis process of the present embodiment is the same as that of the first embodiment described with reference to FIG. FIG. 30 is a flowchart illustrating details of the correction gazing point detection processing according to the second embodiment. FIG. 30 is executed as the correction gazing point detection process in step S102 in the first diagnosis process shown in FIG.

補正用注視点検出処理においては、まず、注視点検出部142は、全ての作成フラグをクリアして0にする(ステップS3012)。ここで、作成フラグは、各目印に対して補正用注視点が検出され、あるいは予測されて、補正用注視点データが作成されたか否かを示すフラグであり、作成フラグが「0」のときには、まだ補正用注視点データが作成されておらず、作成フラグが「1」のときには、補正用注視点データが作成されていることを示す。   In the correction gazing point detection process, first, the gazing point detection unit 142 clears all the creation flags to 0 (step S3012). Here, the creation flag is a flag indicating whether or not the correction gazing point data has been detected and predicted for each mark and the correction gazing point data has been created. When the creation flag is “0”, When the correction gazing point data has not yet been created and the creation flag is “1”, it indicates that the correction gazing point data has been created.

作成フラグは各目印、すなわち、各補正用注視点SPm0〜SPm4のそれぞれに対応して存在する。言い換えれば、注視点検出部142は、補正用注視点SPm0〜SPm4を検出して、補正用注視点SPm0〜SPm4のデータを生成したら、生成した補正用注視点SPm0〜SPm4に対する作成フラグを「1」に設定する。注視点予測部2341は、補正用注視点SPm1〜SPm4の位置を予測して、補正用注視点SPm1〜SPm4のデータを生成したら、生成した補正用注視点SPm0〜SPm4に対する作成フラグを「1」に設定する。   The creation flag exists corresponding to each mark, that is, each of the correction gazing points SPm0 to SPm4. In other words, the gazing point detection unit 142 detects the correction gazing points SPm0 to SPm4 and generates data for the correction gazing points SPm0 to SPm4, and then sets the creation flag for the generated correction gazing points SPm0 to SPm4 to “1”. To "". When the gaze point prediction unit 2341 predicts the positions of the correction gazing points SPm1 to SPm4 and generates data of the correction gazing points SPm1 to SPm4, the creation flag for the generated correction gazing points SPm0 to SPm4 is set to “1”. Set to.

次に、表示制御部141は、ターゲットポイントを示す中心目印SP0を所定位置(原点位置)に表示する(ステップS110)。次に、注視点検出部142は、中心目印SP0に対して得られた補正用注視点の位置を検出する(ステップS111)。注視点検出部142は、所定数の補正用注視点を検出し、これらのデータ分布を計算する(ステップS112)。なお、データ分布の計算処理については実施の形態1と同様に行われる。   Next, the display control unit 141 displays the center mark SP0 indicating the target point at a predetermined position (origin position) (step S110). Next, the gazing point detection unit 142 detects the position of the correction gazing point obtained for the center mark SP0 (step S111). The gazing point detection unit 142 detects a predetermined number of correction gazing points and calculates the data distribution thereof (step S112). The data distribution calculation process is performed in the same manner as in the first embodiment.

ステップS112におけるデータ分布計算処理においては、注視点検出部142は、基準領域内に属する補正用注視点の数を計測する。そして、注視点検出部142は、基準領域内に属する補正用注視点の数が予め設定された閾値以上である場合に、検出された補正用注視点が適正であると判断し(ステップS3013,Yes)、検出された複数の補正用注視点のうち、基準領域に属さない補正用注視点を除いた基準領域内データ群を特定する(ステップS114)。   In the data distribution calculation process in step S112, the gazing point detection unit 142 measures the number of correction gazing points belonging to the reference area. The gazing point detection unit 142 determines that the detected gazing point for correction is appropriate when the number of gazing points for correction belonging to the reference area is equal to or greater than a preset threshold (step S3013). Yes), the reference area data group excluding the correction gazing point that does not belong to the reference area among the detected correction gazing points is specified (step S114).

なお、ステップS3013において、補正用注視点が適正でないと判断した場合には(ステップS3013,No)、ステップS3015に移行する。すなわち、補正用注視点が適正でない場合には、注視点検出部142による補正用注視点の再検出は行われない。   If it is determined in step S3013 that the correction gazing point is not appropriate (step S3013, No), the process proceeds to step S3015. That is, when the correction gazing point is not appropriate, the gazing point detection unit 142 does not re-detect the correction gazing point.

次に、注視点検出部142は、実施の形態1と同様に、基準領域内データ群の各補正用注視点の座標に基づいて、基準領域内データ群の代表値を算出する(ステップS115)。そして、注視点検出部142は、作成対象となった補正用注視点の作成フラグを「1」に設定する(ステップS3014)。   Next, as in the first embodiment, the gazing point detection unit 142 calculates the representative value of the reference area data group based on the coordinates of each correction gazing point in the reference area data group (step S115). . Then, the gazing point detection unit 142 sets the correction gazing point creation flag to be created to “1” (step S3014).

次に、次のターゲットポイントの目印が存在するか否かを判断し(ステップS3015)、次の目印が存在する場合には(ステップS3015,Yes)、表示制御部141は、次のターゲットポイントを示す目印を表示する(ステップS117)。そして、ステップS111に戻り、表示中の目印に対する代表値を算出する(ステップS111〜115)。   Next, it is determined whether or not the next target point mark exists (step S3015). If the next mark exists (step S3015, Yes), the display control unit 141 sets the next target point. The mark to show is displayed (step S117). Then, the process returns to step S111, and representative values for the displayed mark are calculated (steps S111 to S115).

ステップS3015において、次の目印がないと判断されると(ステップS3015,No)、注視点検出部142は、検出されなかった補正用注視点が存在するか否かを調べる(ステップS3016)。そして、検出されなかった補正用注視点が存在しない場合には(ステップS3016,No)、処理を終了する。   If it is determined in step S3015 that there is no next mark (step S3015, No), the gazing point detection unit 142 checks whether there is a correction gazing point that has not been detected (step S3016). If there is no correction gazing point that has not been detected (step S3016, No), the process ends.

一方、検出されなかった補正用注視点が存在する場合には(ステップS3016,Yes)、注視点予測部2341は、補正用注視点の予測処理を実行する(ステップS3017)。   On the other hand, when there is a correction gazing point that has not been detected (step S3016, Yes), the gazing point prediction unit 2341 executes a correction gazing point prediction process (step S3017).

図31は、実施の形態2の補正用注視点予測処理の手順を示すフローチャートである。まず、注視点予測部2341は、中心目印に対応する補正用注視点SPm0のデータと、その他1点の補正用注視点のデータが存在するか否かを判断する(ステップS3103)。ここで、これ以降、補正用注視点SPmXのデータのことを、単に、「SPmX補正用注視点データ」と呼ぶ。   FIG. 31 is a flowchart illustrating a procedure of correction gazing point prediction processing according to the second embodiment. First, the gaze point prediction unit 2341 determines whether there is data for the correction gaze point SPm0 corresponding to the center mark and data for one other correction gaze point (step S3103). Hereafter, the data of the correction gazing point SPmX is simply referred to as “SPmX correction gazing point data”.

そして、SPm0補正用注視点データとその他1点の補正用注視点のデータのいずれかが存在しない場合には(ステップS3103:No)、図30のステップS111へ戻り、補正用注視点の検出を再度行う。   If either the SPm0 correction gazing point data or one other correction gazing point data does not exist (step S3103: No), the process returns to step S111 in FIG. 30 to detect the correction gazing point. Try again.

一方、SPm0補正用注視点データとその他1点の補正用注視点のデータが存在する場合には(ステップS3103:Yes)、注視点予測部2341は、補正用注視点SPm1が検出されてSPm1補正用注視点データが存在するか(作成されているか)あるいはSPm1の作成フラグが1であるか否かを判断する(ステップS3104)。   On the other hand, if there is SPm0 correction gazing point data and one other correction gazing point data (step S3103: Yes), the gazing point prediction unit 2341 detects the correction gazing point SPm1 and corrects SPm1. It is determined whether the gazing point data is present (created) or whether the creation flag of SPm1 is 1 (step S3104).

そして、SPm1補正用注視点データが存在するかあるいはSPm1の作成フラグが1である場合には(ステップS3104:Yes)、このSPm1補正用注視点データを用いることとし、注視点予測部2341は、SPm1の作成フラグを1に設定する(ステップS3105)。   If SPm1 correction gazing point data exists or the SPm1 creation flag is 1 (Yes in step S3104), the SPm1 correction gazing point data is used, and the gazing point prediction unit 2341 The creation flag for SPm1 is set to 1 (step S3105).

一方、ステップS3104において、SPm1補正用注視点データが存在せず、かつSPm1の作成フラグが0である場合には(ステップS3104:No)、注視点予測部2341は、SPm1補正用注視点データに対する左右対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm1補正用注視点データに対して左右対称な補正用注視点SPm2が検出されてSPm2補正用注視点データが存在するか(作成されているか)あるいはSPm2の作成フラグが1であるか否かを判断する(ステップS3106)。   On the other hand, in step S3104, when there is no SPm1 correction gazing point data and the SPm1 creation flag is 0 (step S3104: No), the gazing point prediction unit 2341 applies to the SPm1 correction gazing point data. Judge whether there is left-right symmetry data. That is, the gazing point prediction unit 2341 detects whether or not the correction gazing point SPm2 that is symmetrical with respect to the SPm1 correction gazing point data is detected and the SPm2 correction gazing point data is present (created), or SPm2 generation It is determined whether or not the flag is 1 (step S3106).

そして、SPm2補正用注視点データが存在するかあるいはSPm2の作成フラグが1である場合には(ステップS3106:Yes)、注視点予測部2341は、このSPm2補正用注視点データを用い、SPm2補正用注視点データとY軸に対して線対称な位置を、SPm1補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、Y座標はSPm2補正用注視点データと同じで、X座標をSPm2補正用注視点データのX座標とY軸に対して線対称な座標として、SPm1補正用注視点データを生成する(ステップS3107)。そして、注視点予測部2341は、SPm1の作成フラグを1に設定する(ステップS3108)。   When the SPm2 correction gazing point data exists or the SPm2 creation flag is 1 (step S3106: Yes), the gazing point prediction unit 2341 uses the SPm2 correction gazing point data to perform SPm2 correction. A position that is line-symmetric with respect to the gazing point data for Y-axis is predicted as the position of the gazing point data for SPm1 correction. That is, the gaze point prediction unit 2341 uses the same Y coordinate as the SPm2 correction gaze point data, and uses the X coordinate as a coordinate line symmetrical with respect to the X coordinate and the Y axis of the SPm2 correction gaze point data. Viewpoint data is generated (step S3107). Then, the gaze point prediction unit 2341 sets the SPm1 creation flag to 1 (step S3108).

一方、ステップS3106において、SPm2補正用注視点データが存在せず、かつSPm2の作成フラグが0である場合には(ステップS3106:No)、注視点予測部2341は、SPm1補正用注視点データに対する上下対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm1補正用注視点データに対して上下対称な補正用注視点SPm4が検出されてSPm4補正用注視点データが存在するか(作成されているか)あるいはSPm4の作成フラグが1であるか否かを判断する(ステップS3109)。   On the other hand, in step S3106, when there is no SPm2 correction gazing point data and the SPm2 creation flag is 0 (step S3106: No), the gazing point prediction unit 2341 applies to the SPm1 correction gazing point data. Determine whether there is vertical symmetry data. That is, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm4 that is vertically symmetrical with respect to the SPm1 correction gazing point data is detected and the SPm4 correction gazing point data exists (created), or the creation of SPm4 It is determined whether or not the flag is 1 (step S3109).

そして、SPm4補正用注視点データが存在するかあるいはSPm4の作成フラグが1である場合には(ステップS3109:Yes)、注視点予測部2341は、このSPm4補正用注視点データを用い、SPm4補正用注視点データとX軸に対して線対称な位置を、SPm1補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、X座標はSPm4補正用注視点データと同じで、Y座標をSPm4補正用注視点データのY座標とX軸に対して線対称な座標として、SPm1補正用注視点データを生成する(ステップS3110)。そして、注視点予測部2341は、SPm1の作成フラグを1に設定する(ステップS3111)。そして、次のステップS3112へ移行する。   If SPm4 correction gazing point data exists or the SPm4 creation flag is 1 (step S3109: Yes), the gazing point prediction unit 2341 uses this SPm4 correction gazing point data to perform SPm4 correction. A position that is line-symmetric with respect to the gazing point data for use and the X axis is predicted as the position of the gazing point data for SPm1 correction. That is, the gazing point prediction unit 2341 uses the same X coordinate as the SPm4 correction gazing point data and uses the Y coordinate as a coordinate line symmetrical to the Y coordinate of the SPm4 correction gazing point data and the X axis. Viewpoint data is generated (step S3110). Then, the gaze point prediction unit 2341 sets the creation flag of SPm1 to 1 (step S3111). Then, the process proceeds to next step S3112.

また、ステップS3109において、SPm4補正用注視点データが存在せず、かつSPm4の作成フラグが0である場合にも(ステップS3109:No)、ステップS3112へ移行する。   Also, in step S3109, when there is no SPm4 correction gazing point data and the SPm4 creation flag is 0 (step S3109: No), the process proceeds to step S3112.

ステップS3112以降の処理では、上記と同様に、SPm2補正用注視点データ、SPm3補正用注視点データ、SPm4補正用注視点データについても、処理を行っていく。   In the processing after step S3112, the SPm2 correction gazing point data, the SPm3 correction gazing point data, and the SPm4 correction gazing point data are also processed in the same manner as described above.

すなわち、注視点予測部2341は、補正用注視点SPm2が検出されてSPm2補正用注視点データが存在するか(作成されているか)あるいはSPm2の作成フラグが1であるか否かを判断する(ステップS3112)。   That is, the gazing point prediction unit 2341 determines whether the correction gazing point SPm2 is detected and SPm2 correction gazing point data is present (created) or whether the SPm2 generation flag is 1 ( Step S3112).

そして、SPm2補正用注視点データが存在するかあるいはSPm2の作成フラグが1である場合には(ステップS3112:Yes)、このSPm2補正用注視点データを用いることとし、注視点予測部2341は、SPm2の作成フラグを1に設定する(ステップS3113)。   If SPm2 correction gazing point data exists or the SPm2 generation flag is 1 (step S3112: Yes), the SPm2 correction gazing point data is used, and the gazing point prediction unit 2341 The creation flag for SPm2 is set to 1 (step S3113).

一方、ステップS3112において、SPm2補正用注視点データが存在せず、かつSPm2の作成フラグが0である場合には(ステップS3112:No)、注視点予測部2341は、SPm2補正用注視点データに対する左右対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm2補正用注視点データに対して左右対称な補正用注視点SPm1が検出されてSPm1補正用注視点データが存在するか(作成されているか)あるいはSPm1の作成フラグが1であるか否かを判断する(ステップS3114)。   On the other hand, in step S3112, when there is no SPm2 correction gazing point data and the SPm2 creation flag is 0 (step S3112: No), the gazing point prediction unit 2341 applies to the SPm2 correction gazing point data. Judge whether there is left-right symmetry data. In other words, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm1 symmetrical to the SPm2 correction gazing point data is detected and the SPm1 correction gazing point data exists (is created) or the SPm1 is generated. It is determined whether or not the flag is 1 (step S3114).

そして、SPm1補正用注視点データが存在するかあるいはSPm1の作成フラグが1である場合には(ステップS3114:Yes)、注視点予測部2341は、このSPm1補正用注視点データを用い、SPm1補正用注視点データとY軸に対して線対称な位置を、SPm2補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、Y座標はSPm1補正用注視点データと同じで、X座標をSPm1補正用注視点データのX座標とY軸に対して線対称な座標として、SPm2補正用注視点データを生成する(ステップS3115)。そして、注視点予測部2341は、SPm2の作成フラグを1に設定する(ステップS3116)。   If the SPm1 correction gazing point data exists or the SPm1 creation flag is 1 (step S3114: Yes), the gazing point prediction unit 2341 uses the SPm1 correction gazing point data to perform SPm1 correction. A position that is line-symmetric with respect to the gazing point data for Y and the Y axis is predicted as the position of the gazing point data for SPm2 correction. That is, the gaze point prediction unit 2341 uses the same Y coordinate as the SPm1 correction gaze point data, and uses the X coordinate as a coordinate line symmetrical with respect to the X coordinate and the Y axis of the SPm1 correction gaze point data. Viewpoint data is generated (step S3115). Then, the gaze point prediction unit 2341 sets the SPm2 creation flag to 1 (step S3116).

一方、ステップS3114において、SPm1補正用注視点データが存在せず、かつSPm1の作成フラグが0である場合には(ステップS3114:No)、注視点予測部2341は、SPm2補正用注視点データに対する上下対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm2補正用注視点データに対して上下対称な補正用注視点SPm3が検出されてSPm3補正用注視点データが存在するか(作成されているか)あるいはSPm3の作成フラグが1であるか否かを判断する(ステップS3117)。   On the other hand, in step S3114, when there is no SPm1 correction gazing point data and the SPm1 creation flag is 0 (step S3114: No), the gazing point prediction unit 2341 applies to the SPm2 correction gazing point data. Determine whether there is vertical symmetry data. That is, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm3 that is vertically symmetrical with respect to the SPm2 correction gazing point data is detected and the SPm3 correction gazing point data is present (created) or the creation of SPm3 It is determined whether or not the flag is 1 (step S3117).

そして、SPm3補正用注視点データが存在するかあるいはSPm3の作成フラグが1である場合には(ステップS3117:Yes)、注視点予測部2341は、このSPm3補正用注視点データを用い、SPm3補正用注視点データとX軸に対して線対称な位置を、SPm2補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、X座標はSPm3補正用注視点データと同じで、Y座標をSPm3補正用注視点データのY座標とX軸に対して線対称な座標として、SPm2補正用注視点データを生成する(ステップS3118)。そして、注視点予測部2341は、SPm2の作成フラグを1に設定する(ステップS3119)。そして、次のステップS3120へ移行する。   When the SPm3 correction gazing point data exists or the SPm3 creation flag is 1 (Yes in step S3117), the gazing point prediction unit 2341 uses the SPm3 correction gazing point data to perform SPm3 correction. A position that is line-symmetric with respect to the gazing point data for use and the X axis is predicted as the position of the gazing point data for SPm2 correction. That is, the gazing point prediction unit 2341 uses the same X coordinate as the SPm3 correction gazing point data, and uses the Y coordinate as a coordinate line symmetrical to the Y coordinate of the SPm3 correction gazing point data and the X axis. Viewpoint data is generated (step S3118). Then, the gaze point prediction unit 2341 sets the SPm2 creation flag to 1 (step S3119). Then, the process proceeds to next step S3120.

また、ステップS3117において、SPm3補正用注視点データが存在せず、かつSPm3の作成フラグが0である場合にも(ステップS3117:No)、ステップS3120へ移行する。   Also, in step S3117, when there is no SPm3 correction gazing point data and the SPm3 creation flag is 0 (step S3117: No), the process proceeds to step S3120.

次に、ステップS3120では、注視点予測部2341は、補正用注視点SPm3が検出されてSPm3補正用注視点データが存在するか(作成されているか)あるいはSPm3の作成フラグが1であるか否かを判断する(ステップS3120)。   Next, in step S3120, the gazing point prediction unit 2341 detects whether the correction gazing point SPm3 is detected and whether SPm3 correction gazing point data is present (created) or whether the SPm3 generation flag is “1”. Is determined (step S3120).

そして、SPm3補正用注視点データが存在するかあるいはSPm3の作成フラグが1である場合には(ステップS3120:Yes)、このSPm3補正用注視点データを用いることとし、注視点予測部2341は、SPm3の作成フラグを1に設定する(ステップS3121)。   If SPm3 correction gazing point data exists or the SPm3 creation flag is 1 (step S3120: Yes), the SPm3 correction gazing point data is used, and the gazing point prediction unit 2341 The creation flag for SPm3 is set to 1 (step S3121).

一方、ステップS3120において、SPm3補正用注視点データが存在せず、かつSPm3の作成フラグが0である場合には(ステップS3120:No)、注視点予測部2341は、SPm3補正用注視点データに対する左右対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm3補正用注視点データに対して左右対称な補正用注視点SPm4が検出されてSPm4補正用注視点データが存在するか(作成されているか)あるいはSPm4の作成フラグが1であるか否かを判断する(ステップS3122)。   On the other hand, in step S3120, when there is no SPm3 correction gazing point data and the SPm3 creation flag is 0 (step S3120: No), the gazing point prediction unit 2341 applies to the SPm3 correction gazing point data. Judge whether there is left-right symmetry data. That is, the gazing point prediction unit 2341 detects whether or not the correction gazing point SPm4 that is symmetrical with respect to the SPm3 correction gazing point data is detected and the SPm4 correction gazing point data is present (created) or the SPm4 is generated. It is determined whether or not the flag is 1 (step S3122).

そして、SPm4補正用注視点データが存在するかあるいはSPm4の作成フラグが1である場合には(ステップS3122:Yes)、注視点予測部2341は、このSPm4補正用注視点データを用い、SPm4補正用注視点データとY軸に対して線対称な位置を、SPm3補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、Y座標はSPm4補正用注視点データと同じで、X座標をSPm4補正用注視点データのX座標とY軸に対して線対称な座標として、SPm3補正用注視点データを生成する(ステップS3123)。そして、注視点予測部2341は、SPm3の作成フラグを1に設定する(ステップS3124)。   When the SPm4 correction gazing point data exists or the SPm4 creation flag is 1 (step S3122: Yes), the gazing point prediction unit 2341 uses the SPm4 correction gazing point data to perform SPm4 correction. A position that is line-symmetric with respect to the gazing point data for Y-axis is predicted as the position of the gazing point data for SPm3 correction. That is, the gazing point prediction unit 2341 uses the same Y coordinate as the SPm4 correction gazing point data, and uses the X coordinate as a coordinate line symmetrical with respect to the X coordinate and the Y axis of the SPm4 correction gazing point data. Viewpoint data is generated (step S3123). Then, the gaze point prediction unit 2341 sets the SPm3 creation flag to 1 (step S3124).

一方、ステップS3122において、SPm4補正用注視点データが存在せず、かつSPm4の作成フラグが0である場合には(ステップS3122:No)、注視点予測部2341は、SPm3補正用注視点データに対する上下対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm3補正用注視点データに対して上下対称な補正用注視点SPm2が検出されてSPm2補正用注視点データが存在するか(作成されているか)あるいはSPm2の作成フラグが1であるか否かを判断する(ステップS3125)。   On the other hand, if there is no SPm4 correction gazing point data in step S3122 and the SPm4 creation flag is 0 (step S3122: No), the gazing point prediction unit 2341 applies to the SPm3 correction gazing point data. Determine whether there is vertical symmetry data. In other words, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm2 that is vertically symmetrical with respect to the SPm3 correction gazing point data is detected and the SPm2 correction gazing point data exists (created) or the creation of SPm2 It is determined whether or not the flag is 1 (step S3125).

そして、SPm2補正用注視点データが存在するかあるいはSPm2の作成フラグが1である場合には(ステップS3125:Yes)、注視点予測部2341は、このSPm2補正用注視点データを用い、SPm2補正用注視点データとX軸に対して線対称な位置を、SPm3補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、X座標はSPm2補正用注視点データと同じで、Y座標をSPm2補正用注視点データのY座標とX軸に対して線対称な座標として、SPm3補正用注視点データを生成する(ステップS3126)。そして、注視点予測部2341は、SPm3の作成フラグを1に設定する(ステップS3127)。そして、次のステップS3128へ移行する。   When the SPm2 correction gazing point data exists or the SPm2 creation flag is 1 (step S3125: Yes), the gazing point prediction unit 2341 uses the SPm2 correction gazing point data to perform SPm2 correction. A position that is line-symmetric with respect to the gazing point data for X and the X axis is predicted as the position of the gazing point data for SPm3 correction. That is, the gazing point prediction unit 2341 uses the same X coordinate as the SPm2 correction gazing point data, and uses the Y coordinate as a coordinate line symmetric with respect to the Y coordinate of the SPm2 correction gazing point data and the X axis. Viewpoint data is generated (step S3126). Then, the gaze point prediction unit 2341 sets the SPm3 creation flag to 1 (step S3127). Then, the process proceeds to next step S3128.

また、ステップS3125において、SPm2補正用注視点データが存在せず、かつSPm2の作成フラグが0である場合にも(ステップS3125:No)、ステップS3128へ移行する。   Also, in step S3125, when there is no SPm2 correction gazing point data and the SPm2 creation flag is 0 (step S3125: No), the process proceeds to step S3128.

次に、ステップS3128では、注視点予測部2341は、補正用注視点SPm4が検出されてSPm4補正用注視点データが存在するか(作成されているか)あるいはSPm4の作成フラグが1であるか否かを判断する(ステップS3128)。   Next, in step S3128, the gazing point prediction unit 2341 detects whether or not the correction gazing point SPm4 is detected and SPm4 correction gazing point data is present (created) or whether the SPm4 generation flag is “1”. Is determined (step S3128).

そして、SPm4補正用注視点データが存在するかあるいはSPm4の作成フラグが1である場合には(ステップS3128:Yes)、このSPm4補正用注視点データを用いることとし、注視点予測部2341は、SPm4の作成フラグを1に設定する(ステップS3129)。   If SPm4 correction gazing point data exists or the SPm4 creation flag is 1 (step S3128: Yes), the SPm4 correction gazing point data is used, and the gazing point prediction unit 2341 The creation flag for SPm4 is set to 1 (step S3129).

一方、ステップS3128において、SPm4補正用注視点データが存在せず、かつSPm4の作成フラグが0である場合には(ステップS3128:No)、注視点予測部2341は、SPm4補正用注視点データに対する左右対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm4補正用注視点データに対して左右対称な補正用注視点SPm3が検出されてSPm3補正用注視点データが存在するか(作成されているか)あるいはSPm3の作成フラグが1であるか否かを判断する(ステップS3130)。   On the other hand, in step S3128, when there is no SPm4 correction gazing point data and the SPm4 creation flag is 0 (step S3128: No), the gazing point prediction unit 2341 applies to the SPm4 correction gazing point data. Judge whether there is left-right symmetry data. That is, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm3 that is symmetrical with respect to the SPm4 correction gazing point data is detected and the SPm3 correction gazing point data exists (is created), or the SPm3 is generated. It is determined whether or not the flag is 1 (step S3130).

そして、SPm3補正用注視点データが存在するかあるいはSPm3の作成フラグが1である場合には(ステップS3130:Yes)、注視点予測部2341は、このSPm3補正用注視点データを用い、SPm3補正用注視点データとY軸に対して線対称な位置を、SPm4補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、Y座標はSPm3補正用注視点データと同じで、X座標をSPm3補正用注視点データのX座標とY軸に対して線対称な座標として、SPm4補正用注視点データを生成する(ステップS3131)。そして、注視点予測部2341は、SPm4の作成フラグを1に設定する(ステップS3132)。   If SPm3 correction gazing point data is present or the SPm3 creation flag is 1 (step S3130: Yes), the gazing point prediction unit 2341 uses this SPm3 correction gazing point data to perform SPm3 correction. A position that is line-symmetric with respect to the gazing point data for use and the Y axis is predicted as the position of the gazing point data for SPm4 correction. That is, the gaze point prediction unit 2341 uses the same Y coordinate as the SPm3 correction gaze point data, and uses the X coordinate as a coordinate line symmetrical with respect to the X coordinate and the Y axis of the SPm3 correction gaze point data. Viewpoint data is generated (step S3131). Then, the gaze point prediction unit 2341 sets the creation flag of SPm4 to 1 (step S3132).

一方、ステップS3130において、SPm3補正用注視点データが存在せず、かつSPm3の作成フラグが0である場合には(ステップS3130:No)、注視点予測部2341は、SPm4補正用注視点データに対する上下対称性のデータの有無を判断する。すなわち、注視点予測部2341は、SPm4補正用注視点データに対して上下対称な補正用注視点SPm1が検出されてSPm1補正用注視点データが存在するか(作成されているか)あるいはSPm1の作成フラグが1であるか否かを判断する(ステップS3133)。   On the other hand, in step S3130, when there is no SPm3 correction gazing point data and the SPm3 creation flag is 0 (step S3130: No), the gazing point prediction unit 2341 applies to the SPm4 correction gazing point data. Determine whether there is vertical symmetry data. In other words, the gaze point prediction unit 2341 detects whether or not the correction gazing point SPm1 that is vertically symmetrical with respect to the SPm4 correction gazing point data is detected and the SPm1 correction gazing point data is present (created), or the SPm1 is generated. It is determined whether or not the flag is 1 (step S3133).

そして、SPm1補正用注視点データが存在するかあるいはSPm1の作成フラグが1である場合には(ステップS3133:Yes)、注視点予測部2341は、このSPm1補正用注視点データを用い、SPm1補正用注視点データとX軸に対して線対称な位置を、SPm4補正用注視点データの位置として予測する。すなわち、注視点予測部2341は、X座標はSPm1補正用注視点データと同じで、Y座標をSPm1補正用注視点データのY座標とX軸に対して線対称な座標として、SPm4補正用注視点データを生成する(ステップS3134)。そして、注視点予測部2341は、SPm4の作成フラグを1に設定する(ステップS3135)。そして、次のステップS3136へ移行する。   When the SPm1 correction gazing point data exists or the SPm1 creation flag is 1 (step S3133: Yes), the gazing point prediction unit 2341 uses the SPm1 correction gazing point data to perform SPm1 correction. A position that is line-symmetric with respect to the gazing point data for use and the X axis is predicted as the position of the gazing point data for SPm4 correction. That is, the gaze point prediction unit 2341 uses the same X coordinate as the SPm1 correction gaze point data, and uses the Y coordinate as a coordinate line symmetrical to the Y axis of the SPm1 correction gaze point data and the X axis. Viewpoint data is generated (step S3134). Then, the gaze point prediction unit 2341 sets the SPm4 creation flag to 1 (step S3135). Then, the process proceeds to next Step S3136.

また、ステップS3133において、SPm1補正用注視点データが存在せず、かつSPm1の作成フラグが0である場合にも(ステップS3133:No)、ステップS3136へ移行する。   Also, in step S3133, when there is no SPm1 correction gazing point data and the SPm1 creation flag is 0 (step S3133: No), the process proceeds to step S3136.

ステップS3136では、注視点予測部2341は、全ての補正用注視点の作成フラグが1であるか否か、すなわち、すべての目印に対する補正用注視点データが得られたか否かを判断する(ステップS3136)。そして、すべての目印に対する補正用注視点データが得られていない場合には(ステップS3136:No)、ステップS3104からS3135までの処理を繰り返し実行する。図29のような生成された補正用注視点データから新たに生成する場合も、上記処理により順次作成され、全ての補正用注視点データが得られたら(ステップS3136:Yes)、処理を終了する。   In step S3136, the gaze point predicting unit 2341 determines whether or not all correction gaze point creation flags are 1, that is, whether or not correction gaze point data for all landmarks has been obtained (step S3136). S3136). If correction gazing point data for all the marks has not been obtained (step S3136: No), the processing from step S3104 to S3135 is repeatedly executed. Also in the case of newly generating from the generated correction gazing point data as shown in FIG. 29, when all the correction gazing point data are obtained sequentially by the above process (step S3136: Yes), the process ends. .

このように本実施の形態では、補正用注視点を検出することができなかった場合には、目の特性等を利用して、検出できた補正用注視点データから、検出できなかった補正用注視点の位置を予測して、予測した補正用注視点の位置を注視点位置の補正に用いているので、全ての目印に対応する補正用注視点を検出することができない場合でも、再度の検出を行わずに、良好な注視点位置補正を実現することができる。   As described above, in the present embodiment, when the correction gazing point cannot be detected, the correction characteristic that cannot be detected from the correction gazing point data that is detected using the eye characteristics or the like is used. Since the position of the gazing point is predicted and the predicted position of the correction gazing point is used for correcting the gazing point position, the correction gazing point corresponding to all the landmarks cannot be detected again. A good gazing point position correction can be realized without performing detection.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

100,2300 診断支援装置
101 第1表示部
102 第2表示部
103 スピーカ
110 ステレオカメラ
121,122 赤外LED光源
130 駆動・IF部
140 制御部
141 表示制御部
142 注視点検出部
143,2343 領域分割部
144 領域特定部
145 注視点補正部
146 評価部
150 記憶部
2341 注視点予測部
100, 2300 Diagnosis support device 101 First display unit 102 Second display unit 103 Speaker 110 Stereo camera 121, 122 Infrared LED light source 130 Drive / IF unit 140 Control unit 141 Display control unit 142 Gaze point detection unit 143, 2343 Area division Unit 144 region specifying unit 145 gazing point correction unit 146 evaluation unit 150 storage unit 2341 gazing point prediction unit

Claims (11)

被検出者の注視点位置を検出する注視点検出装置であって、
表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御部と、
前記対象領域内の被検出者の注視点を検出する注視点検出部と、
前記注視点検出部により検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割部と、
前記注視点検出部により検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定部と、
特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定部と、
前記第1部分領域特定部により特定された前記第1部分領域の位置と、前記第2部分領域特定部により特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正部と
を備えることを特徴とする注視点検出装置。
A gaze point detection device for detecting a position of a gaze point of a detected person,
A display control unit that displays a plurality of landmark correction points at different positions in the target area on the display screen;
A gaze point detection unit for detecting a gaze point of the detected person in the target area;
Based on each position of the correction gazing point that is the gazing point detected corresponding to each mark among the gazing points detected by the gazing point detection unit, the target area is defined as a plurality of first partial areas. An area dividing unit to be divided into
Based on the position of the target gazing point that is the gazing point that is the detection target of the gazing point detection device among the gazing points detected by the gazing point detection unit, the first partial region to which the target gazing point belongs is determined. A first partial region specifying part to be specified;
A second partial region specifying unit that specifies a second partial region that is a region within the target region determined based on the position of the mark corresponding to the correction gazing point that defines the specified first partial region;
Based on the correlation between the position of the first partial region specified by the first partial region specifying unit and the position of the second partial region specified by the second partial region specifying unit, the target gaze point A gazing point detection apparatus comprising a gazing point correction unit that corrects a position.
前記表示制御部は、4点以上の前記目印を表示することを特徴とする請求項1に記載の注視点検出装置。   The gazing point detection apparatus according to claim 1, wherein the display control unit displays four or more marks. 前記表示制御部は、前記4点以上の前記目印に加え、前記4点以上の目印に比べて前記対象領域の内側の所定の位置にさらに中心目印を表示し、
前記注視点検出部は、前記中心目印に対応する前記補正用注視点をさらに検出し、
前記領域分割部は、前記中心目印と前記中心目印に対応する前記補正用注視点の位置とに基づいて、前記第1部分領域の境界位置を決定することを特徴とする請求項2に記載の注視点検出装置。
In addition to the four or more points, the display control unit further displays a center mark at a predetermined position inside the target region as compared to the four or more points.
The gazing point detection unit further detects the correction gazing point corresponding to the center mark,
The area dividing unit determines a boundary position of the first partial area based on the center mark and the position of the correction gazing point corresponding to the center mark. Gaze point detection device.
前記第1部分領域は、前記中心目印に対応する補正用注視点に基づいて定まる第1点と前記4点のうち1つの目印に対応する補正用注視点に基づいて定まる第2点とを通る第1直線と前記第1点を通る第2直線とを境界とする領域であって、
前記第2部分領域は、前記中心目印の位置と、前記4点のうち1つの目印の位置とを通る第3直線と、前記第2直線に対応する第4直線であって、前記中心目印の位置を通る前記第4直線とを境界とする領域であって、
前記注視点補正部は、前記第1直線と前記第2直線のなす第1角と、前記第3直線と前記第4直線のなす第2角に基づいて、三角関数を用いて、前記対象注視点の位置を補正することを特徴とする請求項3に記載の注視点検出装置。
The first partial region passes through a first point determined based on a correction gazing point corresponding to the center mark and a second point determined based on a correction gazing point corresponding to one of the four points. A region having a first line and a second line passing through the first point as a boundary,
The second partial region is a third straight line passing through the position of the central mark, the position of one of the four points, and a fourth straight line corresponding to the second straight line. A region bounded by the fourth straight line passing through the position,
The gazing point correction unit uses a trigonometric function based on a first angle formed by the first straight line and the second straight line, and a second angle formed by the third straight line and the fourth straight line. The gazing point detection apparatus according to claim 3, wherein the position of the viewpoint is corrected.
前記注視点検出部は、前記目印に対応した前記補正用注視点が検出されなかった場合、前記補正用注視点の検出を繰り返すこと、
を特徴とする請求項1〜4のいずれか一つに記載の注視点検出装置。
The gazing point detection unit repeats detection of the gazing point for correction when the gazing point for correction corresponding to the mark is not detected;
The gazing point detection device according to any one of claims 1 to 4.
前記中心目印に対応した前記補正用注視点と、前記4点以上の目印のうち少なくとも1つの目印に対応した前記補正用注視点とが検出され、前記4点以上の目印のうち一部の目印に対応した前記補正用注視点が検出されなかった場合、検出された前記補正用注視点の位置と目の特性とに基づいて、検出されなかった前記補正用注視点の位置を予測する注視点予測部、をさらに備え、
前記領域分割部は、前記補正用注視点の位置および予測された前記補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割すること、
を特徴とする請求項1〜4のいずれか一つに記載の注視点検出装置。
The correction gazing point corresponding to the center mark and the correction gazing point corresponding to at least one of the four or more marks are detected, and a part of the four or more marks is detected. When the correction gazing point corresponding to is not detected, the gazing point that predicts the position of the correction gazing point that has not been detected based on the detected position of the correction gazing point and eye characteristics A prediction unit,
The region dividing unit divides the target region into a plurality of first partial regions based on the position of the correction gazing point and the predicted position of the correction gazing point,
The gazing point detection device according to any one of claims 1 to 4.
前記注視点予測部は、検出された前記補正用注視点の位置と、前記中心目印前記補正用注視点の位置を通る垂線に対して線対称な位置を、検出されなかった前記補正用注視点の位置として予測すること、
を特徴とする請求項6に記載の注視点検出装置。
The gazing point prediction unit has not detected a position that is line-symmetric with respect to a perpendicular line that passes through the position of the detected gazing point for correction and the position of the central gazing point for correction. Predicting the position of
The gazing point detection device according to claim 6.
前記注視点予測部は、検出された前記補正用注視点の位置と、前記中心目印に対応する前記補正用注視点の位置を通る水平線に対して線対称な位置を、検出されなかった前記補正用注視点の位置として予測すること、
を特徴とする請求項6または7に記載の注視点検出装置。
The gazing point prediction unit has not detected a position that is axisymmetric with respect to a horizontal line that passes through the position of the correction gazing point detected and the position of the correction gazing point corresponding to the center mark. Predicting the position of the gazing point,
The gaze point detection apparatus according to claim 6 or 7,
被検出者の注視点位置を検出する注視点検出方法であって、
表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御ステップと、
前記対象領域内の被検出者の注視点を検出する注視点検出ステップと、
前記注視点検出ステップにおいて検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割ステップと、
前記注視点検出ステップにおいて検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定ステップと、
特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定ステップと、
前記第1部分領域特定ステップにおいて特定された前記第1部分領域の位置と、前記第2部分領域特定ステップにおいて特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する位置補正ステップと
を含むことを特徴とする注視点検出方法。
A gaze point detection method for detecting a gaze point position of a detected person,
A display control step for displaying a plurality of markers for correcting the gazing point at different positions in the target area on the display screen;
A gazing point detection step of detecting a gazing point of the detected person in the target area;
The target area is defined as a plurality of first partial areas based on the position of the correction gazing point, which is the gazing point detected corresponding to each mark among the gazing points detected in the gazing point detection step. An area dividing step to divide into
Based on the position of the target gazing point that is the gazing point of the detection target of the gazing point detection device among the gazing points detected in the gazing point detection step, the first partial region to which the target gazing point belongs is determined. A first partial region identification step to identify;
A second partial region specifying step of specifying a second partial region that is a region within the target region determined based on the position of the mark corresponding to the correction gazing point that defines the specified first partial region;
Based on the correlation between the position of the first partial area specified in the first partial area specifying step and the position of the second partial area specified in the second partial area specifying step, the target gaze point And a position correction step for correcting the position.
被検出者の注視点位置に基づいて、発達障害の診断を支援する診断支援装置であって、
表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御部と、
前記対象領域内の被検出者の注視点を検出する注視点検出部と、
前記注視点検出部により検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割部と、
前記注視点検出部により検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定部と、
特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定部と、
前記第1部分領域特定部により特定された前記第1部分領域の位置と、前記第2部分領域特定部により特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する注視点補正部と、
補正後の前記対象注視点の位置に基づいて、発達障害の程度を示す評価値を算出する評価部と
を備えることを特徴とする診断支援装置。
A diagnosis support device that supports the diagnosis of developmental disability based on the position of the gaze point of the detected person,
A display control unit that displays a plurality of landmark correction points at different positions in the target area on the display screen;
A gaze point detection unit for detecting a gaze point of the detected person in the target area;
Based on each position of the correction gazing point that is the gazing point detected corresponding to each mark among the gazing points detected by the gazing point detection unit, the target area is defined as a plurality of first partial areas. An area dividing unit to be divided into
Based on the position of the target gazing point that is the gazing point that is the detection target of the gazing point detection device among the gazing points detected by the gazing point detection unit, the first partial region to which the target gazing point belongs is determined. A first partial region specifying part to be specified;
A second partial region specifying unit that specifies a second partial region that is a region within the target region determined based on the position of the mark corresponding to the correction gazing point that defines the specified first partial region;
Based on the correlation between the position of the first partial region specified by the first partial region specifying unit and the position of the second partial region specified by the second partial region specifying unit, the target gaze point A gaze correction unit that corrects the position;
A diagnostic support apparatus comprising: an evaluation unit that calculates an evaluation value indicating a degree of developmental disability based on the corrected position of the target gazing point.
被検出者の注視点位置に基づいて、発達障害の診断を支援する診断支援方法であって、
表示画面における対象領域内の互いに異なる位置に、複数の注視点補正用の目印を表示する表示制御ステップと、
前記対象領域内の被検出者の注視点を検出する注視点検出ステップと、
前記注視点検出ステップにおいて検出された前記注視点のうち、各目印に対応して検出された前記注視点である補正用注視点の位置それぞれに基づいて、前記対象領域を複数の第1部分領域に分割する領域分割ステップと、
前記注視点検出ステップにおいて検出された前記注視点のうち、当該注視点検出装置の検出対象の前記注視点である対象注視点の位置に基づいて、当該対象注視点が属する前記第1部分領域を特定する第1部分領域特定ステップと、
特定された前記第1部分領域を定める前記補正用注視点に対応する前記目印の位置に基づいて定まる前記対象領域内の領域である第2部分領域を特定する第2部分領域特定ステップと、
前記第1部分領域特定ステップにおいて特定された前記第1部分領域の位置と、前記第2部分領域特定ステップにおいて特定された前記第2部分領域の位置の相関関係に基づいて、前記対象注視点の位置を補正する位置補正ステップと、
補正後の前記対象注視点の位置に基づいて、発達障害の程度を示す評価値を算出する評価ステップと
を含むことを特徴とする診断支援方法。
A diagnosis support method for supporting a diagnosis of developmental disability based on a gaze position of a detected person,
A display control step for displaying a plurality of markers for correcting the gazing point at different positions in the target area on the display screen;
A gazing point detection step of detecting a gazing point of the detected person in the target area;
The target area is defined as a plurality of first partial areas based on the position of the correction gazing point, which is the gazing point detected corresponding to each mark among the gazing points detected in the gazing point detection step. An area dividing step to divide into
Based on the position of the target gazing point that is the gazing point of the detection target of the gazing point detection device among the gazing points detected in the gazing point detection step, the first partial region to which the target gazing point belongs is determined. A first partial region identification step to identify;
A second partial region specifying step of specifying a second partial region that is a region within the target region determined based on the position of the mark corresponding to the correction gazing point that defines the specified first partial region;
Based on the correlation between the position of the first partial area specified in the first partial area specifying step and the position of the second partial area specified in the second partial area specifying step, the target gaze point A position correction step for correcting the position;
An evaluation step of calculating an evaluation value indicating the degree of developmental disability based on the corrected position of the target gazing point.
JP2012215874A 2012-07-24 2012-09-28 Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device Active JP5971061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012215874A JP5971061B2 (en) 2012-07-24 2012-09-28 Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012163489 2012-07-24
JP2012163489 2012-07-24
JP2012215874A JP5971061B2 (en) 2012-07-24 2012-09-28 Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device

Publications (2)

Publication Number Publication Date
JP2014039787A true JP2014039787A (en) 2014-03-06
JP5971061B2 JP5971061B2 (en) 2016-08-17

Family

ID=50392593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012215874A Active JP5971061B2 (en) 2012-07-24 2012-09-28 Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device

Country Status (1)

Country Link
JP (1) JP5971061B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016150048A (en) * 2015-02-16 2016-08-22 株式会社Jvcケンウッド Gaze point detection device and gaze point detection method
JP2017537730A (en) * 2014-12-16 2017-12-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Gaze tracking system with improved calibration, accuracy compensation, and gaze localization smoothing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152939A (en) * 2014-02-10 2015-08-24 ソニー株式会社 information processing apparatus, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (en) * 1997-02-10 1998-08-21 Sony Corp Information input device
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program
JP2011206542A (en) * 2010-03-30 2011-10-20 National Univ Corp Shizuoka Univ Autism diagnosis support apparatus
JP2011217764A (en) * 2010-04-02 2011-11-04 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (en) * 1997-02-10 1998-08-21 Sony Corp Information input device
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program
JP2011206542A (en) * 2010-03-30 2011-10-20 National Univ Corp Shizuoka Univ Autism diagnosis support apparatus
JP2011217764A (en) * 2010-04-02 2011-11-04 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program
JP2012080910A (en) * 2010-10-06 2012-04-26 Fujitsu Ltd Correction value computing device, correction value computing method, and correction value computing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017537730A (en) * 2014-12-16 2017-12-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Gaze tracking system with improved calibration, accuracy compensation, and gaze localization smoothing
JP2016150048A (en) * 2015-02-16 2016-08-22 株式会社Jvcケンウッド Gaze point detection device and gaze point detection method

Also Published As

Publication number Publication date
JP5971061B2 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
US7810928B2 (en) Evaluating pupillary responses to light stimuli
WO2017094343A1 (en) Line of sight detection device and line of sight detection method
US20110242486A1 (en) Autism diagnosis support apparatus
WO2015146491A1 (en) Detection device and detection method
JP2011092702A (en) Eye fundus observation apparatus
JP5983131B2 (en) Diagnosis support apparatus and diagnosis support method
JP2015126857A (en) Line of sight detection support device and line of sight detection support method
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP5971061B2 (en) Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device
JP6142822B2 (en) Diagnosis support apparatus and diagnosis support method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP6380178B2 (en) Diagnosis support apparatus and diagnosis support method
JP2014018565A (en) Diagnosis support apparatus and diagnosis support method
JP6766646B2 (en) Visual function test device, visual function test method, and computer program
JP6019684B2 (en) Diagnosis support apparatus and diagnosis support method
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
JP6327171B2 (en) Gaze point detection device and gaze point detection method
JP7057483B2 (en) Evaluation device, evaluation method, and evaluation program
JP6187347B2 (en) Detection apparatus and detection method
JP6558161B2 (en) Ophthalmic apparatus and image processing program
JP6677156B2 (en) Visual function testing device, visual function testing method, and computer program
JP2016185375A (en) Diagnosis support device, diagnosis support method and diagnosis support program
JP2022105110A (en) Ophthalmologic apparatus
JP2020119583A (en) Visual line detection device and visual line detection method
JP2016157325A (en) Line of sight detection device and line of sight detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5971061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150