JP2018029764A - Diagnosis support apparatus, diagnosis support method, and computer program - Google Patents

Diagnosis support apparatus, diagnosis support method, and computer program Download PDF

Info

Publication number
JP2018029764A
JP2018029764A JP2016163737A JP2016163737A JP2018029764A JP 2018029764 A JP2018029764 A JP 2018029764A JP 2016163737 A JP2016163737 A JP 2016163737A JP 2016163737 A JP2016163737 A JP 2016163737A JP 2018029764 A JP2018029764 A JP 2018029764A
Authority
JP
Japan
Prior art keywords
data
subject
movement
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016163737A
Other languages
Japanese (ja)
Other versions
JP6747172B2 (en
Inventor
首藤 勝行
Katsuyuki Shudo
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016163737A priority Critical patent/JP6747172B2/en
Publication of JP2018029764A publication Critical patent/JP2018029764A/en
Application granted granted Critical
Publication of JP6747172B2 publication Critical patent/JP6747172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a diagnosis support apparatus capable of supporting the diagnosis of the risk of attention deficit-hyperkinetic trouble highly accurately.SOLUTION: A diagnosis support apparatus comprises: an image data acquisition unit for acquiring the image data of the eyes of a subject; a fixation point detection unit for detecting the position data of the fixation point of the subject on the basis of the image data; a moving data acquisition unit for acquiring the moving data of the eyes of the subject on the basis of the image data; and an output control unit for outputting the moving data.SELECTED DRAWING: Figure 4

Description

本発明は、診断支援装置、診断支援方法、及びコンピュータプログラムに関する。   The present invention relates to a diagnosis support apparatus, a diagnosis support method, and a computer program.

発達障がいの者は、相手の目を見ないという特徴を有する。特に注意欠陥・多動性障がい(Attention Deficit Hyperactivity Disorder:ADHD)の者は、1つの物事に集中することが困難であり、注視点が移動し易いという特徴を有する。そのため、被験者の注視点を検出して、被験者の発達障がいのリスクを診断支援する技術が提案されている。また、眼のサッケード運動により、被験者の注意欠陥・多動性障がいのリスクを診断支援する技術が提案されている。   Persons with developmental disabilities have the characteristic of not seeing the other person's eyes. In particular, a person with attention deficit hyperactivity disorder (ADHD) has a feature that it is difficult to concentrate on one thing and the gaze point is easy to move. Therefore, a technique for detecting a subject's gazing point and diagnosing a subject's risk of developmental disability has been proposed. In addition, a technique for diagnosing a subject's risk of attention deficit / hyperactivity disorder by saccade movement of the eye has been proposed.

特開2011−206542号公報JP 2011-206542 A 特開2002−360518号公報JP 2002-360518 A

医療現場においては、被験者の注意欠陥・多動性障がいのリスクの診断及び評価が実施され、診断及び評価結果に基づいて、注意欠陥・多動性障がいについての対応が決定される。そのため、被験者の注意欠陥・多動性障がいのリスクの診断を高精度に支援できる技術が要望される。   In the medical field, diagnosis and evaluation of a subject's risk of attention deficit / hyperactivity disorder is performed, and a response to attention deficit / hyperactivity disorder is determined based on the diagnosis and evaluation results. Therefore, there is a demand for a technology that can support diagnosis of the risk of attention deficit / hyperactivity disorder with high accuracy.

本発明の態様は、注意欠陥・多動性障がいのリスクの診断を高精度に支援できる診断支援装置、診断支援方法、及びコンピュータプログラムを提供することを目的とする。   An aspect of the present invention is to provide a diagnosis support apparatus, a diagnosis support method, and a computer program that can support diagnosis of a risk of attention deficit / hyperactivity disorder with high accuracy.

本発明の第1の態様に従えば、被験者の眼の画像データを取得する画像データ取得部と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、前記画像データに基づいて、前記被験者の眼の移動データを取得する移動データ取得部と、前記移動データを出力する出力制御部と、を備える診断支援装置が提供される。   According to the first aspect of the present invention, an image data acquisition unit that acquires image data of a subject's eye, a gazing point detection unit that detects position data of the gazing point of the subject based on the image data, A diagnosis support apparatus is provided that includes a movement data acquisition unit that acquires movement data of the subject's eyes based on the image data, and an output control unit that outputs the movement data.

本発明の第2の態様に従えば、被験者の眼の画像データを取得することと、前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、前記画像データに基づいて、前記被験者の眼の移動データを取得することと、前記移動データを出力することと、を含む診断支援方法が提供される。   According to the second aspect of the present invention, acquiring image data of the eye of the subject, detecting position data of the gazing point of the subject based on the image data, and based on the image data A diagnostic support method is provided that includes obtaining movement data of the subject's eyes and outputting the movement data.

本発明の第3の態様に従えば、コンピュータに、被験者の眼の画像データを取得することと、前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、前記画像データに基づいて、前記被験者の眼の移動データを取得することと、前記移動データを出力することと、を実行させるコンピュータプログラムが提供される。   According to the third aspect of the present invention, the computer acquires image data of the eye of the subject, detects position data of the subject's point of gaze based on the image data, and the image data Based on the above, there is provided a computer program for executing the movement data of the eye of the subject and outputting the movement data.

本発明の態様によれば、注意欠陥・多動性障がいのリスクの診断を高精度に支援できる診断支援装置、診断支援方法、及びコンピュータプログラムが提供される。   ADVANTAGE OF THE INVENTION According to the aspect of this invention, the diagnostic assistance apparatus, diagnostic assistance method, and computer program which can support the diagnosis of the risk of attention deficit / hyperactivity disorder with high precision are provided.

図1は、本実施形態に係る視線検出装置の一例を模式的に示す斜視図である。FIG. 1 is a perspective view schematically showing an example of a visual line detection device according to the present embodiment. 図2は、本実施形態に係る表示装置とステレオカメラ装置と光源と被験者の眼との位置関係を模式的に示す図である。FIG. 2 is a diagram schematically illustrating a positional relationship among the display device, the stereo camera device, the light source, and the eye of the subject according to the present embodiment. 図3は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual line detection device according to the present embodiment. 図4は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of a visual line detection device according to the present embodiment. 図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 5 is a schematic diagram for explaining the calculation method of the position data of the corneal curvature center according to the present embodiment. 図6は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 6 is a schematic diagram for explaining the calculation method of the position data of the corneal curvature center according to the present embodiment. 図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a gaze detection method according to the present embodiment. 図8は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。FIG. 8 is a schematic diagram for explaining an example of calibration processing according to the present embodiment. 図9は、本実施形態に係るキャリブレーション処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the calibration process according to the present embodiment. 図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an example of a gazing point detection process according to the present embodiment. 図11は、本実施形態に係る注視点検出処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a gazing point detection process according to the present embodiment. 図12は、本実施形態に係る表示制御部が表示装置に表示させる診断画像の一例を示す図である。FIG. 12 is a diagram illustrating an example of a diagnostic image displayed on the display device by the display control unit according to the present embodiment. 図13は、定型発達の被験者の眼の移動データを模式的に示す図である。FIG. 13 is a diagram schematically showing movement data of the eyes of a subject with a standard development. 図14は、ADHDの被験者の眼の移動データを模式的に示す図である。FIG. 14 is a diagram schematically illustrating eye movement data of a subject with ADHD. 図15は、本実施形態に係る被験者の眼の移動データの取得方法の一例を説明するための模式図である。FIG. 15 is a schematic diagram for explaining an example of a method for acquiring eye movement data of a subject according to the present embodiment. 図16は、グローバル座標系における移動平均点と移動距離との関係を模式的に示す図である。FIG. 16 is a diagram schematically showing the relationship between the moving average point and the moving distance in the global coordinate system. 図17は、本実施形態に係る診断支援方法の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the diagnosis support method according to the present embodiment.

以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited thereto. The components of the embodiments described below can be combined as appropriate. Some components may not be used.

以下の説明においては、3次元のグローバル座標系を設定して各部の位置関係について説明する。所定面のX軸と平行な方向をX軸方向とし、X軸と直交する所定面のY軸と平行な方向をY軸方向とし、X軸及びY軸のそれぞれと直交するZ軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。   In the following description, a three-dimensional global coordinate system is set and the positional relationship of each part is demonstrated. The direction parallel to the X axis of the predetermined surface is the X axis direction, the direction parallel to the Y axis of the predetermined surface orthogonal to the X axis is the Y axis direction, and is parallel to the Z axis orthogonal to each of the X axis and the Y axis. Let the direction be the Z-axis direction. The predetermined plane includes an XY plane.

[視線検出装置の概要]
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。本実施形態において、視線検出装置100は、発達障がいの診断を支援する診断支援装置に使用される。
[Outline of eye gaze detection device]
FIG. 1 is a perspective view schematically showing an example of a visual line detection device 100 according to the present embodiment. In the present embodiment, the line-of-sight detection device 100 is used in a diagnosis support device that supports diagnosis of developmental disabilities.

図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、光源103とを備える。   As shown in FIG. 1, the line-of-sight detection device 100 includes a display device 101, a stereo camera device 102, and a light source 103.

表示装置101は、液晶ディスプレイ(Liquid Crystal Display:LCD)又は有機ELディスプレイ(Organic Electroluminescence Display:OELD)のようなフラットパネルディスプレイを含む。   The display device 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic EL display (OELD).

本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。   In the present embodiment, the display screen 101S of the display device 101 is substantially parallel to the XY plane. The X-axis direction is the left-right direction of the display screen 101S, the Y-axis direction is the up-down direction of the display screen 101S, and the Z-axis direction is the depth direction orthogonal to the display screen 101S.

ステレオカメラ装置102は、被験者を撮影して被験者の画像データを取得する。ステレオカメラ装置102は、異なる位置に配置された第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、近赤外光を受光可能な撮像素子とを有する。   The stereo camera device 102 captures a subject and acquires image data of the subject. The stereo camera device 102 includes a first camera 102A and a second camera 102B arranged at different positions. The stereo camera device 102 is disposed below the display screen 101S of the display device 101. The first camera 102A and the second camera 102B are arranged in the X-axis direction. The first camera 102A is arranged in the −X direction with respect to the second camera 102B. Each of the first camera 102A and the second camera 102B includes an infrared camera, and includes, for example, an optical system capable of transmitting near-infrared light having a wavelength of 850 [nm] and an imaging element capable of receiving near-infrared light.

光源103は、検出光を射出する。光源103は、異なる位置に配置された第1光源103A及び第2光源103Bを含む。光源103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(Light Emitting Diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。   The light source 103 emits detection light. The light source 103 includes a first light source 103A and a second light source 103B arranged at different positions. The light source 103 is disposed below the display screen 101S of the display device 101. The first light source 103A and the second light source 103B are arranged in the X-axis direction. The first light source 103A is arranged in the −X direction with respect to the first camera 102A. The second light source 103B is arranged in the + X direction with respect to the second camera 102B. Each of the first light source 103A and the second light source 103B includes an LED (Light Emitting Diode) light source, and can emit, for example, near infrared light having a wavelength of 850 [nm]. Note that the first light source 103A and the second light source 103B may be disposed between the first camera 102A and the second camera 102B.

図2は、本実施形態に係る表示装置101とステレオカメラ装置102と光源103と被験者の眼111との位置関係を模式的に示す図である。   FIG. 2 is a diagram schematically showing a positional relationship among the display device 101, the stereo camera device 102, the light source 103, and the eye 111 of the subject according to the present embodiment.

光源103は、検出光である赤外光を射出して、被験者の眼111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼111に照射されたときに第2カメラ102Bで眼111を撮影し、第2光源103Bから射出された検出光が眼111に照射されたときに第1カメラ102Aで眼111を撮影する。   The light source 103 emits infrared light as detection light to illuminate the eye 111 of the subject. The stereo camera device 102 captures the eye 111 with the second camera 102B when the detection light emitted from the first light source 103A is applied to the eye 111, and the detection light emitted from the second light source 103B is applied to the eye 111. The eye 111 is imaged by the first camera 102A when irradiated.

第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。   A frame synchronization signal is output from at least one of the first camera 102A and the second camera 102B. The first light source 103A and the second light source 103B emit detection light based on the frame synchronization signal. The first camera 102A acquires image data of the eye 111 when the detection light emitted from the second light source 103B is irradiated to the eye 111. The second camera 102B acquires image data of the eye 111 when the detection light emitted from the first light source 103A is irradiated on the eye 111.

眼111に検出光が照射されると、検出光の一部は瞳孔112で反射する。瞳孔112で反射した光は、ステレオカメラ装置102に入射する。また、眼111に検出光が照射されると、角膜反射像113が眼111に形成される。角膜反射像113は、角膜表面における光源103の反射像である。角膜反射像113からの光は、ステレオカメラ装置102に入射する。   When the eye 111 is irradiated with detection light, a part of the detection light is reflected by the pupil 112. The light reflected by the pupil 112 enters the stereo camera device 102. When the eye 111 is irradiated with detection light, a cornea reflection image 113 is formed on the eye 111. The cornea reflection image 113 is a reflection image of the light source 103 on the cornea surface. The light from the cornea reflection image 113 enters the stereo camera device 102.

第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。   By appropriately setting the relative positions of the first camera 102A and the second camera 102B and the first light source 103A and the second light source 103B, the intensity of light incident on the stereo camera device 102 from the pupil 112 is reduced, and the cornea The intensity of light incident on the stereo camera device 102 from the reflected image 113 is increased. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the cornea reflection image 113 has high brightness. The stereo camera device 102 can detect the position of the pupil 112 and the position of the cornea reflection image 113 based on the luminance of the acquired image.

[ハードウェア構成]
図3は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図3に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、光源103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。コンピュータプログラム20Cが記憶装置20Bに記憶されている。
[Hardware configuration]
FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual line detection device 100 according to the present embodiment. As shown in FIG. 3, the line-of-sight detection device 100 includes a display device 101, a stereo camera device 102, a light source 103, a computer system 20, an input / output interface device 30, a drive circuit 40, an output device 50, An input device 60 and an audio output device 70 are provided. The computer system 20 includes an arithmetic processing device 20A and a storage device 20B. A computer program 20C is stored in the storage device 20B.

コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。   The computer system 20, the drive circuit 40, the output device 50, the input device 60, and the audio output device 70 perform data communication via the input / output interface device 30.

演算処理装置20Aは、CPU(Central Processing Unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(Read Only Memory)のような不揮発性メモリ又はRAM(Random Access Memory)のような揮発性メモリを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。   The arithmetic processing unit 20A includes a microprocessor such as a CPU (Central Processing Unit). The storage device 20B includes a nonvolatile memory such as a ROM (Read Only Memory) or a volatile memory such as a RAM (Random Access Memory). The arithmetic processing device 20A performs arithmetic processing according to the computer program 20C stored in the storage device 20B.

駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び光源103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。   The drive circuit 40 generates a drive signal and outputs it to the display device 101, the stereo camera device 102, and the light source 103. In addition, the drive circuit 40 supplies the image data of the eye 111 acquired by the stereo camera device 102 to the computer system 20 via the input / output interface device 30.

出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。   The output device 50 includes a display device such as a flat panel display. The output device 50 may include a printing device. The input device 60 generates input data when operated. The input device 60 includes a keyboard or mouse for a computer system. The input device 60 may include a touch sensor provided on the display screen of the output device 50 that is a display device. The audio output device 70 includes a speaker and outputs, for example, audio for prompting the subject to pay attention.

本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、タブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。   In the present embodiment, the display device 101 and the computer system 20 are separate devices. Note that the display device 101 and the computer system 20 may be integrated. For example, when the line-of-sight detection device 100 includes a tablet personal computer, the computer system 20, the input / output interface device 30, the drive circuit 40, and the display device 101 may be mounted on the tablet personal computer.

図4は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。   FIG. 4 is a functional block diagram illustrating an example of the line-of-sight detection device 100 according to the present embodiment. As shown in FIG. 4, the input / output interface device 30 includes an input / output unit 302. The drive circuit 40 generates a drive signal for driving the display device 101 and outputs the drive signal to the display device 101, and generates a drive signal for driving the first camera 102A to generate the first camera. A first camera input / output unit 404A that outputs to the second camera 102B, a second camera input / output unit 404B that generates a drive signal for driving the second camera 102B and outputs it to the second camera 102B, the first light source 103A and the second light source 103A. A light source drive unit 406 that generates a drive signal for driving the two light sources 103B and outputs the drive signals to the first light source 103A and the second light source 103B. The first camera input / output unit 404 </ b> A supplies the image data of the eye 111 acquired by the first camera 102 </ b> A to the computer system 20 via the input / output unit 302. The second camera input / output unit 404B supplies the image data of the eye 111 acquired by the second camera 102B to the computer system 20 via the input / output unit 302.

コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、移動データ取得部216と、エリア設定部218と、判定部220と、演算部222と、記憶部224と、評価部226と、出力制御部228とを有する。コンピュータシステム20の機能は、演算処理装置20A、記憶装置20B、及び記憶装置20Bに記憶されているコンピュータプログラム20Cによって発揮される。   The computer system 20 controls the line-of-sight detection device 100. The computer system 20 includes a display control unit 202, a light source control unit 204, an image data acquisition unit 206, an input data acquisition unit 208, a position detection unit 210, a curvature center calculation unit 212, and a gaze point detection unit 214. , A movement data acquisition unit 216, an area setting unit 218, a determination unit 220, a calculation unit 222, a storage unit 224, an evaluation unit 226, and an output control unit 228. The functions of the computer system 20 are exhibited by the arithmetic processing unit 20A, the storage unit 20B, and the computer program 20C stored in the storage unit 20B.

表示制御部202は、発達障がいの診断を支援するための診断画像を示す診断画像データを表示装置101に表示させる。   The display control unit 202 causes the display device 101 to display diagnostic image data indicating a diagnostic image for supporting the diagnosis of developmental disability.

光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。   The light source control unit 204 controls the operation state of the first light source 103A and the second light source 103B by controlling the light source driving unit 406. The light source control unit 204 controls the first light source 103A and the second light source 103B so that the first light source 103A and the second light source 103B emit detection light at different timings.

画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。画像データ取得部206は、光源103からの検出光である赤外光が照射された眼111の画像データをステレオカメラ装置102から取得する。   The image data acquisition unit 206 acquires the image data of the eye 111 of the subject acquired by the stereo camera device 102 including the first camera 102A and the second camera 102B from the stereo camera device 102 via the input / output unit 302. The image data acquisition unit 206 acquires image data of the eye 111 irradiated with infrared light, which is detection light from the light source 103, from the stereo camera device 102.

入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。   The input data acquisition unit 208 acquires input data generated by operating the input device 60 from the input device 60 via the input / output unit 302.

位置検出部210は、画像データ取得部206で取得された眼111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。   The position detection unit 210 detects the position data of the pupil center based on the image data of the eye 111 acquired by the image data acquisition unit 206. The position detection unit 210 detects position data of the corneal reflection center based on the image data of the eye 111 acquired by the image data acquisition unit 206. The pupil center is the center of the pupil 112. The cornea reflection center is the center of the cornea reflection image 113. The position detection unit 210 detects the position data of the pupil center and the position data of the corneal reflection center for each of the left and right eyes 111 of the subject.

曲率中心算出部212は、画像データ取得部206で取得された眼111の画像データに基づいて、眼111の角膜曲率中心の位置データを算出する。   The curvature center calculation unit 212 calculates position data of the corneal curvature center of the eye 111 based on the image data of the eye 111 acquired by the image data acquisition unit 206.

注視点検出部214は、画像データ取得部206で取得された眼111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、3次元のグローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。   The gaze point detection unit 214 detects position data of the gaze point of the subject based on the image data of the eye 111 acquired by the image data acquisition unit 206. In the present embodiment, the position data of the gazing point refers to the position data of the intersection point between the subject's line-of-sight vector defined by the three-dimensional global coordinate system and the display screen 101S of the display device 101. The gaze point detection unit 214 detects the eye gaze vectors of the left and right eyes 111 of the subject based on the position data of the pupil center and the position data of the corneal curvature center acquired from the image data of the eye 111. After the gaze vector is detected, the gaze point detection unit 214 detects position data of the gaze point indicating the intersection of the gaze vector and the display screen 101S.

移動データ取得部216は、画像データ取得部206で取得された眼111の画像データに基づいて、被験者の眼の移動データを取得する。眼の移動データは、瞳孔112の移動データ及び角膜表面における光源103の反射像である角膜反射像113の移動データの少なくとも一方を含む。   The movement data acquisition unit 216 acquires eye movement data of the subject based on the image data of the eye 111 acquired by the image data acquisition unit 206. The eye movement data includes at least one of movement data of the pupil 112 and movement data of the cornea reflection image 113 that is a reflection image of the light source 103 on the cornea surface.

エリア設定部218は、表示装置101の表示画面101Sにおいて特定エリアを設定する。   The area setting unit 218 sets a specific area on the display screen 101 </ b> S of the display device 101.

判定部220は、注視点の位置データに基づいて、注視点が特定エリアに存在するか否かを判定する。   The determination unit 220 determines whether or not the gazing point exists in the specific area based on the position data of the gazing point.

演算部222は、判定部220の判定データに基づいて、被験者の注視点が表示画面101Sの特定エリアに存在した存在時間を示す時間データを算出する。   Based on the determination data of the determination unit 220, the calculation unit 222 calculates time data indicating the presence time during which the subject's gaze point is present in the specific area of the display screen 101S.

記憶部224は、発達障がいの診断を支援するためのデータを記憶する。本実施形態において、記憶部224は、眼の移動データについての閾値を示す閾値データを記憶する。   The storage unit 224 stores data for supporting diagnosis of developmental disabilities. In the present embodiment, the storage unit 224 stores threshold data indicating a threshold for eye movement data.

評価部226は、記憶部224に記憶されている閾値データと、移動データ取得部216で取得された眼の移動データとに基づいて、被験者の評価データを出力する。また、評価部226は、演算部222で算出された時間データと、移動データ取得部216で取得された眼の移動データとに基づいて、被験者の評価データを出力する。   The evaluation unit 226 outputs subject evaluation data based on the threshold data stored in the storage unit 224 and the eye movement data acquired by the movement data acquisition unit 216. Further, the evaluation unit 226 outputs the evaluation data of the subject based on the time data calculated by the calculation unit 222 and the eye movement data acquired by the movement data acquisition unit 216.

出力制御部228は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部228は、移動データ取得部216で取得された眼の移動データを出力して、表示装置101又は出力装置50に表示させる。また、出力制御部228は、被験者の左右それぞれの眼111の注視点の位置データを出力して、表示装置101又は出力装置50に表示させる。また、出力制御部228は、評価部226から出力された評価データを出力して、表示装置101又は出力装置50に表示させる。   The output control unit 228 outputs data to at least one of the display device 101, the output device 50, and the audio output device 70. In the present embodiment, the output control unit 228 outputs the eye movement data acquired by the movement data acquisition unit 216 and causes the display device 101 or the output device 50 to display the eye movement data. In addition, the output control unit 228 outputs position data of the gazing point of the left and right eyes 111 of the subject and causes the display device 101 or the output device 50 to display the position data. Further, the output control unit 228 outputs the evaluation data output from the evaluation unit 226 and causes the display device 101 or the output device 50 to display the evaluation data.

[視線検出の原理]
次に、本実施形態に係る視線検出の原理について説明する。以下の説明では、主に曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼111の画像データに基づいて、眼111の角膜曲率中心の位置データを算出する。
[Principle of eye detection]
Next, the principle of eye gaze detection according to this embodiment will be described. In the following description, an outline of processing of the curvature center calculation unit 212 will be mainly described. The curvature center calculation unit 212 calculates position data of the corneal curvature center of the eye 111 based on the image data of the eye 111.

図5及び図6は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図5は、1つの光源103Cで眼111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼111が照明される例を示す。   5 and 6 are schematic diagrams for explaining a method of calculating position data of the corneal curvature center 110 according to the present embodiment. FIG. 5 shows an example in which the eye 111 is illuminated by one light source 103C. FIG. 6 shows an example in which the eye 111 is illuminated by the first light source 103A and the second light source 103B.

まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図5において、瞳孔中心112Cは、眼111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼111が1つの光源103Cで照明されたときの角膜反射中心を示す。   First, the example shown in FIG. 5 will be described. The light source 103C is disposed between the first camera 102A and the second camera 102B. Pupil center 112 </ b> C is the center of pupil 112. The cornea reflection center 113 </ b> C is the center of the cornea reflection image 113. In FIG. 5, the pupil center 112C indicates the pupil center when the eye 111 is illuminated by one light source 103C. The corneal reflection center 113C indicates the corneal reflection center when the eye 111 is illuminated by one light source 103C.

角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。   The corneal reflection center 113 </ b> C exists on a straight line connecting the light source 103 </ b> C and the corneal curvature center 110. The corneal reflection center 113C is positioned at the midpoint between the corneal surface and the corneal curvature center 110. The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110.

角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部224に記憶されている。   The position data of the corneal reflection center 113C is detected by the stereo camera device 102. The corneal curvature center 110 exists on a straight line connecting the light source 103C and the corneal reflection center 113C. The curvature center calculation unit 212 calculates, as position data of the corneal curvature center 110, position data that has a predetermined distance from the corneal reflection center 113C on the straight line. The predetermined value is a value determined in advance based on a general radius of curvature of the cornea and the like, and is stored in the storage unit 224.

次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。   Next, the example shown in FIG. 6 will be described. In the present embodiment, the first camera 102A and the second light source 103B, and the second camera 102B and the first light source 103A are symmetrical with respect to a straight line passing through an intermediate position between the first camera 102A and the second camera 102B. It is arranged at the position. It can be considered that the virtual light source 103V exists at an intermediate position between the first camera 102A and the second camera 102B.

角膜反射中心121は、第2カメラ102Bで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。   A corneal reflection center 121 indicates a corneal reflection center in an image obtained by photographing the eye 111 with the second camera 102B. A corneal reflection center 122 indicates a corneal reflection center in an image obtained by photographing the eye 111 with the first camera 102A. A corneal reflection center 124 indicates a corneal reflection center corresponding to the virtual light source 103V.

角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定されるローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の3次元のローカル座標系を3次元のグローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部224に記憶されている。   The position data of the cornea reflection center 124 is calculated based on the position data of the cornea reflection center 121 and the position data of the cornea reflection center 122 acquired by the stereo camera device 102. The stereo camera device 102 detects position data of the corneal reflection center 121 and position data of the corneal reflection center 122 in the local coordinate system defined by the stereo camera device 102. For the stereo camera device 102, camera calibration is performed in advance by the stereo calibration method, and conversion parameters for converting the three-dimensional local coordinate system of the stereo camera device 102 into a three-dimensional global coordinate system are calculated. The conversion parameters are stored in the storage unit 224.

曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、グローバル座標系における位置データに変換する。曲率中心算出部212は、グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、グローバル座標系における角膜反射中心124の位置データを算出する。   The curvature center calculation unit 212 converts the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 acquired by the stereo camera device 102 into position data in the global coordinate system using the conversion parameters. The curvature center calculator 212 calculates position data of the corneal reflection center 124 in the global coordinate system based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 defined in the global coordinate system.

角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部224に記憶されている。   The corneal curvature center 110 exists on a straight line 123 connecting the virtual light source 103 </ b> V and the corneal reflection center 124. The curvature center calculation unit 212 calculates position data on the straight line 123 where the distance from the corneal reflection center 124 is a predetermined value as position data of the corneal curvature center 110. The predetermined value is a value determined in advance based on a general radius of curvature of the cornea and the like, and is stored in the storage unit 224.

図6を参照して説明したように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。   As described with reference to FIG. 6, even when there are two light sources, the corneal curvature center 110 is calculated by a method similar to the method when there is one light source.

角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。   The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. Accordingly, the corneal curvature radius 109 is calculated by calculating the position data of the corneal surface and the position data of the corneal curvature center 110.

このように、本実施形態においては、グローバル座標系における角膜曲率中心110の位置データ、角膜反射中心124の位置データ、及び瞳孔中心112Cの位置データが算出される。   Thus, in the present embodiment, position data of the corneal curvature center 110, position data of the corneal reflection center 124, and position data of the pupil center 112C in the global coordinate system are calculated.

注視点検出部214は、瞳孔中心112Cの位置データ及び角膜曲率中心110の位置データに基づいて、被験者の視線ベクトルを検出することができる。また、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出することができる。   The gaze point detection unit 214 can detect the gaze vector of the subject based on the position data of the pupil center 112C and the position data of the corneal curvature center 110. In addition, the gazing point detection unit 214 can detect gazing point position data indicating the intersection of the line-of-sight vector and the display screen 101S.

[視線検出方法]
次に、本実施形態に係る視線検出方法の一例について説明する。図7は、本実施形態に係る視線検出方法の一例を示すフローチャートである。本実施形態においては、角膜曲率中心110の位置データの算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS100)と、注視点検出処理(ステップS200)が実施される。
[Gaze detection method]
Next, an example of a line-of-sight detection method according to this embodiment will be described. FIG. 7 is a flowchart illustrating an example of a gaze detection method according to the present embodiment. In the present embodiment, calibration processing (step S100) including position data calculation processing of the corneal curvature center 110 and distance data calculation processing between the pupil center 112C and the corneal curvature center 110, and gaze point detection processing (step S200). ) Is implemented.

(キャリブレーション処理)
キャリブレーション処理(ステップS100)について説明する。図8は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理は、角膜曲率中心110の位置データを算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。
(Calibration process)
The calibration process (step S100) will be described. FIG. 8 is a schematic diagram for explaining an example of calibration processing according to the present embodiment. The calibration process includes calculating position data of the corneal curvature center 110 and calculating a distance 126 between the pupil center 112C and the corneal curvature center 110.

被験者に注視させるための目標位置130が設定される。目標位置130は、グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。   A target position 130 for allowing the subject to gaze is set. The target position 130 is defined in the global coordinate system. In the present embodiment, the target position 130 is set to the center position of the display screen 101S of the display device 101, for example. The target position 130 may be set to the end position of the display screen 101S.

表示制御部202は、設定された目標位置130に目標画像を表示させる。これにより、被験者は、目標位置130を注視し易くなる。   The display control unit 202 displays the target image at the set target position 130. This makes it easier for the subject to gaze at the target position 130.

直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。   A straight line 131 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. A straight line 132 is a straight line connecting the target position 130 and the pupil center 112C. The corneal curvature center 110 is an intersection of the straight line 131 and the straight line 132. The curvature center calculation unit 212 is based on the position data of the virtual light source 103V, the position data of the target position 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C, and the position data of the corneal curvature center 110. Can be calculated.

図9は、本実施形態に係るキャリブレーション処理(ステップS100)の一例を示すフローチャートである。出力制御部228は、表示装置101の表示画面101Sに目標画像を表示させる(ステップS101)。被験者は、目標画像を注視することにより、目標位置130を注視することができる。   FIG. 9 is a flowchart showing an example of the calibration process (step S100) according to the present embodiment. The output control unit 228 displays the target image on the display screen 101S of the display device 101 (step S101). The subject can watch the target position 130 by watching the target image.

次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS102)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS103)。   Next, the light source control unit 204 controls the light source driving unit 406 to emit detection light from one of the first light source 103A and the second light source 103B (step S102). The stereo camera apparatus 102 images the subject's eyes with the camera having the longer distance from the light source that has emitted the detection light among the first camera 102A and the second camera 102B (step S103).

次に、光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS104)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼を撮影する(ステップS105)。   Next, the light source control unit 204 controls the light source driving unit 406 to emit detection light from the other light source of the first light source 103A and the second light source 103B (step S104). The stereo camera apparatus 102 photographs the subject's eyes with the camera having the longer distance from the light source that emitted the detection light among the first camera 102A and the second camera 102B (step S105).

瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置検出部210は、取得される画像の輝度に基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを検出することができる。また、位置検出部210は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置データを算出する。また、位置検出部210は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置データを算出する(ステップS106)。   The pupil 112 is detected by the stereo camera device 102 as a dark portion, and the cornea reflection image 113 is detected by the stereo camera device 102 as a bright portion. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the cornea reflection image 113 has high brightness. The position detection unit 210 can detect the position data of the pupil 112 and the position data of the cornea reflection image 113 based on the luminance of the acquired image. Further, the position detection unit 210 calculates the position data of the pupil center 112 </ b> C based on the image data of the pupil 112. Further, the position detection unit 210 calculates position data of the corneal reflection center 113C based on the image data of the corneal reflection image 113 (step S106).

ステレオカメラ装置102によって検出された位置データは、3次元のローカル座標系で規定される位置データである。位置検出部210は、記憶部224に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを座標変換して、グローバル座標系で規定される瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを算出する(ステップS107)。   The position data detected by the stereo camera device 102 is position data defined by a three-dimensional local coordinate system. The position detection unit 210 uses the conversion parameters stored in the storage unit 224 to perform coordinate conversion on the position data of the pupil center 112C and the position data of the cornea reflection center 113C detected by the stereo camera device 102, and perform global conversion. The position data of the pupil center 112C and the position data of the cornea reflection center 113C defined by the coordinate system are calculated (step S107).

曲率中心算出部212は、グローバ0ル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS108)。   The curvature center calculator 212 calculates a straight line 131 that connects the corneal reflection center 113C defined by the global coordinate system and the virtual light source 103V (step S108).

次に、曲率中心算出部212は、表示装置101の表示画面101Sに規定される目標位置130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS109)。曲率中心算出部212は、ステップS108で算出した直線131とステップS109で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS110)。   Next, the curvature center calculation unit 212 calculates a straight line 132 connecting the target position 130 defined on the display screen 101S of the display device 101 and the pupil center 112C (step S109). The curvature center calculation unit 212 obtains an intersection between the straight line 131 calculated in step S108 and the straight line 132 calculated in step S109, and sets this intersection as the corneal curvature center 110 (step S110).

曲率中心算出部212は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部224に記憶する(ステップS111)。記憶された距離は、ステップS200の注視点検出において、角膜曲率中心110を算出するために使用される。   The curvature center calculation unit 212 calculates the distance 126 between the pupil center 112C and the corneal curvature center 110, and stores it in the storage unit 224 (step S111). The stored distance is used to calculate the corneal curvature center 110 in the point-of-gaze detection in step S200.

(注視点検出処理)
次に、注視点検出処理(ステップS200)について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。
(Gaze point detection process)
Next, the gazing point detection process (step S200) will be described. The gazing point detection process is performed after the calibration process. The gaze point detection unit 214 calculates the gaze vector of the subject and the position data of the gaze point based on the image data of the eye 111.

図10は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。注視点検出処理は、キャリブレーション処理(ステップS100)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置データを使って注視点を算出することを含む。   FIG. 10 is a schematic diagram for explaining an example of a gazing point detection process according to the present embodiment. The gazing point detection process corrects the position of the corneal curvature center 110 using the distance 126 between the pupil center 112C and the corneal curvature center 110 obtained in the calibration process (step S100), and the corrected corneal curvature center. Including calculating a point of gaze using 110 position data.

図10において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。   In FIG. 10, a gazing point 165 indicates a gazing point obtained from the corneal curvature center calculated using a general curvature radius value. The gazing point 166 indicates a gazing point obtained from the corneal curvature center calculated using the distance 126 obtained in the calibration process.

瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。   The pupil center 112C indicates the pupil center calculated in the calibration process, and the corneal reflection center 113C indicates the corneal reflection center calculated in the calibration process.

直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。   A straight line 173 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. The corneal curvature center 110 is the position of the corneal curvature center calculated from a general curvature radius value.

距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。   The distance 126 is a distance between the pupil center 112C and the corneal curvature center 110 calculated by the calibration process.

角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。   The corneal curvature center 110H indicates the position of the corrected corneal curvature center obtained by correcting the corneal curvature center 110 using the distance 126.

角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。   The corneal curvature center 110H is obtained from the fact that the corneal curvature center 110 exists on the straight line 173 and the distance between the pupil center 112C and the corneal curvature center 110 is the distance 126. Thus, the line of sight 177 calculated when a general radius of curvature value is used is corrected to the line of sight 178. Further, the gazing point on the display screen 101S of the display device 101 is corrected from the gazing point 165 to the gazing point 166.

図11は、本実施形態に係る注視点検出処理(ステップS200)の一例を示すフローチャートである。なお、図11に示すステップS201からステップS207までの処理は、図9に示したステップS102からステップS108までの処理と同様であるため説明を省略する。   FIG. 11 is a flowchart showing an example of a gazing point detection process (step S200) according to the present embodiment. Note that the processing from step S201 to step S207 shown in FIG. 11 is the same as the processing from step S102 to step S108 shown in FIG.

曲率中心算出部212は、ステップS207で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を角膜曲率中心110Hとして算出する(ステップS208)。   The curvature center calculation unit 212 calculates a position on the straight line 173 calculated in step S207 and the distance from the pupil center 112C equal to the distance 126 obtained by the calibration process as the corneal curvature center 110H (step S208).

注視点検出部214は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS209)。視線ベクトルは、被験者が見ている視線方向を示す。注視点検出部214は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置データを算出する(ステップS210)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置データが、グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置データである。   The gazing point detection unit 214 calculates a line-of-sight vector connecting the pupil center 112C and the corneal curvature center 110H (step S209). The line-of-sight vector indicates the line-of-sight direction that the subject is looking at. The gaze point detection unit 214 calculates the position data of the intersection between the line-of-sight vector and the display screen 101S of the display device 101 (step S210). The position data of the intersection of the line-of-sight vector and the display screen 101S of the display device 101 is the position data of the subject's point of interest on the display screen 101S defined by the global coordinate system.

注視点検出部214は、グローバル座標系で規定される注視点の位置データを、2次元座標系で規定される表示装置101の表示画面101Sにおける位置データに変換する(ステップS211)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置データが算出される。   The gaze point detection unit 214 converts gaze point position data defined in the global coordinate system into position data on the display screen 101S of the display device 101 defined in the two-dimensional coordinate system (step S211). Thereby, the position data of the gazing point on the display screen 101S of the display device 101 that the subject looks at is calculated.

[診断支援方法]
次に、本実施形態に係る発達障がいの診断支援方法について説明する。本実施形態において、視線検出装置100は、被験者の発達障がいのリスクの診断を支援する診断支援装置に使用される。本実施形態に係る視線検出装置100は、特に被験者の注意欠陥・多動性障がいのリスクの診断を支援する診断支援装置に使用される。以下の説明においては、視線検出装置100を適宜、診断支援装置100、と称する。また、以下の説明においては、注意欠陥・多動性障がいを適宜、ADHD、と称する。
[Diagnosis support method]
Next, a diagnosis support method for developmental disabilities according to the present embodiment will be described. In the present embodiment, the line-of-sight detection device 100 is used in a diagnosis support device that supports diagnosis of a developmental disorder risk of a subject. The line-of-sight detection apparatus 100 according to the present embodiment is used in a diagnosis support apparatus that supports diagnosis of a risk of attention deficit / hyperactivity disorder particularly for a subject. In the following description, the line-of-sight detection device 100 is appropriately referred to as a diagnosis support device 100. In the following description, attention deficit / hyperactivity disorder is appropriately referred to as ADHD.

(診断画像)
発達障がいのリスクの診断支援において、診断支援装置100の表示制御部202は、特定の診断画像を表示装置101に表示させる。被験者の発達障がいのリスクの評価のために、被験者には、表示装置101に表示された診断画像を注視するように指示がなされる。
(Diagnostic image)
In the diagnosis support for the risk of developmental disability, the display control unit 202 of the diagnosis support apparatus 100 displays a specific diagnosis image on the display apparatus 101. In order to evaluate the risk of the developmental disorder of the subject, the subject is instructed to watch the diagnostic image displayed on the display device 101.

図12は、本実施形態に係る表示制御部202が表示装置101に表示させる診断画像の一例を示す図である。図12に示すように、診断画像は、領域A1、領域A2、領域A3、及び領域A4を含む。領域A1は、診断画像の中心を含む領域である。領域A2及び領域A3は、診断画像の中心を含まない領域であり、領域A1の周囲に配置される。本実施形態において、領域A2は、領域A1の周囲に複数設けられる。領域A3は、領域A1の周囲に複数設けられる。表示装置101の表示画面101Sにおいて、領域A1と、複数の領域A2と、複数の領域A3とは、離れている。領域A4は、領域A1、領域A2、及び領域A3以外の余白領域である。領域A2は、領域A1の上方、下方、左方、及び右方のそれぞれに配置される。領域A3は、領域A1の上方、下方、左方、及び右方のそれぞれに配置される。   FIG. 12 is a diagram illustrating an example of a diagnostic image displayed on the display device 101 by the display control unit 202 according to the present embodiment. As shown in FIG. 12, the diagnostic image includes a region A1, a region A2, a region A3, and a region A4. Region A1 is a region including the center of the diagnostic image. The area A2 and the area A3 are areas that do not include the center of the diagnostic image, and are arranged around the area A1. In the present embodiment, a plurality of areas A2 are provided around the area A1. A plurality of areas A3 are provided around the area A1. On the display screen 101S of the display device 101, the area A1, the plurality of areas A2, and the plurality of areas A3 are separated from each other. The area A4 is a blank area other than the area A1, the area A2, and the area A3. The region A2 is arranged above, below, leftward, and rightward of the region A1. The region A3 is disposed above, below, left, and right of the region A1.

図12に示す例においては、領域A1の周囲において、領域A2は11カ所に配置され、領域A3は3カ所に配置される。なお、領域A2及び領域A3の数及び領域A1に対する位置は、図12の例に限定されない。   In the example shown in FIG. 12, the area A2 is arranged at 11 places and the area A3 is arranged at 3 places around the area A1. Note that the numbers of the regions A2 and A3 and the positions with respect to the region A1 are not limited to the example in FIG.

中央の領域A1には、人物を含む特定の画像が表示される。複数の領域A2及び複数の領域A3のそれぞれには、領域A1に表示される画像よりも目立たない画像が表示される。換言すれば、領域A2及び領域A3には、領域A1に表示される画像よりも注目され難い画像が表示される。   A specific image including a person is displayed in the central area A1. In each of the plurality of regions A2 and the plurality of regions A3, an image that is less conspicuous than the image displayed in the region A1 is displayed. In other words, images that are less likely to be noticed than the image displayed in the region A1 are displayed in the regions A2 and A3.

本実施形態において、領域A1には、人物を含む自然画の動画又は大きい人物画像が表示される。領域A2及び領域A3には、動きが遅い動画又は領域A1に表示される画像よりも低コントラストの静止画が表示される。   In the present embodiment, a natural image moving image including a person or a large person image is displayed in the area A1. In the area A2 and the area A3, a moving image that moves slowly or a still image having a lower contrast than the image displayed in the area A1 is displayed.

本実施形態において、領域A2には、静止画であるイラスト又は動画であるアニメーションが表示される。領域A3には、幾何学模様を含む画像が表示される。幾何学模様を含む画像は、静止画でもよいし動画でもよい。   In the present embodiment, an illustration that is a still image or an animation that is a moving image is displayed in the area A2. In the area A3, an image including a geometric pattern is displayed. The image including the geometric pattern may be a still image or a moving image.

発達障がいのリスクの診断支援処理において、被験者には、表示装置101に表示された診断画像のうち領域A1に表示された画像を注視するように指示がなされる。例えば、出力制御部228は、「中央の画像をじっと見てください」のような音声を音声出力装置70から出力させる。   In the diagnosis support process for the risk of developmental disabilities, the subject is instructed to watch the image displayed in the area A1 among the diagnostic images displayed on the display device 101. For example, the output control unit 228 causes the sound output device 70 to output a sound such as “please look at the center image”.

被験者が定型発達である場合、被験者は、指示に従って、領域A1に表示されている画像を所定時間注視することができる。   When the subject has a typical development, the subject can gaze at the image displayed in the area A1 for a predetermined time according to the instruction.

被験者がADHDである場合、被験者は、領域A1に表示されている画像を注視することが困難である。ADHDの被験者は、領域A1の周囲の領域A2及び領域A3の少なくとも一方に表示されている画像を多く見る傾向がある。また、被験者が自閉症スペクトラム症(Autistic Spectrum Disorder:ASD)である場合、幾何学模様を好む傾向があるため、被験者は、領域A3の画像を多く見る傾向がある。   When the subject is ADHD, it is difficult for the subject to gaze at the image displayed in the area A1. ADHD subjects tend to see many images displayed in at least one of the area A2 and the area A3 around the area A1. In addition, when the subject has Autistic Spectrum Disorder (ASD), the subject tends to prefer the geometric pattern, and thus the subject tends to see many images of the region A3.

すなわち、領域A1に表示された画像を注視するように指示がなされた場合において、定型発達の被験者は、領域A1に表示されている画像を注視し続けることができる。ADHDの被験者は、領域A1の周囲の領域A2及び領域A3の少なくとも一方に表示されている画像を見る傾向にある。ASDの被験者は、領域A3に表示されている幾何学模様を含む画像を見る傾向にある。このように、表示装置101の表示画面101Sに特定の診断画像が表示され、被験者が見る領域が検出されることにより、定型発達、ADHD、及びASDを区別することができる。   That is, when an instruction is given to watch the image displayed in the area A1, the subject with regular development can continue to watch the image displayed in the area A1. A subject with ADHD tends to see an image displayed in at least one of the area A2 and the area A3 around the area A1. ASD subjects tend to see images containing the geometric pattern displayed in area A3. As described above, a specific diagnostic image is displayed on the display screen 101S of the display device 101, and the region viewed by the subject is detected, so that the typical development, ADHD, and ASD can be distinguished.

(ADHDのリスクの診断支援の原理)
発達障がいの者、特にADHDの者は、じっとしていることが困難であり、頭部又は体全体を頻繁に揺らす傾向にある。一方、定型発達の者は、頭部又は体全体を大きく揺らさない。すなわち、定型発達の者とADHDの者とでは、頭部又は体全体の移動状態の傾向が異なる。本実施形態において、診断支援装置100は、ADHDの者が頭部又は体全体を頻繁に揺らす特徴を利用して、被験者のADHDのリスクの診断を支援する。
(Principle of diagnosis support for ADHD risk)
Persons with developmental disabilities, especially those with ADHD, are difficult to stay still and tend to shake their head or entire body frequently. On the other hand, a person with typical development does not shake the head or the whole body greatly. That is, the tendency of the movement state of the head or the whole body differs between the person with typical development and the person with ADHD. In the present embodiment, the diagnosis support apparatus 100 supports the diagnosis of ADHD risk of a subject by using the feature that an ADHD person frequently shakes the head or the entire body.

本実施形態において、診断支援装置100は、被験者の眼の移動データを取得して、被験者のADHDのリスクの診断を支援する。被験者が頭部又は体全体を揺らすと、頭部又は体全体の揺れに伴って、被験者の眼の位置が変動する。すなわち、被験者が頭部又は体全体を揺らして、被験者の頭部の位置が変動すれば、被験者の眼の位置も変動する。したがって、診断支援装置100は、被験者の眼の位置の変動状態を示す眼の移動データを取得することにより、被験者の頭部の位置の変動状態を示す頭部の移動データを導出して、被験者のADHDのリスクの診断支援及び評価を実施することができる。   In the present embodiment, the diagnosis support apparatus 100 obtains movement data of the subject's eyes and supports diagnosis of ADHD risk of the subject. When the subject shakes the head or the entire body, the position of the subject's eyes varies with the shaking of the head or the entire body. That is, if the subject shakes the head or the entire body and the position of the subject's head changes, the position of the subject's eyes also changes. Therefore, the diagnosis support apparatus 100 obtains the movement data of the head indicating the variation state of the head position of the subject by obtaining the movement data of the eye indicating the variation state of the eye position of the subject, and the subject Can provide diagnostic support and assessment of ADHD risk.

被験者の眼の移動データは、規定時間における被験者の眼の移動距離、規定時間における被験者の眼の移動速度、及び規定時間における被験者の眼の移動ベクトルの変曲点の数の少なくとも一つを含む。眼の移動ベクトルの変曲点とは、移動ベクトルの方向が実質的に90[°]以上変化する点をいう。   The eye movement data of the subject includes at least one of the movement distance of the subject's eye at the specified time, the moving speed of the eye of the subject at the specified time, and the number of inflection points of the movement vector of the subject's eye at the specified time. . The inflection point of the eye movement vector refers to a point where the direction of the movement vector substantially changes by 90 [°] or more.

移動データ取得部216は、規定時間における被験者の眼の移動距離を示す移動距離データを取得して、規定時間における被験者の頭部の移動距離を導出する。また、移動データ取得部216は、規定時間における被験者の眼の移動速度を示す移動速度データを取得して、規定時間における被験者の頭部の移動速度を導出する。また、移動データ取得部216は、規定時間における被験者の眼の移動ベクトルの変曲点の数を示す変曲点データを取得して、規定時間における被験者の頭部の移動ベクトルの変曲点の数を導出する。   The movement data acquisition unit 216 acquires movement distance data indicating the movement distance of the subject's eyes at the specified time, and derives the movement distance of the subject's head at the specified time. In addition, the movement data acquisition unit 216 acquires movement speed data indicating the movement speed of the subject's eyes at the specified time, and derives the movement speed of the subject's head at the specified time. In addition, the movement data acquisition unit 216 acquires inflection point data indicating the number of inflection points of the movement vector of the subject's eye at the specified time, and the inflection point of the movement vector of the subject's head at the specified time. Deriving a number.

上述したように、注視点検出処理においては、被験者に赤外光が照射され、赤外光が照射された被験者の眼111がステレオカメラ装置102で撮影される。赤外光が照射された被験者の眼111の画像データは画像データ取得部206に取得される。位置検出部210は、画像データ取得部206で取得された眼111の画像データに基づいて、グローバル座標系における瞳孔112の中心を示す瞳孔中心112Cの位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼111の画像データに基づいて、グローバル座標系における角膜反射像113の中心を示す角膜反射中心113Cの位置データを検出する。   As described above, in the gazing point detection process, the subject is irradiated with infrared light, and the subject's eye 111 irradiated with the infrared light is photographed by the stereo camera device 102. The image data of the eye 111 of the subject irradiated with infrared light is acquired by the image data acquisition unit 206. Based on the image data of the eye 111 acquired by the image data acquisition unit 206, the position detection unit 210 detects position data of the pupil center 112C indicating the center of the pupil 112 in the global coordinate system. Further, the position detection unit 210 detects position data of the corneal reflection center 113C indicating the center of the corneal reflection image 113 in the global coordinate system based on the image data of the eye 111 acquired by the image data acquisition unit 206.

移動データ取得部216は、位置検出部210で検出された、瞳孔112の位置データ及び角膜反射像113の位置データの少なくとも一方を含む被験者の眼の位置データを取得して、被験者の眼の移動データを取得することができる。被験者の眼の移動データは、規定時間における被験者の眼の位置の変動状態を含む。移動データ取得部216は、位置検出部210で検出されるグローバル座標系における瞳孔112の位置データ及び角膜反射像113の位置データの少なくとも一方に基づいて、グローバル座標系における被験者の眼の移動データを取得することができる。移動データ取得部216は、被験者の眼の移動データを取得して、被験者の頭部の移動データを導出する。被験者の眼の移動データ又は頭部の移動データに基づいて、被験者のADHDのリスクが評価される。   The movement data acquisition unit 216 acquires the eye position data of the subject including at least one of the position data of the pupil 112 and the position data of the cornea reflection image 113 detected by the position detection unit 210, and moves the eye of the subject. Data can be acquired. The movement data of the subject's eye includes a variation state of the position of the subject's eye at a specified time. The movement data acquisition unit 216 obtains eye movement data of the subject in the global coordinate system based on at least one of the position data of the pupil 112 and the position data of the corneal reflection image 113 in the global coordinate system detected by the position detection unit 210. Can be acquired. The movement data acquisition unit 216 acquires movement data of the subject's eyes and derives movement data of the subject's head. A subject's risk of ADHD is assessed based on the subject's eye movement data or head movement data.

また、注視点検出部214は、グローバル座標系における被験者の瞳孔中心112Cと角膜反射中心113Cとの相対位置により、被験者の視線ベクトルを算出し、被験者の視線ベクトルと表示装置101の表示画面101Sとの交点である注視点を検出する。   The gaze point detection unit 214 calculates the subject's gaze vector based on the relative position between the subject's pupil center 112C and the corneal reflection center 113C in the global coordinate system, and the subject's gaze vector and the display screen 101S of the display device 101. The point of gaze that is the intersection of is detected.

すなわち、本実施形態においては、画像データ取得部206に取得される眼111の画像データに基づいて、グローバル座標系で規定される被験者の眼の移動データが取得される。また、画像データ取得部206に取得される眼111の画像データに基づいて、表示装置101の表示画面101Sにおける被験者の注視点の位置データが取得される。   That is, in the present embodiment, based on the image data of the eye 111 acquired by the image data acquisition unit 206, the eye movement data of the subject defined by the global coordinate system is acquired. Further, based on the image data of the eye 111 acquired by the image data acquisition unit 206, the position data of the subject's gazing point on the display screen 101S of the display device 101 is acquired.

図13は、定型発達の被験者の眼の移動データを模式的に示す図である。図13は、3次元のグローバル座標系における被験者の眼の移動軌跡を模式的に示す図である。また、図13は、規定時間における被験者の眼の移動軌跡を示す。なお、図13においては、被験者の眼が2次元平面内で移動するように示されているが、実際には、被験者の眼は3次元空間において移動する。   FIG. 13 is a diagram schematically showing movement data of the eyes of a subject with a standard development. FIG. 13 is a diagram schematically illustrating the movement trajectory of the subject's eye in the three-dimensional global coordinate system. FIG. 13 shows the movement trajectory of the subject's eye during the specified time. In FIG. 13, the subject's eyes are shown moving in a two-dimensional plane, but actually, the subject's eyes move in a three-dimensional space.

被験者の眼の移動データは、グローバル座標系における瞳孔112の移動データ及び角膜反射像113の移動データの少なくとも一方を含む。図9のステップS107などで説明したように、位置検出部210は、グローバル座標系における瞳孔112の中心を示す瞳孔中心112Cの位置データ及び角膜反射像113の中心を示す角膜反射中心113Cの位置データを検出することができる。以下の説明においては、説明の簡略化のため、被験者の眼の移動データが、被験者の瞳孔112の移動データ又は瞳孔中心112Cの移動データであることとする。なお、上述のように、被験者の眼の移動データは、被験者の角膜反射像113の移動データ又は角膜反射中心113Cの移動データでもよい。   The eye movement data of the subject includes at least one of movement data of the pupil 112 and movement data of the cornea reflection image 113 in the global coordinate system. As described in step S107 of FIG. 9 and the like, the position detection unit 210 includes position data of the pupil center 112C indicating the center of the pupil 112 in the global coordinate system and position data of the cornea reflection center 113C indicating the center of the cornea reflection image 113. Can be detected. In the following description, for simplification of description, it is assumed that the movement data of the subject's eyes is movement data of the pupil 112 or movement data of the pupil center 112C. As described above, the movement data of the subject's eyes may be movement data of the corneal reflection image 113 of the subject or movement data of the corneal reflection center 113C.

本実施形態においては、被験者の眼の移動データは、規定時間における被験者の眼の移動距離、規定時間における被験者の眼の移動速度、及び規定時間における被験者の眼の移動ベクトルの変曲点の数の少なくとも一つを含む。移動データ取得部216は、予め定められた規定時間において、被験者の瞳孔112の位置データを規定のサンプリング周期で複数取得し、取得した瞳孔112の複数の位置データに基づいて、被験者の瞳孔112の移動データを取得する。   In this embodiment, the movement data of the subject's eyes includes the distance of movement of the subject's eyes at the specified time, the movement speed of the subject's eyes at the specified time, and the number of inflection points of the movement vector of the subject's eyes at the specified time. Including at least one of The movement data acquisition unit 216 acquires a plurality of position data of the subject's pupil 112 at a predetermined sampling period at a predetermined specified time, and based on the acquired plurality of position data of the pupil 112, Get movement data.

図13において、点S21は、規定時間の開始時点における瞳孔112の位置を示す。点E21は、規定時間の終了時点における瞳孔112の位置を示す。点A21は、瞳孔112の移動ベクトルの変曲点の位置である。図13のドット「●」で示す検出点は、規定のサンプリング周期で取得された瞳孔112の位置を示す。瞳孔112の移動軌跡は、複数の検出点を結ぶラインで示される。瞳孔112の移動ベクトルの変曲点とは、瞳孔112の移動ベクトルの方向が実質的に90[°]以上変化する点をいう。   In FIG. 13, a point S21 indicates the position of the pupil 112 at the start time of the specified time. Point E21 indicates the position of pupil 112 at the end of the specified time. Point A 21 is the position of the inflection point of the movement vector of pupil 112. A detection point indicated by a dot “●” in FIG. 13 indicates the position of the pupil 112 acquired at a specified sampling period. The movement trajectory of the pupil 112 is indicated by a line connecting a plurality of detection points. The inflection point of the movement vector of the pupil 112 is a point where the direction of the movement vector of the pupil 112 substantially changes by 90 [°] or more.

点S21と点E21との間のラインで示す瞳孔112の移動軌跡が長いほど、規定時間における瞳孔112の移動距離が長く、ラインで示す瞳孔112の移動軌跡が短いほど、規定時間における瞳孔112の移動距離が短いことを示す。また、検出点の間隔が大きいほど、瞳孔112の移動速度が高く、検出点の間隔が小さいほど、瞳孔112の移動速度が低いことを示す。   The longer the movement trajectory of the pupil 112 indicated by the line between the points S21 and E21, the longer the movement distance of the pupil 112 at the specified time, and the shorter the movement trajectory of the pupil 112 indicated by the line, the shorter the movement trajectory of the pupil 112 at the specified time. Indicates that the moving distance is short. Also, the larger the detection point interval, the higher the moving speed of the pupil 112, and the smaller the detection point interval, the lower the moving speed of the pupil 112.

定型発達の被験者は、頭部又は体全体を大きく揺らさない。図13に示すように、定型発達の被験者においては、規定時間における瞳孔112の移動距離は短く、移動速度は低い。また、規定時間における瞳孔112の移動ベクトルの変曲点の数は少ない。   A subject with typical development does not shake the head or the entire body. As shown in FIG. 13, in a subject with a fixed development, the moving distance of the pupil 112 at a specified time is short and the moving speed is low. In addition, the number of inflection points of the movement vector of the pupil 112 at the specified time is small.

図14は、ADHDの被験者の眼の移動データを模式的に示す図である。図14は、3次元のグローバル座標系における被験者の眼の移動軌跡を模式的に示す図である。また、図14は、規定時間における被験者の眼の移動軌跡を示す。図13を参照して説明した定型発達の被験者の眼の移動軌跡についての規定時間と、図14を参照して説明するADHDの被験者の眼の移動軌跡についての規定時間とは、等しい。   FIG. 14 is a diagram schematically illustrating eye movement data of a subject with ADHD. FIG. 14 is a diagram schematically illustrating the movement trajectory of the subject's eye in the three-dimensional global coordinate system. FIG. 14 shows the movement trajectory of the subject's eye during the specified time. The specified time for the eye movement trajectory of the routinely developed subject described with reference to FIG. 13 is equal to the specified time for the eye movement trajectory of the ADHD subject described with reference to FIG.

図14において、点S22は、規定時間の開始時点における瞳孔112の位置を示す。点E22は、規定時間の終了時点における瞳孔112の位置を示す。点A22(A22a,A22b,A22c,A22d,A22e)は、瞳孔112の移動ベクトルの変曲点の位置である。図14のドット「●」で示す検出点は、規定のサンプリング周期で取得された瞳孔112の位置を示す。瞳孔112の移動軌跡は、複数の検出点を結ぶラインで示される。   In FIG. 14, a point S22 indicates the position of the pupil 112 at the start time of the specified time. Point E22 indicates the position of pupil 112 at the end of the specified time. The point A22 (A22a, A22b, A22c, A22d, A22e) is the position of the inflection point of the movement vector of the pupil 112. A detection point indicated by a dot “●” in FIG. 14 indicates the position of the pupil 112 acquired at a specified sampling period. The movement trajectory of the pupil 112 is indicated by a line connecting a plurality of detection points.

点S22と点E22との間のラインで示す瞳孔112の移動軌跡が長いほど、規定時間における瞳孔112の移動距離が長く、ラインで示す瞳孔112の移動軌跡が短いほど、規定時間における瞳孔112の移動距離が短いことを示す。また、検出点の間隔が大きいほど、瞳孔112の移動速度が高く、検出点の間隔が小さいほど、瞳孔112の移動速度が低いことを示す。   The longer the movement trajectory of the pupil 112 indicated by the line between the points S22 and E22, the longer the movement distance of the pupil 112 at the specified time, and the shorter the movement trajectory of the pupil 112 indicated by the line, the shorter the movement trajectory of the pupil 112 at the specified time. Indicates that the moving distance is short. Also, the larger the detection point interval, the higher the moving speed of the pupil 112, and the smaller the detection point interval, the lower the moving speed of the pupil 112.

ADHDの被験者は、頭部又は体全体を頻繁に揺らす傾向にある。図14に示すように、ADHDの被験者においては、規定時間における瞳孔112の移動距離は長く、移動速度は高い。また、規定時間における瞳孔112の移動ベクトルの変曲点の数は多い。   ADHD subjects tend to rock their head or entire body frequently. As shown in FIG. 14, in an ADHD subject, the moving distance of the pupil 112 at a specified time is long and the moving speed is high. In addition, the number of inflection points of the movement vector of the pupil 112 during the specified time is large.

このように、定型発達の被験者とADHDの被験者とでは、同一の規定時間において、瞳孔112の移動距離、移動速度、及び移動ベクトルの変曲点の数が異なる。同一の規定時間において、ADHDの被験者の瞳孔112の移動距離は、定型発達の被験者の瞳孔112の移動距離よりも長い。同一の規定時間において、ADHDの被験者の瞳孔112の移動速度は、定型発達の被験者の瞳孔112の移動速度よりも高い。同一の規定時間において、ADHDの被験者の瞳孔112の移動ベクトルの変曲点の数は、定型発達の被験者の瞳孔112の移動ベクトルの変曲点の数よりも多い。   As described above, the subject with normal development and the subject with ADHD have different moving distance, moving speed, and number of inflection points of the moving vector in the same specified time. At the same specified time, the moving distance of the pupil 112 of the ADHD subject is longer than the moving distance of the pupil 112 of the normal development subject. At the same specified time, the moving speed of the pupil 112 of the ADHD subject is higher than the moving speed of the pupil 112 of the normal development subject. At the same specified time, the number of inflection points of the movement vector of the pupil 112 of the subject with ADHD is larger than the number of inflection points of the movement vector of the pupil 112 of the subject with regular development.

図15は、本実施形態に係る被験者の眼の移動データの取得方法の一例を説明するための模式図である。図15において、被験者の眼が2次元平面内で移動するように示されているが、実際には、被験者の眼は3次元空間において移動する。   FIG. 15 is a schematic diagram for explaining an example of a method for acquiring eye movement data of a subject according to the present embodiment. In FIG. 15, the subject's eyes are shown moving in a two-dimensional plane, but in actuality, the subject's eyes move in a three-dimensional space.

規定のサンプリング周期で瞳孔112の位置データが検出される。本実施形態においては、移動データ取得部216は、規定のサンプリング周期で検出された瞳孔112の位置についての移動平均を算出する。   The position data of the pupil 112 is detected at a predetermined sampling period. In the present embodiment, the movement data acquisition unit 216 calculates a moving average for the position of the pupil 112 detected at a specified sampling period.

図15において、ドット「●」で示す検出点は、規定のサンプリング周期で位置検出部210により検出された、グローバル座標系における瞳孔112の位置を示す。「△」で示す移動平均点は、移動データ取得部216において10ポイントの検出点に基づいて算出された移動平均点を示す。   In FIG. 15, the detection point indicated by the dot “●” indicates the position of the pupil 112 in the global coordinate system detected by the position detection unit 210 at a specified sampling period. A moving average point indicated by “Δ” indicates a moving average point calculated based on 10 detection points in the moving data acquisition unit 216.

本実施形態において、規定時間における被験者の瞳孔112の移動軌跡は、複数の移動平均点を結ぶ移動平均軌跡を含む。   In the present embodiment, the movement trajectory of the pupil 112 of the subject at the specified time includes a moving average trajectory connecting a plurality of moving average points.

図16は、グローバル座標系における移動平均点と移動距離との関係を模式的に示す図である。移動データ取得部216は、複数の移動平均点を結ぶラインによって規定される移動平均軌跡に基づいて、規定時間における瞳孔112の移動距離を導出する。瞳孔112の移動距離は、3次元のグローバル座標系における移動距離である。移動データ取得部216は、グローバル座標系における複数の移動平均点Pnの座標(xn,yn,zn)を算出する。複数の移動平均点Pnの間の距離の合計が、規定時間における瞳孔112の移動距離である。図16は、一例として、移動平均点P1の座標(x1,y1,z1)、移動平均点P2の座標(x2,y2,z2)、及び移動平均点P3の座標(x3,y3,z3)を示す。瞳孔112の移動距離は、移動平均点P1と移動平均点P2との距離d12と、移動平均点P2と移動平均点P3との距離d23との合計である。   FIG. 16 is a diagram schematically showing the relationship between the moving average point and the moving distance in the global coordinate system. The movement data acquisition unit 216 derives the movement distance of the pupil 112 at a specified time based on a moving average locus defined by a line connecting a plurality of moving average points. The moving distance of the pupil 112 is a moving distance in a three-dimensional global coordinate system. The movement data acquisition unit 216 calculates the coordinates (xn, yn, zn) of a plurality of moving average points Pn in the global coordinate system. The sum of the distances between the plurality of moving average points Pn is the moving distance of the pupil 112 during the specified time. FIG. 16 shows, as an example, coordinates (x1, y1, z1) of the moving average point P1, coordinates (x2, y2, z2) of the moving average point P2, and coordinates (x3, y3, z3) of the moving average point P3. Show. The moving distance of the pupil 112 is the sum of the distance d12 between the moving average point P1 and the moving average point P2 and the distance d23 between the moving average point P2 and the moving average point P3.

また、移動データ取得部216は、複数の移動平均点を結ぶラインによって規定される移動平均軌跡に基づいて、規定時間における瞳孔112の移動速度、及び規定時間における瞳孔112の移動ベクトルの変曲点の数を導出する。   In addition, the movement data acquisition unit 216 has an inflection point of the moving speed of the pupil 112 at a specified time and an inflection point of the movement vector of the pupil 112 at a specified time based on a moving average locus defined by a line connecting a plurality of moving average points. Deriving the number of

位置検出部210で検出された複数の検出点の座標の移動平均が算出され、移動平均点の座標が算出されることにより、瞳孔112の移動データの精度が向上する。位置検出部210は、ステレオカメラ装置102で取得された画像データのうち小範囲を占める瞳孔112の画像データに基づいて検出点を算出する。瞳孔112の画像データに含まれるノイズなどの影響により、検出点の位置データに誤差が含まれる可能性が高い。本実施形態によれば、移動データ取得部216は、位置検出部210で検出された検出点から移動平均点を算出し、算出した移動平均点に基づいて、瞳孔112の移動データを取得する。したがって、誤差が抑制された瞳孔112の移動データが取得される。   The moving average of the coordinates of a plurality of detection points detected by the position detection unit 210 is calculated, and the coordinates of the moving average point are calculated, so that the accuracy of the moving data of the pupil 112 is improved. The position detection unit 210 calculates a detection point based on the image data of the pupil 112 occupying a small range among the image data acquired by the stereo camera device 102. Due to the influence of noise or the like included in the image data of the pupil 112, there is a high possibility that the position data of the detection point includes an error. According to the present embodiment, the movement data acquisition unit 216 calculates a movement average point from the detection points detected by the position detection unit 210, and acquires movement data of the pupil 112 based on the calculated movement average point. Therefore, movement data of the pupil 112 in which the error is suppressed is acquired.

なお、移動データ取得部216は、複数の検出点を最小二乗法に基づいてフィッティングして、瞳孔112の移動軌跡を含む移動データを取得してもよい。   Note that the movement data acquisition unit 216 may acquire movement data including the movement locus of the pupil 112 by fitting a plurality of detection points based on the least square method.

なお、移動データ取得部216は、被験者の左右の眼それぞれの位置データを取得し、左右の眼それぞれの位置データに基づいて、被験者の眼の移動距離、移動速度、及び移動ベクトルの変曲点の数の少なくとも一つを含む被験者の眼の移動データを取得してもよい。移動データ取得部216は、被験者の左の眼の移動データ、及び被験者の右の眼の移動データのそれぞれを取得して、被験者の左の眼の移動データと被験者の右の眼の移動データとを平均化することにより、眼の移動データを高精度に取得することができる。   The movement data acquisition unit 216 acquires position data of the left and right eyes of the subject, and based on the position data of the left and right eyes, the movement distance, movement speed, and inflection point of the movement vector of the subject's eyes The eye movement data of the subject including at least one of the numbers may be acquired. The movement data acquisition unit 216 acquires the movement data of the subject's left eye and the movement data of the subject's right eye, respectively, and the movement data of the subject's left eye and the movement data of the subject's right eye, The eye movement data can be acquired with high accuracy.

(診断支援処理)
次に、本実施形態に係る診断支援方法の一例について説明する。図17は、本実施形態に係る診断支援方法の一例を示すフローチャートである。なお、図17に示す診断支援処理の前に、図9を参照して説明したキャリブレーション処理が実施される。
(Diagnosis support processing)
Next, an example of the diagnosis support method according to the present embodiment will be described. FIG. 17 is a flowchart illustrating an example of the diagnosis support method according to the present embodiment. Note that the calibration process described with reference to FIG. 9 is performed before the diagnosis support process shown in FIG.

表示制御部202は、図12を参照して説明した診断画像を表示装置101に表示させる。   The display control unit 202 causes the display device 101 to display the diagnostic image described with reference to FIG.

被験者には、表示装置101に表示された診断画像を注視するように指示がなされる。本実施形態において、被験者には、表示装置101の表示画面101Sの中央の領域A1の画像を注視するように指示がなされる。出力制御部228は、被験者に領域A1の画像を注視させるために、「中央の画像をじっと見てください」のような音声を音声出力装置70から出力させる(ステップS301)。   The subject is instructed to watch the diagnostic image displayed on the display device 101. In the present embodiment, the subject is instructed to watch the image of the central area A1 of the display screen 101S of the display device 101. The output control unit 228 causes the voice output device 70 to output a sound such as “please look at the center image” in order to cause the subject to gaze at the image of the area A1 (step S301).

本実施形態において、表示制御部202は、領域A1に動画を表示させる。表示制御部202は、動画の再生を開始する(ステップS302)。   In the present embodiment, the display control unit 202 displays a moving image in the area A1. The display control unit 202 starts playing a moving image (step S302).

表示制御部202は、動画の再生時間を管理するタイマをリセットする(ステップS303)。本実施形態において、動画の再生時間は、被験者の眼の移動データについての規定時間に設定される。   The display control unit 202 resets a timer that manages the playback time of the moving image (step S303). In the present embodiment, the playback time of the moving image is set to a specified time for the eye movement data of the subject.

エリア設定部218は、表示装置101の表示画面101Sにおいて、動画が表示される領域A1を第1の特定エリアに設定する。また、エリア設定部218は、表示装置101の表示画面101Sにおいて、イラスト又はアニメーションが表示される領域A2を第2の特定エリアに設定する。また、エリア設定部218は、表示装置101の表示画面101Sにおいて、幾何学模様を含む画像が表示される領域A3を第3の特定エリアに設定する。   The area setting unit 218 sets an area A1 in which a moving image is displayed as a first specific area on the display screen 101S of the display device 101. Further, the area setting unit 218 sets an area A2 where an illustration or animation is displayed on the display screen 101S of the display device 101 as a second specific area. In addition, the area setting unit 218 sets an area A3 in which an image including a geometric pattern is displayed as a third specific area on the display screen 101S of the display device 101.

評価部226は、被験者の注視点が第1の特定エリアである領域A1に存在した存在時間を算出するためのカウンタCA1と、被験者の注視点が第2の特定エリアである領域A2及び第3の特定エリアである領域A3の少なくとも一方に存在した存在時間を算出するためのカウンタCA23をリセットする(ステップS304)。   The evaluation unit 226 includes a counter CA1 for calculating the existence time in which the subject's gaze point is in the region A1 that is the first specific area, and the regions A2 and 3 that have the subject's gaze point in the second specific area. The counter CA23 for calculating the existence time existing in at least one of the areas A3, which is the specific area, is reset (step S304).

注視点検出部214は、表示画面101Sにおける被験者の注視点を検出する(ステップS305)。注視点の検出は、図11を参照して説明したステップS200の手順に従って実施される。   The gaze point detection unit 214 detects the gaze point of the subject on the display screen 101S (step S305). The detection of the gazing point is performed according to the procedure of step S200 described with reference to FIG.

注視点検出部214は、規定のサンプリング周期で、表示画面101Sにおける被験者の注視点の位置を検出する。本実施形態において、注視点検出部214は、ステレオカメラ装置102からフレーム同期信号が出力される度に、被験者の注視点の位置を検出する。換言すれば、注視点検出部214は、ステレオカメラ装置102の1フレーム毎に、注視点を検出する。注視点が特定エリアに存在した存在時間は、1フレーム毎に検出された注視点と特定エリアとの相対位置に基づいて算出される。   The gazing point detection unit 214 detects the position of the gazing point of the subject on the display screen 101S at a specified sampling period. In the present embodiment, the gazing point detection unit 214 detects the position of the gazing point of the subject every time a frame synchronization signal is output from the stereo camera device 102. In other words, the gazing point detection unit 214 detects the gazing point for each frame of the stereo camera device 102. The existence time in which the gazing point is present in the specific area is calculated based on the relative position between the gazing point detected for each frame and the specific area.

注視点検出部214は、注視点の検出が失敗したか否かを判定する(ステップS306)。例えば、被験者が瞬きすることにより、注視点の検出が失敗する場合がある。   The gaze point detection unit 214 determines whether or not the gaze point detection has failed (step S306). For example, the gaze point may fail to be detected when the subject blinks.

ステップS306において、注視点の検出が失敗したと判定された場合(ステップS306:Yes)、ステップS315の処理が実施される。   In Step S306, when it is determined that the detection of the gazing point has failed (Step S306: Yes), the process of Step S315 is performed.

ステップS306において、注視点の検出が成功したと判定された場合(ステップS306:No)、移動データ取得部216は、グローバル座標系における右眼の瞳孔中心112Cの位置データ、及び左眼の瞳孔中心112Cの位置データを取得する(ステップS307)。   When it is determined in step S306 that the detection of the gazing point is successful (step S306: No), the movement data acquisition unit 216 determines the position data of the right-eye pupil center 112C and the left-eye pupil center in the global coordinate system. The position data of 112C is acquired (step S307).

記憶部226は、移動データ取得部216によって取得されたグローバル座標系における右眼の瞳孔中心112Cの位置データ、及び左眼の瞳孔中心112Cの位置データを記憶する(ステップS308)。   The storage unit 226 stores the position data of the right-eye pupil center 112C and the position data of the left-eye pupil center 112C in the global coordinate system acquired by the movement data acquisition unit 216 (step S308).

次に、評価部226は、注視点の位置データに基づいて、エリア設定部218で設定された複数の特定エリアのうち、注視点が存在する特定エリアを検出する(ステップS309)。   Next, the evaluation unit 226 detects a specific area where the gazing point exists among the plurality of specific areas set by the area setting unit 218 based on the position data of the gazing point (step S309).

判定部220は、注視点の位置データに基づいて、注視点が第1の特定エリアである領域A1に存在するか否かを判定する(ステップS310)。   Based on the position data of the gazing point, the determination unit 220 determines whether or not the gazing point exists in the area A1 that is the first specific area (step S310).

ステップS310において、注視点が領域A1に存在すると判定された場合(ステップS310:Yes)、評価部226は、カウンタCA1をインクリメントする(ステップS311)。   In step S310, when it is determined that the gazing point exists in the area A1 (step S310: Yes), the evaluation unit 226 increments the counter CA1 (step S311).

ステップS310において、注視点が領域A1に存在しないと判定された場合(ステップS310:No)、判定部220は、注視点の位置データに基づいて、注視点が第2の特定エリアである領域A2に存在するか否かを判定する(ステップS312)。   When it is determined in step S310 that the gazing point does not exist in the area A1 (step S310: No), the determination unit 220 determines, based on the position data of the gazing point, the area A2 in which the gazing point is the second specific area. (Step S312).

ステップS312において、注視点が領域A2に存在すると判定された場合(ステップS312:Yes)、評価部226は、カウンタCA23をインクリメントする(ステップS314)。   In Step S312, when it is determined that the gazing point is present in the area A2 (Step S312: Yes), the evaluation unit 226 increments the counter CA23 (Step S314).

ステップS312において、注視点が領域A2に存在しないと判定された場合(ステップS312:No)、判定部220は、注視点の位置データに基づいて、注視点が第3の特定エリアである領域A3に存在するか否かを判定する(ステップS313)。   When it is determined in step S312 that the gazing point does not exist in the area A2 (step S312: No), the determination unit 220 determines, based on the position data of the gazing point, the area A3 in which the gazing point is the third specific area. (Step S313).

ステップS313において、注視点が領域A3に存在すると判定された場合(ステップS313:Yes)、評価部226は、カウンタCA23をインクリメントする(ステップS314)。   In step S313, when it is determined that the gazing point exists in the area A3 (step S313: Yes), the evaluation unit 226 increments the counter CA23 (step S314).

ステップS313において、注視点が領域A3に存在しないと判定された場合(ステップS313:No)、ステップS315の処理が実施される。ステップS313において、注視点が領域A3に存在しないと判定されることは、エリア設定部218において設定された特定エリアである領域A1、領域A2、及び領域A3に注視点が存在しないことを意味する。   If it is determined in step S313 that the gazing point does not exist in the area A3 (step S313: No), the process of step S315 is performed. In step S313, determining that the gazing point does not exist in the area A3 means that there is no gazing point in the areas A1, A2, and A3, which are the specific areas set in the area setting unit 218. .

次に、表示制御部202は、タイマに基づいて、領域A1における動画の再生時間が規定時間を経過したか否かを判定する(ステップS315)。   Next, the display control unit 202 determines whether or not the playback time of the moving image in the area A1 has passed the specified time based on the timer (step S315).

ステップS315において、動画の再生時間が規定時間を経過していないと判定された場合(ステップS315:No)、ステップS305に戻り、注視点検出が継続される。   If it is determined in step S315 that the playback time of the moving image has not passed the specified time (step S315: No), the process returns to step S305, and gazing point detection is continued.

ステップS315において、動画の再生時間が規定時間を経過したと判定された場合(ステップS315:Yes)、表示制御部202は、領域A1における動画の再生を停止させる(ステップS316)。   If it is determined in step S315 that the playback time of the moving image has passed the specified time (step S315: Yes), the display control unit 202 stops the playback of the moving image in the area A1 (step S316).

本実施形態において、被験者の瞳孔中心112Cの移動データを評価するときの規定時間は、領域A1における動画の再生が開始されてから動画の再生が停止されるまでの時間である。図13を参照して説明した点S21及び図14を参照して説明した点S22は、動画の再生が開始されたときに検出された被験者の瞳孔中心112Cの位置を含む。図13を参照して説明した点E21及び図14を参照して説明した点E22は、動画の再生が停止されたときに検出された被験者の瞳孔中心112Cの位置を含む。   In the present embodiment, the prescribed time when evaluating the movement data of the subject's pupil center 112C is the time from the start of the playback of the movie in the area A1 to the stop of the playback of the movie. The point S21 described with reference to FIG. 13 and the point S22 described with reference to FIG. 14 include the position of the pupil center 112C of the subject detected when the reproduction of the moving image is started. The point E21 described with reference to FIG. 13 and the point E22 described with reference to FIG. 14 include the position of the pupil center 112C of the subject detected when the reproduction of the moving image is stopped.

次に、移動データ取得部216は、規定時間における被験者の右眼の瞳孔中心112Cの移動距離、規定時間における被験者の右眼の瞳孔中心112Cの移動速度、及び規定時間における被験者の右眼の瞳孔中心112Cの移動ベクトルを含む移動データを取得する。また、移動データ取得部216は、規定時間における被験者の左眼の瞳孔中心112Cの移動距離、規定時間における被験者の左眼の瞳孔中心112Cの移動速度、及び規定時間における被験者の左眼の瞳孔中心112Cの移動ベクトルを含む移動データを取得する(ステップS317)。   Next, the movement data acquisition unit 216 moves the moving distance of the pupil center 112C of the right eye of the subject at the specified time, the moving speed of the pupil center 112C of the right eye of the subject at the specified time, and the pupil of the right eye of the subject at the specified time. Movement data including the movement vector of the center 112C is acquired. In addition, the movement data acquisition unit 216 moves the moving distance of the pupil center 112C of the subject's left eye at the specified time, the moving speed of the pupil center 112C of the subject's left eye at the specified time, and the pupil center of the left eye of the subject at the specified time. Movement data including the movement vector of 112C is acquired (step S317).

瞳孔中心112Cの移動ベクトルは、瞳孔中心112Cの移動方向を含む。瞳孔中心112Cの移動ベクトルが算出されることにより、移動データ取得部216は、瞳孔中心112Cの移動ベクトルの変曲点の数を導出することができる。   The movement vector of the pupil center 112C includes the movement direction of the pupil center 112C. By calculating the movement vector of the pupil center 112C, the movement data acquisition unit 216 can derive the number of inflection points of the movement vector of the pupil center 112C.

また、移動データ取得部216は、右眼の瞳孔中心112Cの移動データと左眼の瞳孔中心112Cの移動データとの平均値を算出する(ステップS318)。   Further, the movement data acquisition unit 216 calculates an average value of the movement data of the right-eye pupil center 112C and the movement data of the left-eye pupil center 112C (step S318).

右眼の瞳孔中心112Cの移動データと左眼の瞳孔中心112Cの移動データとの平均値は、右眼の瞳孔中心112Cの移動距離と左眼の瞳孔中心112Cの移動距離との平均値、右眼の瞳孔中心112Cの移動速度と左眼の瞳孔中心112Cの移動速度との平均値、及び右眼の瞳孔中心112Cの移動ベクトルの変曲点の数と左眼の瞳孔中心112Cの移動ベクトルの変曲点の数との平均値を含む。   The average value of the movement data of the right eye pupil center 112C and the movement data of the left eye pupil center 112C is the average value of the movement distance of the right eye pupil center 112C and the left eye pupil center 112C, right The average value of the moving speed of the pupil center 112C of the eye and the moving speed of the pupil center 112C of the left eye, the number of inflection points of the moving vector of the pupil center 112C of the right eye, and the moving vector of the pupil center 112C of the left eye Including the average value with the number of inflection points.

例えば被験者が左眼及び右眼のいずれか一方の瞼を閉じてしまい、被験者の左右の眼のいずれか一方の眼の瞳孔中心112Cの移動データのみが取得された場合でも、右眼の瞳孔中心112Cの移動データと左眼の瞳孔中心112Cの移動データとの平均値が算出されることにより、取得される眼の移動データの精度の低下が抑制される。   For example, even when the subject closes the eyelid of either the left eye or the right eye and only movement data of the pupil center 112C of either the left or right eye of the subject is acquired, the pupil center of the right eye By calculating the average value of the movement data of 112C and the movement data of the pupil center 112C of the left eye, a decrease in the accuracy of the acquired eye movement data is suppressed.

次に、評価演算が実施される。評価演算は、瞳孔移動評価演算、注視点評価演算、及び総合評価演算を含む。瞳孔移動評価演算は、被験者の瞳孔中心112Cの移動データに基づいて、被験者の頭部の移動状態についての評価データを算出する処理である。注視点評価演算は、被験者の注視点の位置データに基づいて、被験者の注視点の移動状態についての評価データを算出する処理である。総合評価演算は、瞳孔移動評価演算で算出された評価データと注視点評価演算で算出された評価データとに基づいて、被験者のADHDのリスクについての評価データを算出する処理である。   Next, an evaluation operation is performed. The evaluation calculation includes a pupil movement evaluation calculation, a gaze point evaluation calculation, and a comprehensive evaluation calculation. The pupil movement evaluation calculation is a process of calculating evaluation data regarding the movement state of the subject's head based on the movement data of the subject's pupil center 112C. The gazing point evaluation calculation is a process of calculating evaluation data on the movement state of the subject's gazing point based on the position data of the gazing point of the subject. The comprehensive evaluation calculation is a process of calculating evaluation data regarding the risk of ADHD of the subject based on the evaluation data calculated by the pupil movement evaluation calculation and the evaluation data calculated by the gaze point evaluation calculation.

演算部222は、瞳孔移動評価演算を実施する(ステップS319)。本実施形態において、演算部222は、(1)式の評価関数の演算を実施する。   The calculation unit 222 performs pupil movement evaluation calculation (step S319). In the present embodiment, the calculation unit 222 performs the calculation of the evaluation function of equation (1).

Ans1=(K1×dis)+(K2×sp)+(K3×n) …(1)
但し、
Ans1:評価値、
dis:移動距離、
sp:移動速度、
n:変曲点の数、
K1:移動距離についての重み係数、
K2:移動速度についての重み係数、
K3:変曲点の数についての重み係数、
である。
Ans1 = (K1 × dis) + (K2 × sp) + (K3 × n) (1)
However,
Ans1: Evaluation value,
dis: distance traveled,
sp: moving speed,
n: number of inflection points,
K1: weighting factor for travel distance,
K2: weighting factor for moving speed,
K3: weighting factor for the number of inflection points,
It is.

本実施形態において、移動速度spは、規定時間における平均移動速度である。重み係数K1,K2,K3は、例えば過去において複数の被験者から収集された多数のデータに基づいて適宜設定されてもよいし、被験者の状態に応じて適宜設定されてもよい。   In the present embodiment, the moving speed sp is an average moving speed at a specified time. The weighting factors K1, K2, and K3 may be set as appropriate based on, for example, a large number of data collected from a plurality of subjects in the past, or may be set as appropriate according to the state of the subjects.

評価値Ans1は、被験者の頭部の移動状態についての評価データを示す。評価値Ans1が大きいほど、被験者の頭部が大きく移動したり速く移動したり振動するように移動したりすることを意味する。評価値Ans1は、被験者の頭部の変動状態の評価値を示すため、評価値Ans1が大きいほど、被験者のADHDのリスクが高いことを意味する。   The evaluation value Ans1 indicates evaluation data regarding the moving state of the subject's head. A larger evaluation value Ans1 means that the subject's head moves more greatly, moves faster, or vibrates. Since the evaluation value Ans1 indicates the evaluation value of the variation state of the subject's head, the larger the evaluation value Ans1, the higher the risk of ADHD for the subject.

次に、演算部222は、注視点評価演算を実施する(ステップS320)。本実施形態において、演算部222は、カウンタCA1の計数値とカウンタCA23の計数値との比を評価値として算出する。カウンタCA1の計数値は、注視点が第1の特定エリアである領域A1に存在した存在時間を示す時間データを示す。カウンタCA23の計数値は、注視点が第2の特定エリアである領域A2及び第3の特定エリアである領域A3の少なくとも一方に存在した存在時間を示す時間データを示す。演算部222は、ステップS310における判定部220の判定データに基づいて、カウンタCA1をインクリメントし、注視点が第1の特定エリアである領域A1に存在した存在時間を示す時間データを算出する。演算部222は、ステップS312及びステップS313における判定部220の判定データに基づいて、カウンタCA23をインクリメントし、注視点が第2の特定エリアである領域A2及び第3の特定エリアである領域A3の少なくとも一方に存在した存在時間を示す時間データを算出する。   Next, the calculating part 222 performs a gaze point evaluation calculation (step S320). In the present embodiment, the calculation unit 222 calculates a ratio between the count value of the counter CA1 and the count value of the counter CA23 as an evaluation value. The count value of the counter CA1 indicates time data indicating the presence time in which the gazing point is present in the area A1 which is the first specific area. The count value of the counter CA23 indicates time data indicating the existence time in which the gazing point exists in at least one of the area A2 that is the second specific area and the area A3 that is the third specific area. The calculation unit 222 increments the counter CA1 based on the determination data of the determination unit 220 in step S310, and calculates time data indicating the presence time in which the gazing point is present in the area A1 that is the first specific area. The calculation unit 222 increments the counter CA23 based on the determination data of the determination unit 220 in step S312 and step S313, and the region A2 in which the gazing point is the second specific area and the region A3 that is the third specific area. Time data indicating the existence time existing in at least one of them is calculated.

本実施形態において、評価部226は、(2)式の評価関数の演算を実施する。   In the present embodiment, the evaluation unit 226 performs the calculation of the evaluation function of equation (2).

Ans2=CA23/CA1 …(2)   Ans2 = CA23 / CA1 (2)

評価値Ans2は、被験者の注視点の移動状態についての評価データを示す。評価値Ans2が大きいほど、すなわちカウンタCA23の割合が高いほど、被験者は指示された領域A1を注視できていないことを意味する。評価値Ans2は、被験者の注視点の変動状態の評価値を示すため、評価値Ans2が大きいほど、被験者のADHDのリスクが高いことを意味する。   The evaluation value Ans2 indicates evaluation data regarding the movement state of the subject's gaze point. As the evaluation value Ans2 is larger, that is, as the ratio of the counter CA23 is higher, it means that the subject is not gazing at the designated area A1. Since the evaluation value Ans2 indicates the evaluation value of the variation state of the subject's gaze point, the larger the evaluation value Ans2, the higher the risk of the subject's ADHD.

次に、評価部226は、総合評価演算を実施する(ステップS321)。評価部226は、ステップS319で算出された被験者の瞳孔中心112Cの移動データについての評価値Ans1と、ステップS320で算出された注視点が特定エリアに存在した存在時間を示す時間データについての評価値Ans2とに基づいて、総合評価演算を実施して、被験者の評価データを出力する。   Next, the evaluation unit 226 performs a comprehensive evaluation calculation (step S321). The evaluation unit 226 evaluates the evaluation value Ans1 for the movement data of the subject's pupil center 112C calculated in step S319 and the evaluation value for the time data indicating the existence time in which the gazing point is present in the specific area calculated in step S320. Based on Ans2, comprehensive evaluation calculation is performed and the evaluation data of the subject is output.

本実施形態においては、評価部226は、(3)式の評価関数の演算を実施する。   In the present embodiment, the evaluation unit 226 performs the calculation of the evaluation function of Expression (3).

Ans3=(K4×Ans1)+(K5×Ans2) …(3)
但し、
K4:頭部の変動状態についての重み係数、
K5:注視点の変動状態についての重み係数、
である。
Ans3 = (K4 × Ans1) + (K5 × Ans2) (3)
However,
K4: a weighting factor for the variation state of the head,
K5: weighting factor for the changing state of the gazing point
It is.

重み係数K4,K5は、例えば過去において複数の被験者から収集された多数のデータに基づいて適宜設定されてもよいし、被験者の状態に応じて適宜設定されてもよい。   The weighting factors K4 and K5 may be set as appropriate based on, for example, a large number of data collected from a plurality of subjects in the past, or may be set as appropriate according to the state of the subjects.

次に、出力制御部228は、評価部226において算出された被験者の評価データである評価値Ans3を表示装置101又は出力装置50に出力する(ステップS322)。また、出力制御部228は、移動データ取得部216で取得された被験者の瞳孔中心112Cの移動データを表示装置101又は出力装置50に出力する。また、出力制御部228は、被験者の評価データである評価値Ans1及び評価値Ans2を表示装置101又は出力装置50に出力する。   Next, the output control unit 228 outputs the evaluation value Ans3, which is the evaluation data of the subject calculated by the evaluation unit 226, to the display device 101 or the output device 50 (step S322). Further, the output control unit 228 outputs the movement data of the pupil center 112 </ b> C of the subject acquired by the movement data acquisition unit 216 to the display device 101 or the output device 50. Further, the output control unit 228 outputs the evaluation value Ans1 and the evaluation value Ans2 that are evaluation data of the subject to the display device 101 or the output device 50.

出力制御部228は、被験者の評価データである評価値Ans1、評価値Ans2、及び評価値Ans3の少なくとも一つを表示装置101又は出力装置50に表示させる。また、出力制御部228は、被験者の瞳孔中心112Cの移動データを表示装置101又は出力装置50に表示させる。出力制御部228は、被験者の眼の移動データとして、例えば図13又は図14などを参照して説明した被験者の眼の移動軌跡の画像データを表示装置101又は出力装置50に表示させる。また、出力制御部228は、被験者の注視点の位置データを表示装置101又は出力装置50に表示させる。   The output control unit 228 causes the display device 101 or the output device 50 to display at least one of the evaluation value Ans1, the evaluation value Ans2, and the evaluation value Ans3, which are evaluation data of the subject. Further, the output control unit 228 causes the display device 101 or the output device 50 to display movement data of the subject's pupil center 112C. The output control unit 228 causes the display device 101 or the output device 50 to display the image data of the subject's eye movement trajectory described with reference to, for example, FIG. Further, the output control unit 228 causes the display device 101 or the output device 50 to display the position data of the subject's gaze point.

本実施形態において、評価部226は、評価値Ans1に基づいて、被験者のADHDのリスクが高いか否かを示す評価データを算出する。記憶部224には、評価値Ans1についての閾値を示す閾値データが記憶されている。評価値Ans1についての閾値は、例えば過去において複数の被験者から収集された多数のデータに基づいて予め規定される。評価部226は、記憶部224に記憶されている閾値データと、演算部222において算出された評価値Ans1とに基づいて、被験者の評価データを出力することができる。評価部226は、評価値Ans1が記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、評価値Ans1が記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   In the present embodiment, the evaluation unit 226 calculates evaluation data indicating whether or not the subject has a high risk of ADHD based on the evaluation value Ans1. The storage unit 224 stores threshold value data indicating a threshold value for the evaluation value Ans1. The threshold value for the evaluation value Ans1 is defined in advance based on, for example, a large number of data collected from a plurality of subjects in the past. The evaluation unit 226 can output the evaluation data of the subject based on the threshold data stored in the storage unit 224 and the evaluation value Ans1 calculated by the calculation unit 222. When the evaluation value Ans1 is less than the threshold value stored in the storage unit 224, the evaluation unit 226 can output first evaluation data indicating that the subject has a low risk of ADHD. The evaluation unit 226 can output second evaluation data indicating that the subject has a high risk of ADHD when the evaluation value Ans1 is equal to or greater than the threshold stored in the storage unit 224. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

(1)式に示したように、本実施形態においては、規定時間における被験者の瞳孔中心112Cの移動距離disが重み係数K1により重み付けされ、規定時間における被験者の瞳孔中心112Cの移動速度spが重み係数K2により重み付けされ、規定時間における被験者の瞳孔中心112Cの移動ベクトルの変曲点の数nが重み係数K3により重み付けされる。評価部226は、重み付けされた移動距離disと移動速度spと移動ベクトルの変曲点の数nとの和である評価値Ans1が閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力し、評価値Ans1が閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。   As shown in the equation (1), in this embodiment, the moving distance dis of the subject's pupil center 112C at the specified time is weighted by the weighting coefficient K1, and the moving speed sp of the subject's pupil center 112C at the specified time is weighted. Weighted by the coefficient K2, the number n of inflection points of the movement vector of the subject's pupil center 112C at the specified time is weighted by the weighting coefficient K3. The evaluation unit 226 indicates that the risk of ADHD of the subject is low when the evaluation value Ans1 that is the sum of the weighted moving distance dis, the moving speed sp, and the number n of inflection points of the moving vector is less than the threshold value. The first evaluation data is output, and when the evaluation value Ans1 is equal to or greater than the threshold value, the second evaluation data indicating that the subject has a high risk of ADHD can be output.

また、本実施形態において、評価部226は、評価値Ans2に基づいて、被験者のADHDのリスクが高いか否かを示す評価データを算出する。記憶部224には、評価値Ans2についての閾値を示す閾値データが記憶されている。評価値Ans2についての閾値は、例えば過去において複数の被験者から収集された多数のデータに基づいて予め規定される。評価部226は、記憶部224に記憶されている閾値データと、演算部222において算出された評価値Ans2とに基づいて、被験者の評価データを出力することができる。評価部226は、評価値Ans2が記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、評価値Ans2が記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   In the present embodiment, the evaluation unit 226 calculates evaluation data indicating whether or not the subject has a high risk of ADHD based on the evaluation value Ans2. The storage unit 224 stores threshold data indicating a threshold for the evaluation value Ans2. The threshold value for the evaluation value Ans2 is defined in advance based on, for example, a large number of data collected from a plurality of subjects in the past. The evaluation unit 226 can output the evaluation data of the subject based on the threshold data stored in the storage unit 224 and the evaluation value Ans2 calculated by the calculation unit 222. When the evaluation value Ans2 is less than the threshold value stored in the storage unit 224, the evaluation unit 226 can output first evaluation data indicating that the subject has a low risk of ADHD. The evaluation unit 226 can output second evaluation data indicating that the subject has a high risk of ADHD when the evaluation value Ans2 is equal to or greater than the threshold stored in the storage unit 224. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

また、本実施形態において、評価部226は、評価値Ans3に基づいて、被験者のADHDのリスクが高いか否かを示す評価データを算出する。記憶部224には、評価値Ans3についての閾値を示す閾値データが記憶されている。評価値Ans3についての閾値は、例えば過去において複数の被験者から収集された多数のデータに基づいて予め規定される。評価部226は、記憶部224に記憶されている閾値データと、演算部222において算出された評価値Ans3とに基づいて、被験者の評価データを出力することができる。評価部226は、評価値Ans3が記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、評価値Ans3が記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   In the present embodiment, the evaluation unit 226 calculates evaluation data indicating whether or not the subject has a high risk of ADHD based on the evaluation value Ans3. The storage unit 224 stores threshold data indicating a threshold for the evaluation value Ans3. The threshold value for the evaluation value Ans3 is defined in advance based on a large number of data collected from a plurality of subjects in the past, for example. The evaluation unit 226 can output the evaluation data of the subject based on the threshold data stored in the storage unit 224 and the evaluation value Ans3 calculated by the calculation unit 222. When the evaluation value Ans3 is less than the threshold value stored in the storage unit 224, the evaluation unit 226 can output first evaluation data indicating that the subject has a low risk of ADHD. The evaluation unit 226 can output second evaluation data indicating that the subject has a high risk of ADHD when the evaluation value Ans3 is equal to or greater than the threshold value stored in the storage unit 224. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

なお、(1)式に基づいて算出される評価値Ans1は、重み係数K1で重み付けされた移動距離disと、重み係数K2で重み付けされた移動速度spと、重み係数K3で重み付けされた変曲点の数nとの和である。移動距離dis、移動速度sp、及び変曲点の数nの少なくとも一つが重み付けされなくてもよい。また、評価部226は、移動距離disのみに基づいて被験者の評価データを出力してもよいし、移動速度spのみに基づいて被験者の評価データを出力してもよいし、変曲点の数nのみに基づいて被験者の評価データを出力してもよい。   Note that the evaluation value Ans1 calculated based on the equation (1) includes a moving distance dis weighted by the weighting factor K1, a moving speed sp weighted by the weighting factor K2, and an inflection weighted by the weighting factor K3. It is the sum of the number of points n. At least one of the moving distance dis, the moving speed sp, and the number of inflection points n may not be weighted. The evaluation unit 226 may output the subject's evaluation data based only on the moving distance dis, may output the subject's evaluation data based only on the moving speed sp, or the number of inflection points. The evaluation data of the subject may be output based only on n.

評価部226は、移動データ取得部216で取得された被験者の瞳孔中心112Cの移動データに基づいて、被験者のADHDのリスクが高いか否かを示す評価データを算出することができる。記憶部224には、被験者の瞳孔中心112Cの移動データについての閾値を示す閾値データが記憶されている。移動データについての閾値は、例えば複数の被験者から収集された多数のデータに基づいて予め規定される。評価部226は、記憶部224に記憶されている閾値データと、移動データ取得部216で取得された被験者の瞳孔中心112Cの移動データとに基づいて、被験者の評価データを出力することができる。   The evaluation unit 226 can calculate evaluation data indicating whether or not the subject has a high risk of ADHD based on the movement data of the pupil center 112C of the subject acquired by the movement data acquisition unit 216. The storage unit 224 stores threshold data indicating a threshold for movement data of the subject's pupil center 112C. The threshold for the movement data is defined in advance based on a large number of data collected from a plurality of subjects, for example. The evaluation unit 226 can output the evaluation data of the subject based on the threshold data stored in the storage unit 224 and the movement data of the pupil center 112C of the subject acquired by the movement data acquisition unit 216.

本実施形態において、記憶部224には、規定時間における被験者の瞳孔中心112Cの移動距離についての閾値が記憶されている。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動距離が、記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動距離が、記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   In the present embodiment, the storage unit 224 stores a threshold value for the moving distance of the subject's pupil center 112C during a specified time. The evaluation unit 226 indicates that the subject's ADHD risk is low when the movement distance of the subject's pupil center 112C acquired by the movement data acquisition unit 216 is less than the threshold stored in the storage unit 224. Evaluation data can be output. The evaluation unit 226 indicates that the subject's ADHD risk is high when the movement distance of the subject's pupil center 112C acquired by the movement data acquisition unit 216 is equal to or greater than a threshold stored in the storage unit 224. Evaluation data can be output. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

また、本実施形態において、記憶部224には、規定時間における被験者の瞳孔中心112Cの移動速度についての閾値が記憶されている。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動速度が、記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動速度が、記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   In the present embodiment, the storage unit 224 stores a threshold value for the moving speed of the subject's pupil center 112C during the specified time. The evaluation unit 226 indicates that the subject's ADHD risk is low when the movement speed of the subject's pupil center 112C acquired by the movement data acquisition unit 216 is less than the threshold stored in the storage unit 224. Evaluation data can be output. The evaluation unit 226 indicates that the subject's ADHD risk is high when the moving speed of the subject's pupil center 112 </ b> C acquired by the movement data acquisition unit 216 is equal to or higher than the threshold stored in the storage unit 224. Evaluation data can be output. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

また、本実施形態において、記憶部224には、規定時間における被験者の瞳孔中心112Cの移動ベクトルの変曲点の数についての閾値が記憶されている。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動ベクトルの変曲点の数が、記憶部224に記憶されている閾値未満のときに、被験者のADHDのリスクが低いことを示す第1評価データを出力することができる。評価部226は、移動データ取得部216によって取得された被験者の瞳孔中心112Cの移動ベクトルの変曲点の数が、記憶部224に記憶されている閾値以上のときに、被験者のADHDのリスクが高いことを示す第2評価データを出力することができる。評価部226から出力された第1評価データ及び第2評価データのいずれか一方が、表示装置101又は出力装置50に表示される。   Further, in the present embodiment, the storage unit 224 stores a threshold value regarding the number of inflection points of the movement vector of the subject's pupil center 112C at a specified time. When the number of inflection points of the movement vector of the subject's pupil center 112C acquired by the movement data acquisition unit 216 is less than the threshold stored in the storage unit 224, the evaluation unit 226 determines that the risk of ADHD of the subject is It is possible to output first evaluation data indicating low. When the number of inflection points of the movement vector of the subject's pupil center 112C acquired by the movement data acquisition unit 216 is equal to or greater than the threshold stored in the storage unit 224, the evaluation unit 226 determines that the risk of ADHD of the subject is The second evaluation data indicating high can be output. One of the first evaluation data and the second evaluation data output from the evaluation unit 226 is displayed on the display device 101 or the output device 50.

[作用及び効果]
以上説明したように、本実施形態によれば、グローバル座標系で規定される被験者の眼の移動データが移動データ取得部216によって取得される。被験者の眼の移動データは、被験者の頭部の移動状態を示す。ADHDの被験者は、頭部又は体全体を頻繁に揺らす特徴を有する。本実施形態においては、移動データ取得部216が被験者の眼の移動データを取得し、取得された被験者の眼の移動データが出力制御部228から出力される。そのため、診断支援装置100は、被験者の頭部の移動状態を取得し、被験者のADHDのリスクを評価することができる。したがって、診断支援装置100は、被験者のADHDのリスクの診断を高精度に支援することができる。
[Action and effect]
As described above, according to the present embodiment, the movement data acquisition unit 216 acquires the movement data of the eye of the subject defined in the global coordinate system. The movement data of the eye of the subject indicates the movement state of the head of the subject. ADHD subjects have the characteristic of frequently shaking their head or entire body. In the present embodiment, the movement data acquisition unit 216 acquires the movement data of the subject's eyes, and the acquired movement data of the eyes of the subject is output from the output control unit 228. Therefore, the diagnosis support apparatus 100 can acquire the movement state of the subject's head and evaluate the risk of ADHD of the subject. Therefore, the diagnosis support apparatus 100 can support the diagnosis of ADHD risk of the subject with high accuracy.

また、本実施形態においては、角膜反射法に基づいて、被験者の注視点が検出される。角膜反射法は、光源103から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像113に対する瞳孔112の位置を検出して、被験者の視線及び注視点を検出する方法である。本実施形態において、眼の移動データは、瞳孔112の移動データ及び角膜反射像113の移動データの少なくとも一方を含む。したがって、診断支援装置100は、画像データ取得部206で取得された被験者の眼111の画像データに基づいて、被験者の注視点の位置データの検出と被験者の眼の移動データの取得とを並行して実施することができる。   In the present embodiment, the gaze point of the subject is detected based on the corneal reflection method. In the corneal reflection method, the subject is irradiated with infrared light emitted from the light source 103, the subject's eyes irradiated with the infrared light are photographed with a camera, and the corneal reflection image 113, which is a reflected image of the light source on the corneal surface, is applied. In this method, the position of the pupil 112 is detected to detect the subject's gaze and gaze point. In the present embodiment, the eye movement data includes at least one of movement data of the pupil 112 and movement data of the cornea reflection image 113. Therefore, based on the image data of the subject's eye 111 acquired by the image data acquisition unit 206, the diagnosis support apparatus 100 performs the detection of the position data of the subject's gaze point and the acquisition of the movement data of the subject's eye in parallel. Can be implemented.

また、本実施形態においては、被験者の眼の移動データは、規定時間における眼の移動距離dis、規定時間における眼の移動速度sp、及び規定時間における眼の移動ベクトルの変曲点の数nの少なくとも一つを含む。定型発達の者とADHDの者とでは、移動距離dis、移動速度sp、及び変曲点の数nの傾向が顕著に異なる。したがって、被験者の眼の移動データとして、移動距離dis、移動速度sp、及び変曲点の数nの少なくとも一つが取得されることにより、診断支援装置100は、被験者のADHDのリスクの診断を高精度に支援することができる。   In the present embodiment, the eye movement data of the subject includes the eye movement distance dis at a specified time, the eye movement speed sp at a specified time, and the number n of inflection points of the eye movement vector at the specified time. Including at least one. The tendency of the movement distance “dis”, the movement speed “sp”, and the number of inflection points “n” is remarkably different between those with typical development and those with ADHD. Therefore, by obtaining at least one of the movement distance dis, the movement speed sp, and the number of inflection points n as the movement data of the subject's eyes, the diagnosis support apparatus 100 can increase the diagnosis of ADHD risk of the subject. Can help with accuracy.

また、本実施形態においては、被験者の眼の移動データについての閾値を示す閾値データが規定される。したがって、評価部226は、閾値データと被験者の眼の移動データとに基づいて、被験者のADHDのリスクが低いことを示す第1評価データ、及び被験者のADHDのリスクが高いことを示す第2評価データの少なくとも一方を出力することができる。   In the present embodiment, threshold data indicating a threshold for the movement data of the subject's eyes is defined. Therefore, the evaluation unit 226 uses the first evaluation data indicating that the subject's ADHD risk is low and the second evaluation indicating that the subject's ADHD risk is high based on the threshold data and the subject's eye movement data. At least one of the data can be output.

また、本実施形態においては、表示装置101の表示画面101Sにおいて、領域A1、領域A2、及び領域A3が、エリア設定部218によって特定エリアに設定される。診断支援処理において、被験者の注視点が特定エリアに存在するか否かが判定部220において判定される。演算部222は、判定部220の判定データに基づいて、注視点が第1の特定エリアである領域A1に存在した存在時間を示す第1時間データと、注視点が第2の特定エリアである領域A2及び第3の特定エリアである領域A3の少なくとも一方に存在した存在時間を示す第2時間データとを算出する。本実施形態においては、第1時間データとしてカウンタCA1の計数値が算出され、第2時間データとしてカウンタCA23の計数値が算出される。(2)式に示したように、評価部226は、カウンタCA1の計数値で示される第1時間データと、カウンタCA23の計数値で示される第2時間データとに基づいて、被験者の注視点の移動状態を示す評価値Ans2を算出する。評価部226は、被験者の注視点の移動状態に基づいて、被験者のADHDのリスクが低いことを示す第1評価データ、及び被験者のADHDのリスクが高いことを示す第2評価データの少なくとも一方を出力することができる。   In the present embodiment, the area A1, the area A2, and the area A3 are set as specific areas by the area setting unit 218 on the display screen 101S of the display device 101. In the diagnosis support process, the determination unit 220 determines whether or not the subject's gazing point exists in the specific area. Based on the determination data of the determination unit 220, the calculation unit 222 has first time data indicating the time of presence in the area A1 in which the gazing point is the first specific area, and the gazing point is the second specific area. Second time data indicating the existence time existing in at least one of the region A2 and the region A3 which is the third specific area is calculated. In the present embodiment, the count value of the counter CA1 is calculated as the first time data, and the count value of the counter CA23 is calculated as the second time data. As shown in the equation (2), the evaluation unit 226 uses the first time data indicated by the count value of the counter CA1 and the second time data indicated by the count value of the counter CA23 to pay attention to the subject. An evaluation value Ans2 indicating the movement state is calculated. The evaluation unit 226 receives at least one of the first evaluation data indicating that the subject's ADHD risk is low and the second evaluation data indicating that the subject's ADHD risk is high based on the movement state of the subject's gaze point. Can be output.

本実施形態においては、(3)式に示したように、評価部226は、被験者の眼の移動データについての評価値Ans1と、被験者の注視点の時間データについての評価値Ans2との両方を用いて、被験者のADHDのリスクについての総合的な評価データである評価値Ans3を算出することができる。したがって、診断支援装置100は、被験者のADHDのリスクを高精度に評価することができる。   In this embodiment, as shown in the equation (3), the evaluation unit 226 calculates both the evaluation value Ans1 for the eye movement data of the subject and the evaluation value Ans2 for the time data of the gaze point of the subject. It is possible to calculate an evaluation value Ans3, which is comprehensive evaluation data regarding the ADHD risk of the subject. Therefore, the diagnosis support apparatus 100 can evaluate the risk of ADHD of the subject with high accuracy.

なお、上述の実施形態においては、注視点が領域A1に存在した存在時間を示すカウンタCA1の計数値と、注視点が領域A2及び領域A3の少なくとも一方に存在した存在時間を示すカウンタCA23の計数値とが算出され、カウンタCA1の計数値とカウンタCA23の計数値とに基づいて、被験者の注視点の移動状態が取得されることとした。注視点が領域A1に存在した存在時間を示すカウンタCA1の計数値と、注視点が領域A2、領域A3、及び領域A4の少なくとも1つに存在した存在時間を示すカウンタCA234の計数値とが算出され、カウンタCA1の計数値とカウンタCA234の計数値とに基づいて、被験者の注視点の移動状態が取得されてもよい。   In the above-described embodiment, the count value of the counter CA1 indicating the existence time when the gazing point is present in the area A1 and the counter CA23 indicating the existence time when the gazing point is present in at least one of the area A2 and the area A3 are calculated. A numerical value is calculated, and the movement state of the gaze point of the subject is acquired based on the count value of the counter CA1 and the count value of the counter CA23. The count value of the counter CA1 indicating the presence time in which the gazing point is present in the area A1 and the count value of the counter CA 234 indicating the presence time in which the gazing point is present in at least one of the area A2, the area A3, and the area A4 are calculated. Then, based on the count value of the counter CA1 and the count value of the counter CA234, the movement state of the subject's gaze point may be acquired.

また、上述の実施形態において、注視点が領域A1に存在した存在時間を示すカウンタCA1の計数値と、注視点が領域A2に存在する存在時間を示すカウンタCA2の計数値と、注視点が領域A3に存在する存在時間を示すカウンタCA3とが算出され、カウンタCA1の計数値とカウンタCA3の計数値とに基づいて、被験者の注視点の移動状態が取得されてもよい。上述のように、領域A3には、ASDの被験者が見る傾向にある幾何学模様が表示される。評価部226は、カウンタCA3の計数値とカウンタCA1の計数値との比に基づいて、被験者のASDのリスクを高精度に評価することができる。   Further, in the above-described embodiment, the count value of the counter CA1 indicating the existence time when the gazing point exists in the area A1, the count value of the counter CA2 indicating the existence time when the gazing point exists in the area A2, and the gazing point is the area. The counter CA3 indicating the presence time existing in A3 may be calculated, and the movement state of the subject's point of interest may be acquired based on the count value of the counter CA1 and the count value of the counter CA3. As described above, the geometric pattern that the ASD subject tends to see is displayed in the area A3. The evaluation unit 226 can evaluate the ASD risk of the subject with high accuracy based on the ratio between the count value of the counter CA3 and the count value of the counter CA1.

なお、上述の実施形態においては、診断画像の領域A1には、人物を含む自然画の動画又は大きい人物画像が表示されることとした。領域A1には、人物が含まれるアニメーションの動画が表示されてもよい。   In the above-described embodiment, a moving image of a natural image including a person or a large human image is displayed in the area A1 of the diagnostic image. In the area A1, an animated movie including a person may be displayed.

20 コンピュータシステム、20A 演算処理装置、20B 記憶装置、20C コンピュータプログラム、30 入出力インターフェース装置、40 駆動回路、50 出力装置、60 入力装置、70 音声出力装置、100 診断支援装置(視線検出装置)、101 表示装置、101S 表示画面、102 ステレオカメラ装置、102A 第1カメラ、102B 第2カメラ、103 光源、103A 第1光源、103B 第2光源、103C 光源、103V 仮想光源、109 角膜曲率半径、110 角膜曲率中心、111 眼、112 瞳孔、112C 瞳孔中心、113 角膜反射像、113C 角膜反射中心、121 角膜反射中心、122 角膜反射中心、123 直線、124 角膜反射中心、126 距離、130 目標位置、165 注視点、166 注視点、202 表示制御部、204 光源制御部、206 画像データ取得部、208 入力データ取得部、210 位置検出部、212 曲率中心算出部、214 注視点検出部、216 移動データ取得部、218 エリア設定部、220 判定部、222 演算部、224 記憶部、226 評価部、228 出力制御部、302 入出力部、402 表示装置駆動部、404A 第1カメラ入出力部、404B 第2カメラ入出力部、406 光源駆動部。   20 Computer System, 20A Arithmetic Processing Device, 20B Storage Device, 20C Computer Program, 30 Input / Output Interface Device, 40 Drive Circuit, 50 Output Device, 60 Input Device, 70 Audio Output Device, 100 Diagnosis Support Device (Gaze Detection Device), 101 display device, 101S display screen, 102 stereo camera device, 102A first camera, 102B second camera, 103 light source, 103A first light source, 103B second light source, 103C light source, 103V virtual light source, 109 cornea radius of curvature, 110 cornea Center of curvature, 111 eyes, 112 pupil, 112C pupil center, 113 cornea reflection image, 113C cornea reflection center, 121 cornea reflection center, 122 cornea reflection center, 123 straight line, 124 cornea reflection center, 126 distance, 130 target position, 1 5 Gaze point, 166 Gaze point, 202 Display control unit, 204 Light source control unit, 206 Image data acquisition unit, 208 Input data acquisition unit, 210 Position detection unit, 212 Curvature center calculation unit, 214 Gaze point detection unit, 216 Movement data Acquisition unit, 218 area setting unit, 220 determination unit, 222 calculation unit, 224 storage unit, 226 evaluation unit, 228 output control unit, 302 input / output unit, 402 display device drive unit, 404A first camera input / output unit, 404B first 2 camera input / output unit, 406 light source driving unit.

Claims (8)

被験者の眼の画像データを取得する画像データ取得部と、
前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、
前記画像データに基づいて、前記被験者の眼の移動データを取得する移動データ取得部と、
前記移動データを出力する出力制御部と、
を備える診断支援装置。
An image data acquisition unit for acquiring image data of the eyes of the subject;
Based on the image data, a gaze point detection unit that detects position data of the gaze point of the subject,
Based on the image data, a movement data acquisition unit that acquires movement data of the subject's eyes;
An output control unit for outputting the movement data;
A diagnosis support apparatus comprising:
前記移動データは、規定時間における前記眼の移動距離、規定時間における前記眼の移動速度、及び規定時間における前記眼の移動ベクトルの変曲点の数の少なくとも一つを含む、
請求項1に記載の診断支援装置。
The movement data includes at least one of the movement distance of the eye at a specified time, the moving speed of the eye at a specified time, and the number of inflection points of the eye movement vector at a specified time.
The diagnosis support apparatus according to claim 1.
前記移動データについての閾値を示す閾値データを記憶する記憶部と、
前記閾値データと前記移動データとに基づいて、前記被験者の評価データを出力する評価部と、
を備える請求項1又は請求項2に記載の診断支援装置。
A storage unit for storing threshold data indicating a threshold for the movement data;
Based on the threshold data and the movement data, an evaluation unit that outputs the evaluation data of the subject,
The diagnosis support apparatus according to claim 1 or 2, further comprising:
前記移動データは、規定時間における前記眼の移動距離、規定時間における前記眼の移動速度、及び規定時間における前記眼の移動ベクトルの変曲点の数の少なくとも一つを含み、
前記閾値は、前記移動距離、移動速度、及び移動ベクトルの変曲点の数の少なくとも一つについての閾値を含み、
前記評価部は、前記移動距離、移動速度、及び移動ベクトルの変曲点の数の少なくとも一つが閾値未満のときに第1評価データを出力し、閾値以上のときに第2評価データを出力する、
請求項3に記載の診断支援装置。
The movement data includes at least one of the movement distance of the eye at a specified time, the movement speed of the eye at a specified time, and the number of inflection points of the eye movement vector at a specified time,
The threshold includes a threshold for at least one of the moving distance, the moving speed, and the number of inflection points of the moving vector,
The evaluation unit outputs first evaluation data when at least one of the moving distance, the moving speed, and the number of inflection points of the moving vector is less than a threshold value, and outputs second evaluation data when the number is greater than or equal to the threshold value. ,
The diagnosis support apparatus according to claim 3.
前記評価部は、前記移動距離、前記移動速度、及び前記移動ベクトルの変曲点の数のそれぞれを重み付けして、重み付けされた前記移動距離と前記移動速度と前記移動ベクトルの変曲点の数との和が閾値未満のときに第1評価データを出力し、前記和が閾値以上のときに第2評価データを出力する、
請求項3に記載の診断支援装置。
The evaluation unit weights each of the moving distance, the moving speed, and the number of inflection points of the moving vector, and weights the moving distance, the moving speed, and the number of inflection points of the moving vector. First evaluation data is output when the sum is less than the threshold, and second evaluation data is output when the sum is equal to or greater than the threshold.
The diagnosis support apparatus according to claim 3.
診断画像データを表示装置に表示させる表示制御部と、
前記表示装置の表示画面において特定エリアを設定するエリア設定部と、
前記注視点の位置データに基づいて、前記注視点が前記特定エリアに存在するか否かを判定する判定部と、
前記判定部の判定データに基づいて、前記注視点が前記特定エリアに存在した存在時間を示す時間データを算出する演算部と、を備え、
前記評価部は、前記時間データと前記移動データとに基づいて、前記被験者の評価データを出力する、
請求項1から請求項5のいずれか一項に記載の診断支援装置。
A display control unit for displaying diagnostic image data on a display device;
An area setting unit for setting a specific area on the display screen of the display device;
A determination unit that determines whether the gazing point exists in the specific area based on the position data of the gazing point;
A calculation unit that calculates time data indicating an existing time in which the gazing point is present in the specific area based on determination data of the determination unit;
The evaluation unit outputs the evaluation data of the subject based on the time data and the movement data.
The diagnosis support apparatus according to any one of claims 1 to 5.
被験者の眼の画像データを取得することと、
前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、
前記画像データに基づいて、前記被験者の眼の移動データを取得することと、
前記移動データを出力することと、
を含む診断支援方法。
Obtaining image data of the subject's eyes;
Detecting position data of the gaze point of the subject based on the image data;
Obtaining movement data of the subject's eyes based on the image data;
Outputting the movement data;
A diagnostic support method including:
コンピュータに、
被験者の眼の画像データを取得することと、
前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、
前記画像データに基づいて、前記被験者の眼の移動データを取得することと、
前記移動データを出力することと、
を実行させるコンピュータプログラム。
On the computer,
Obtaining image data of the subject's eyes;
Detecting position data of the gaze point of the subject based on the image data;
Obtaining movement data of the subject's eyes based on the image data;
Outputting the movement data;
A computer program that executes
JP2016163737A 2016-08-24 2016-08-24 Diagnosis support device, diagnosis support method, and computer program Active JP6747172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016163737A JP6747172B2 (en) 2016-08-24 2016-08-24 Diagnosis support device, diagnosis support method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016163737A JP6747172B2 (en) 2016-08-24 2016-08-24 Diagnosis support device, diagnosis support method, and computer program

Publications (2)

Publication Number Publication Date
JP2018029764A true JP2018029764A (en) 2018-03-01
JP6747172B2 JP6747172B2 (en) 2020-08-26

Family

ID=61304126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016163737A Active JP6747172B2 (en) 2016-08-24 2016-08-24 Diagnosis support device, diagnosis support method, and computer program

Country Status (1)

Country Link
JP (1) JP6747172B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019166254A (en) * 2018-03-26 2019-10-03 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
KR20200027210A (en) * 2018-09-04 2020-03-12 한양대학교 산학협력단 System and method for analyzing movement of eyeball
JP2020151293A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
WO2021039883A1 (en) * 2019-08-30 2021-03-04 国立研究開発法人国立成育医療研究センター Prediction method and prediction device

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061785A (en) * 1999-08-26 2001-03-13 Shimadzu Corp Detection of sight line and apparatus therefor
US20030153817A1 (en) * 2001-12-28 2003-08-14 Petter Knagenhjelm Pattern analysis system and method
JP2007529829A (en) * 2004-03-18 2007-10-25 ユニヴァースティ オブ ヴァージニア パテント ファウンデイション Method, apparatus and computer program product for probabilistic psychophysiological assessment of attention dysfunction
US20080021351A1 (en) * 2006-04-04 2008-01-24 Teicher Martin H Method for diagnosing ADHD and related behavioral disorders
US20110208439A1 (en) * 2008-10-08 2011-08-25 The Mclean Hospital Corporation Methods for measuring the magnitude of attention and motor activity disturbance in a subject
US20110208437A1 (en) * 2008-08-01 2011-08-25 The Mclean Hospital Corporation Method and apparatus for identifying a safe and efficacious dosing regimen
US20120310117A1 (en) * 2009-11-18 2012-12-06 The Mclean Hospital Corporation Method for diagnosing adhd and related behavioral disorders
JP2014195641A (en) * 2013-03-07 2014-10-16 株式会社Jvcケンウッド Diagnosis support device and diagnosis support method
JP2015043963A (en) * 2013-07-29 2015-03-12 株式会社Jvcケンウッド Diagnosis assistance device and diagnosis assistance method
JP2015518402A (en) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ Attention measurement method
WO2016052646A1 (en) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 Inattention measurement device, system, and method
US20160171696A1 (en) * 2014-12-16 2016-06-16 Koninklijke Philips N.V. Assessment of an attentional deficit

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061785A (en) * 1999-08-26 2001-03-13 Shimadzu Corp Detection of sight line and apparatus therefor
US20030153817A1 (en) * 2001-12-28 2003-08-14 Petter Knagenhjelm Pattern analysis system and method
JP2007529829A (en) * 2004-03-18 2007-10-25 ユニヴァースティ オブ ヴァージニア パテント ファウンデイション Method, apparatus and computer program product for probabilistic psychophysiological assessment of attention dysfunction
US20080021351A1 (en) * 2006-04-04 2008-01-24 Teicher Martin H Method for diagnosing ADHD and related behavioral disorders
US20110208437A1 (en) * 2008-08-01 2011-08-25 The Mclean Hospital Corporation Method and apparatus for identifying a safe and efficacious dosing regimen
US20110208439A1 (en) * 2008-10-08 2011-08-25 The Mclean Hospital Corporation Methods for measuring the magnitude of attention and motor activity disturbance in a subject
US20120310117A1 (en) * 2009-11-18 2012-12-06 The Mclean Hospital Corporation Method for diagnosing adhd and related behavioral disorders
JP2015518402A (en) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ Attention measurement method
JP2014195641A (en) * 2013-03-07 2014-10-16 株式会社Jvcケンウッド Diagnosis support device and diagnosis support method
JP2015043963A (en) * 2013-07-29 2015-03-12 株式会社Jvcケンウッド Diagnosis assistance device and diagnosis assistance method
WO2016052646A1 (en) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 Inattention measurement device, system, and method
US20160171696A1 (en) * 2014-12-16 2016-06-16 Koninklijke Philips N.V. Assessment of an attentional deficit

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019166254A (en) * 2018-03-26 2019-10-03 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
JP7052471B2 (en) 2018-03-26 2022-04-12 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
KR20200027210A (en) * 2018-09-04 2020-03-12 한양대학교 산학협력단 System and method for analyzing movement of eyeball
KR102112408B1 (en) 2018-09-04 2020-05-18 한양대학교 산학협력단 System and method for analyzing movement of eyeball
US11164322B2 (en) 2018-09-04 2021-11-02 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Eyeball movement analysis system and eyeball movement analysis method
JP2020151293A (en) * 2019-03-22 2020-09-24 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
WO2020194846A1 (en) * 2019-03-22 2020-10-01 株式会社Jvcケンウッド Assessment device, assessment method, and assessment program
JP7247690B2 (en) 2019-03-22 2023-03-29 株式会社Jvcケンウッド Evaluation device, evaluation method, and evaluation program
WO2021039883A1 (en) * 2019-08-30 2021-03-04 国立研究開発法人国立成育医療研究センター Prediction method and prediction device

Also Published As

Publication number Publication date
JP6747172B2 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
WO2018216347A1 (en) Evaluating device, evaluating method, and evaluating program
US8371693B2 (en) Autism diagnosis support apparatus
JP6617662B2 (en) Gaze detection device, gaze detection method, and computer program
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
WO2014073645A1 (en) Biological information measurement device and input device using same
JP6848526B2 (en) Evaluation device, evaluation method, and evaluation program
JP2017158866A (en) Diagnosis support device, diagnosis support method, training support device and training support method
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
JP6245093B2 (en) Diagnosis support apparatus and diagnosis support method
JP2020106772A (en) Display device, display method, and program
CN113138664A (en) Eyeball tracking system and method based on light field perception
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP6883242B2 (en) Evaluation device, evaluation method, and evaluation program
JP7057483B2 (en) Evaluation device, evaluation method, and evaluation program
JP6776970B2 (en) Gaze detection device, gaze detection method and gaze detection program
JP6766646B2 (en) Visual function test device, visual function test method, and computer program
JP7074221B2 (en) Evaluation device, evaluation method, and evaluation program
JP2020024750A (en) Line-of-sight detection device, line-of-sight detection method, and computer program
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
JP2020018470A (en) Visual line detection device, visual line detection method, and visual line detection program
US20220079484A1 (en) Evaluation device, evaluation method, and medium
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
JP6677156B2 (en) Visual function testing device, visual function testing method, and computer program
El Moucary et al. Commodious Control Apparatus for Impaired People
JP2019166254A (en) Evaluation device, evaluation method, and evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6747172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150