JP6677156B2 - Visual function testing device, visual function testing method, and computer program - Google Patents

Visual function testing device, visual function testing method, and computer program Download PDF

Info

Publication number
JP6677156B2
JP6677156B2 JP2016256645A JP2016256645A JP6677156B2 JP 6677156 B2 JP6677156 B2 JP 6677156B2 JP 2016256645 A JP2016256645 A JP 2016256645A JP 2016256645 A JP2016256645 A JP 2016256645A JP 6677156 B2 JP6677156 B2 JP 6677156B2
Authority
JP
Japan
Prior art keywords
subject
corneal reflection
data
center
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016256645A
Other languages
Japanese (ja)
Other versions
JP2018108166A (en
Inventor
修二 箱嶋
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016256645A priority Critical patent/JP6677156B2/en
Priority to EP17887452.5A priority patent/EP3542705B1/en
Priority to PCT/JP2017/039791 priority patent/WO2018123266A1/en
Publication of JP2018108166A publication Critical patent/JP2018108166A/en
Priority to US16/409,968 priority patent/US11019994B2/en
Application granted granted Critical
Publication of JP6677156B2 publication Critical patent/JP6677156B2/en
Priority to US17/242,384 priority patent/US11653831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視機能検査装置、視機能検査方法、及びコンピュータプログラムに関する。   The present invention relates to a visual function test device, a visual function test method, and a computer program.

眼位検査又は屈折検査のような視機能検査において視機能検査装置が使用される。視機能検査装置は、斜視又は弱視のような視機能の異常を検査する。眼位検査方法の一つとしてヒルシュベルグ(Hirschberg)法が知られている。ヒルシュベルグ法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像の位置を検出して、被験者の眼位を検査する方法である。   A visual function test device is used in a visual function test such as an eye position test or a refractive test. The visual function testing device tests for abnormalities in visual function such as strabismus or low vision. The Hirschberg method is known as one of the eye position examination methods. The Hirschberg method irradiates a subject with infrared light emitted from a light source, takes an image of the subject's eye irradiated with the infrared light with a camera, and determines the position of a corneal reflection image that is a reflection image of the light source on the corneal surface. This is a method of detecting and examining the eye position of the subject.

特表2015−525597号公報JP-T-2005-525597

ヒルシュベルグ法に基づいて眼位検査する場合、光源と被験者との相対位置が変動すると、検査精度が低下する可能性がある。光源と被験者との相対位置の変動を抑制するために、例えば被験者の頭部を固定する必要が生じる。光源と被験者との相対位置が変動しても、検査精度の低下を抑制できる技術が要望される。   When performing an eye position test based on the Hirschberg method, if the relative position between the light source and the subject fluctuates, the test accuracy may be reduced. In order to suppress a change in the relative position between the light source and the subject, for example, it is necessary to fix the subject's head. There is a need for a technique that can suppress a decrease in inspection accuracy even when the relative position between the light source and the subject changes.

本発明の態様は、光源と被験者との相対位置が変動しても、視機能の検査精度の低下を抑制することを目的とする。   An object of an aspect of the present invention is to suppress a decrease in visual inspection accuracy even when a relative position between a light source and a subject changes.

本発明の態様に従えば、表示装置の表示画面の複数の位置のそれぞれに指標を表示させる表示制御部と、光源から射出された検出光が照射される被験者の眼の画像データを取得する画像データ取得部と、前記画像データに基づいて、前記表示画面の複数の位置に表示された複数の前記指標のそれぞれを見せたときの前記眼の角膜反射像の位置データを算出する位置算出部と、複数の前記指標の相対位置と複数の前記角膜反射像の相対位置とに基づいて、前記被験者の視機能の評価データを出力する評価部と、を備える視機能検査装置が提供される。   According to an aspect of the present invention, a display control unit that displays indices at each of a plurality of positions on a display screen of a display device, and an image that acquires image data of a subject's eye irradiated with detection light emitted from a light source A data acquisition unit and a position calculation unit that calculates position data of a corneal reflection image of the eye when each of the plurality of indices displayed at a plurality of positions on the display screen is shown based on the image data. A visual function inspection apparatus comprising: an evaluation unit that outputs evaluation data of the visual function of the subject based on the relative positions of the plurality of indices and the relative positions of the plurality of corneal reflection images.

本発明の態様によれば、光源と被験者との相対位置が変動しても、視機能の検査精度の低下を抑制することができる。   ADVANTAGE OF THE INVENTION According to the aspect of this invention, even if the relative position of a light source and a test subject fluctuates, the fall of the test | inspection precision of visual function can be suppressed.

図1は、第1実施形態に係る視機能検査装置の一例を模式的に示す斜視図である。FIG. 1 is a perspective view schematically illustrating an example of the visual function inspection device according to the first embodiment. 図2は、第1実施形態に係る表示装置とステレオカメラ装置と光源と被験者の眼との位置関係を模式的に示す図である。FIG. 2 is a diagram schematically illustrating a positional relationship among a display device, a stereo camera device, a light source, and a subject's eye according to the first embodiment. 図3は、第1実施形態に係る視機能検査装置のハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual function inspection device according to the first embodiment. 図4は、第1実施形態に係る視機能検査装置の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating an example of the visual function inspection device according to the first embodiment. 図5は、第1実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 5 is a schematic diagram for explaining a method of calculating the position data of the corneal curvature center according to the first embodiment. 図6は、第1実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 6 is a schematic diagram for explaining a method of calculating the position data of the corneal curvature center according to the first embodiment. 図7は、第1実施形態に係る視機能検査方法の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the visual function inspection method according to the first embodiment. 図8は、第1実施形態に係る斜視検査方法の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the perspective inspection method according to the first embodiment. 図9は、第1実施形態に係る検出光が照射された被験者の一例を模式的に示す図である。FIG. 9 is a diagram schematically illustrating an example of the subject irradiated with the detection light according to the first embodiment. 図10は、斜視の傾向がない被験者の眼の画像データの一例を模式的に示す図である。FIG. 10 is a diagram schematically illustrating an example of image data of an eye of a subject who does not tend to be squint. 図11は、斜視の傾向がない被験者が表示装置の表示画面の中心に表示されている指標を見つめているときの視線を模式的に示す図である。FIG. 11 is a diagram schematically illustrating a line of sight when a subject who does not tend to be strabismus is looking at an index displayed at the center of the display screen of the display device. 図12は、斜視の傾向がある被験者の眼の画像データの一例を模式的に示す図である。FIG. 12 is a diagram schematically illustrating an example of image data of an eye of a subject who tends to be oblique. 図13は、斜視の傾向がある被験者が表示装置の表示画面の中心に表示されている指標を見つめているときの視線を模式的に示す図である。FIG. 13 is a diagram schematically illustrating a line of sight when a subject who is inclined tends to look at an index displayed at the center of the display screen of the display device. 図14は、第1実施形態に係るキャリブレーション処理の一例を説明するための模式図である。FIG. 14 is a schematic diagram for explaining an example of the calibration process according to the first embodiment. 図15は、第1実施形態に係るキャリブレーション処理の一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of the calibration process according to the first embodiment. 図16は、第1実施形態に係る視線検出処理の一例を説明するための模式図である。FIG. 16 is a schematic diagram for explaining an example of the gaze detection process according to the first embodiment. 図17は、第1実施形態に係る視線検出処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the gaze detection process according to the first embodiment. 図18は、第2実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。FIG. 18 is a diagram schematically illustrating an example of a result obtained by performing image processing on right-eye image data and left-eye image data in the second embodiment. 図19は、第2実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。FIG. 19 is a diagram schematically illustrating an example of a result obtained by performing image processing on right-eye image data and left-eye image data in the second embodiment. 図20は、第3実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。FIG. 20 is a diagram schematically illustrating an example of a result obtained by performing image processing on right-eye image data and left-eye image data in the third embodiment. 図21は、第4実施形態に係る斜視検査方法の一例を示すフローチャートである。FIG. 21 is a flowchart illustrating an example of a perspective inspection method according to the fourth embodiment. 図22は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。FIG. 22 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment. 図23は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。FIG. 23 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment. 図24は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。FIG. 24 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment. 図25は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。FIG. 25 is a diagram schematically illustrating an example of time-series data of a distance stored in the storage unit according to the fourth embodiment. 図26は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。FIG. 26 is a diagram schematically illustrating an example of time-series data of a distance stored in the storage unit according to the fourth embodiment. 図27は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。FIG. 27 is a diagram schematically illustrating an example of time-series data of a distance stored in the storage unit according to the fourth embodiment. 図28は、第5実施形態に係る分割時間を決定する方法の一例を模式的に示す図である。FIG. 28 is a diagram schematically illustrating an example of a method for determining a division time according to the fifth embodiment. 図29は、第6実施形態に係る斜視検査方法の一例を示すフローチャートである。FIG. 29 is a flowchart illustrating an example of a perspective inspection method according to the sixth embodiment. 図30は、第6実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。FIG. 30 is a diagram schematically illustrating an example of an index displayed on the display device according to the sixth embodiment. 図31は、斜視の傾向がない被験者の眼の画像データの一例を模式的に示す図である。FIG. 31 is a diagram schematically illustrating an example of image data of an eye of a subject who does not tend to be squint. 図32は、斜視の傾向がある被験者の眼の画像データの一例を模式的に示す図である。FIG. 32 is a diagram schematically illustrating an example of image data of an eye of a subject who tends to be oblique. 図33は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。FIG. 33 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment. 図34は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。FIG. 34 is a diagram illustrating an example of image data of a subject's eyes according to the seventh embodiment. 図35は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。FIG. 35 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment. 図36は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。FIG. 36 is a diagram illustrating an example of image data of a subject's eyes according to the seventh embodiment. 図37は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。FIG. 37 is a schematic diagram for explaining an example of the perspective inspection method according to the eighth embodiment. 図38は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。FIG. 38 is a schematic diagram for explaining an example of the perspective inspection method according to the eighth embodiment. 図39は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。FIG. 39 is a schematic diagram for explaining an example of the perspective inspection method according to the eighth embodiment.

以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings, but the present invention is not limited thereto. The components of the embodiments described below can be appropriately combined. In some cases, some components may not be used.

以下の説明においては、3次元のグローバル座標系を設定して各部の位置関係について説明する。所定面内のX軸と平行な方向をX軸方向とし、X軸と直交する所定面内のY軸と平行な方向をY軸方向とし、X軸及びY軸のそれぞれと直交するZ軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。   In the following description, a three-dimensional global coordinate system is set and the positional relationship of each part is described. A direction parallel to the X axis in a predetermined plane is defined as an X axis direction, a direction parallel to the Y axis in a predetermined plane perpendicular to the X axis is defined as a Y axis direction, and a Z axis orthogonal to each of the X axis and the Y axis. The parallel direction is defined as a Z-axis direction. The predetermined plane includes the XY plane.

第1実施形態.
第1実施形態について説明する。図1は、本実施形態に係る視機能検査装置100の一例を模式的に示す斜視図である。視機能検査装置100は、被験者の視機能の異常を検査する。視機能の異常は、斜視又は弱視を含む。以下の説明においては、視機能検査装置100により被験者の斜視が検査される例について説明する。
First embodiment.
A first embodiment will be described. FIG. 1 is a perspective view schematically illustrating an example of a visual function inspection device 100 according to the present embodiment. The visual function inspection device 100 inspects the visual function of the subject for abnormalities. Abnormalities in visual function include strabismus or amblyopia. In the following description, an example will be described in which the visual function testing device 100 tests the perspective of a subject.

[視機能検査装置の概要]
図1に示すように、視機能検査装置100は、表示装置101と、ステレオカメラ装置102と、光源103とを備える。
[Overview of visual function inspection device]
As shown in FIG. 1, the visual function inspection device 100 includes a display device 101, a stereo camera device 102, and a light source 103.

表示装置101は、液晶ディスプレイ(LCD:liquid crystal display)又は有機ELディスプレイ(OELD:organic electroluminescence display)のようなフラットパネルディスプレイを含む。   The display device 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic EL display (OELD: organic electroluminescence display).

本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。   In the present embodiment, the display screen 101S of the display device 101 is substantially parallel to the XY plane. The X axis direction is the horizontal direction of the display screen 101S, the Y axis direction is the vertical direction of the display screen 101S, and the Z axis direction is the depth direction orthogonal to the display screen 101S.

ステレオカメラ装置102は、被験者を撮影して被験者の画像データを取得する。ステレオカメラ装置102は、異なる位置に配置された第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、近赤外光を受光可能な撮像素子とを有する。   The stereo camera device 102 photographs a subject and acquires image data of the subject. The stereo camera device 102 has a first camera 102A and a second camera 102B arranged at different positions. The stereo camera device 102 is disposed below the display screen 101S of the display device 101. The first camera 102A and the second camera 102B are arranged in the X-axis direction. The first camera 102A is arranged in the −X direction with respect to the second camera 102B. Each of the first camera 102A and the second camera 102B includes an infrared camera, and has, for example, an optical system capable of transmitting near-infrared light having a wavelength of 850 [nm] and an imaging device capable of receiving near-infrared light.

光源103は、検出光を射出する。光源103は、異なる位置に配置された第1光源103A及び第2光源103Bを含む。光源103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。   The light source 103 emits detection light. The light source 103 includes a first light source 103A and a second light source 103B arranged at different positions. The light source 103 is disposed below the display screen 101S of the display device 101. The first light source 103A and the second light source 103B are arranged in the X-axis direction. The first light source 103A is arranged in the −X direction with respect to the first camera 102A. The second light source 103B is arranged in the + X direction more than the second camera 102B. Each of the first light source 103A and the second light source 103B includes an LED (light emitting diode) light source, and can emit near-infrared light having a wavelength of 850 [nm], for example. Note that the first light source 103A and the second light source 103B may be arranged between the first camera 102A and the second camera 102B.

図2は、本実施形態に係る表示装置101とステレオカメラ装置102と光源103と被験者の眼111との位置関係を模式的に示す図である。被験者の眼111は、被験者の右眼111R及び左眼111Lを含む。   FIG. 2 is a diagram schematically illustrating a positional relationship among the display device 101, the stereo camera device 102, the light source 103, and the subject's eye 111 according to the present embodiment. The subject's eye 111 includes the subject's right eye 111R and left eye 111L.

光源103は、検出光である赤外光を射出して、被験者の眼111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼111に照射されたときに第2カメラ102Bで眼111を撮影し、第2光源103Bから射出された検出光が眼111に照射されたときに第1カメラ102Aで眼111を撮影する。   The light source 103 emits infrared light, which is detection light, to illuminate the eye 111 of the subject. The stereo camera device 102 captures an image of the eye 111 with the second camera 102B when the detection light emitted from the first light source 103A is applied to the eye 111, and the detection light emitted from the second light source 103B is applied to the eye 111. When irradiated, the first camera 102A photographs the eye 111.

第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。   A frame synchronization signal is output from at least one of the first camera 102A and the second camera 102B. The first light source 103A and the second light source 103B emit detection light based on the frame synchronization signal. The first camera 102A acquires image data of the eye 111 when the detection light emitted from the second light source 103B is applied to the eye 111. The second camera 102B acquires image data of the eye 111 when the detection light emitted from the first light source 103A is applied to the eye 111.

眼111に検出光が照射されると、検出光の一部は瞳孔112で反射する。瞳孔112で反射した光は、ステレオカメラ装置102に入射する。また、眼111に検出光が照射されると、角膜反射像113が眼111に形成される。角膜反射像113は、角膜表面における光源103の反射像である。角膜反射像113からの光は、ステレオカメラ装置102に入射する。   When the eye 111 is irradiated with the detection light, a part of the detection light is reflected by the pupil 112. The light reflected by the pupil 112 enters the stereo camera device 102. When the eye 111 is irradiated with the detection light, a corneal reflection image 113 is formed on the eye 111. The corneal reflection image 113 is a reflection image of the light source 103 on the corneal surface. Light from the corneal reflection image 113 enters the stereo camera device 102.

第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。   By appropriately setting the relative positions of the first camera 102A and the second camera 102B and the first light source 103A and the second light source 103B, the intensity of light incident on the stereo camera device 102 from the pupil 112 decreases, and the cornea The intensity of light incident on the stereo camera device 102 from the reflection image 113 increases. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the corneal reflection image 113 has high brightness. The stereo camera device 102 can detect the position of the pupil 112 and the position of the corneal reflection image 113 based on the luminance of the acquired image.

[ハードウェア構成]
図3は、本実施形態に係る視機能検査装置100のハードウェア構成の一例を示す図である。図3に示すように、視機能検査装置100は、表示装置101と、ステレオカメラ装置102と、光源103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。コンピュータプログラム20Cが記憶装置20Bに記憶されている。
[Hardware configuration]
FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual function inspection device 100 according to the present embodiment. As shown in FIG. 3, the visual function inspection device 100 includes a display device 101, a stereo camera device 102, a light source 103, a computer system 20, an input / output interface device 30, a drive circuit 40, and an output device 50. , An input device 60, and an audio output device 70. The computer system 20 includes an arithmetic processing device 20A and a storage device 20B. The computer program 20C is stored in the storage device 20B.

コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。   The computer system 20, the drive circuit 40, the output device 50, the input device 60, and the audio output device 70 perform data communication via the input / output interface device 30.

演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)のような不揮発性メモリ又はRAM(random access memory)のような揮発性メモリを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。   The arithmetic processing device 20A includes a microprocessor such as a CPU (central processing unit). The storage device 20B includes a nonvolatile memory such as a ROM (read only memory) or a volatile memory such as a RAM (random access memory). The arithmetic processing device 20A performs arithmetic processing according to the computer program 20C stored in the storage device 20B.

駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び光源103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。   The drive circuit 40 generates a drive signal and outputs the drive signal to the display device 101, the stereo camera device 102, and the light source 103. In addition, the drive circuit 40 supplies the image data of the eye 111 acquired by the stereo camera device 102 to the computer system 20 via the input / output interface device 30.

出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。   The output device 50 includes a display device such as a flat panel display. Note that the output device 50 may include a printing device. The input device 60 generates input data when operated. Input device 60 includes a keyboard or mouse for a computer system. Note that the input device 60 may include a touch sensor provided on a display screen of the output device 50 that is a display device. The sound output device 70 includes a speaker and outputs, for example, a sound for calling attention to the subject.

本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視機能検査装置100がタブレット型パーソナルコンピュータを含む場合、タブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。   In the present embodiment, the display device 101 and the computer system 20 are separate devices. Note that the display device 101 and the computer system 20 may be integrated. For example, when the visual function inspection device 100 includes a tablet personal computer, the tablet personal computer may include the computer system 20, the input / output interface device 30, the drive circuit 40, and the display device 101.

図4は、本実施形態に係る視機能検査装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。   FIG. 4 is a functional block diagram illustrating an example of the visual function inspection device 100 according to the present embodiment. As shown in FIG. 4, the input / output interface device 30 has an input / output unit 302. The driving circuit 40 generates a driving signal for driving the display device 101 and outputs the driving signal to the display device 101, and a driving signal for driving the first camera 102A to generate a driving signal for the first camera 102A. A first camera input / output unit 404A for outputting to the second camera 102B, a first camera input / output unit 404B for generating a drive signal for driving the second camera 102B, and outputting the generated drive signal to the second camera 102B; A light source driving unit 406 that generates a driving signal for driving the two light sources 103B and outputs the generated driving signals to the first light source 103A and the second light source 103B. Further, the first camera input / output unit 404A supplies the image data of the eye 111 acquired by the first camera 102A to the computer system 20 via the input / output unit 302. The second camera input / output unit 404B supplies the image data of the eye 111 acquired by the second camera 102B to the computer system 20 via the input / output unit 302.

コンピュータシステム20は、視機能検査装置100を制御する。コンピュータシステム20は、画像データ取得部202と、入力データ取得部204と、画像処理部206と、表示制御部208と、光源制御部210と、カメラ制御部211と、位置算出部212と、曲率中心算出部214と、視線検出部216と、評価部218と、記憶部220と、出力制御部222とを有する。コンピュータシステム20の機能は、演算処理装置20A、記憶装置20B、及び記憶装置20Bに記憶されているコンピュータプログラム20Cによって発揮される。   The computer system 20 controls the visual function inspection device 100. The computer system 20 includes an image data acquisition unit 202, an input data acquisition unit 204, an image processing unit 206, a display control unit 208, a light source control unit 210, a camera control unit 211, a position calculation unit 212, a curvature It has a center calculation unit 214, a line-of-sight detection unit 216, an evaluation unit 218, a storage unit 220, and an output control unit 222. The functions of the computer system 20 are exhibited by the arithmetic processing device 20A, the storage device 20B, and the computer program 20C stored in the storage device 20B.

画像データ取得部202は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の画像データを、入出力部302を介してステレオカメラ装置102から取得する。画像データは、ディジタルデータである。被験者の画像データは、被験者の眼111の画像データを含む。被験者の眼111の画像データは、被験者の右眼111Rの画像データ及び左眼111Lの画像データを含む。ステレオカメラ装置102は、光源103から射出された検出光が照射される被験者の眼111を撮影する。画像データ取得部202は、光源103から射出された検出光が照射される被験者の眼111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。   The image data acquisition unit 202 acquires the subject's image data acquired by the stereo camera device 102 including the first camera 102A and the second camera 102B from the stereo camera device 102 via the input / output unit 302. The image data is digital data. The subject's image data includes the subject's eye 111 image data. The image data of the subject's eye 111 includes image data of the subject's right eye 111R and image data of the left eye 111L. The stereo camera device 102 photographs the subject's eye 111 to which the detection light emitted from the light source 103 is irradiated. The image data acquisition unit 202 acquires, from the stereo camera device 102 via the input / output unit 302, image data of the subject's eye 111 to which the detection light emitted from the light source 103 is irradiated.

入力データ取得部204は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。   The input data acquisition unit 204 acquires input data generated by operating the input device 60 from the input device 60 via the input / output unit 302.

画像処理部206は、画像データ取得部202で取得された画像データを画像処理する。   The image processing unit 206 performs image processing on the image data acquired by the image data acquisition unit 202.

表示制御部208は、特定の表示データを表示装置101に表示させる。本実施形態において、表示制御部208は、表示データとして、被験者に注視させるための指標130を表示装置101に表示させる。指標130は、光点でもよいし、イラストレーションでもよい。表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させることができる。また、表示制御部208は、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させることができる。   The display control unit 208 causes the display device 101 to display specific display data. In the present embodiment, the display control unit 208 causes the display device 101 to display, as display data, an index 130 for causing the subject to gaze. The index 130 may be a light spot or an illustration. The display control unit 208 can cause the display device 101 to display the stationary and moving index 130 on the display screen 101S of the display device 101. Further, the display control unit 208 can display the index 130 at each of a plurality of positions on the display screen 101S of the display device 101.

光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部210は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。また、光源制御部210は、第1光源103Aから射出される検出光の光量、及び第2光源103Bから射出される検出光の光量を制御する。   The light source control unit 210 controls the light source driving unit 406 to control the operation states of the first light source 103A and the second light source 103B. The light source control unit 210 controls the first light source 103A and the second light source 103B such that the first light source 103A and the second light source 103B emit detection light at different timings. Further, the light source control unit 210 controls the amount of detection light emitted from the first light source 103A and the amount of detection light emitted from the second light source 103B.

カメラ制御部211は、第1カメラ入出力部404A及び第2カメラ入出力部404Bを制御して、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102の作動状態を制御する。   The camera control section 211 controls the first camera input / output section 404A and the second camera input / output section 404B to control the operation state of the stereo camera device 102 including the first camera 102A and the second camera 102B.

位置算出部212は、画像データ取得部202で取得された眼111の画像データに基づいて、瞳孔112の位置データを算出する。また、位置算出部212は、画像データ取得部202で取得された眼111の画像データに基づいて、角膜反射像113の位置データを算出する。位置算出部212は、表示装置101に表示された指標130を被験者に見せたときの眼111の画像データに基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを算出する。   The position calculation unit 212 calculates the position data of the pupil 112 based on the image data of the eye 111 acquired by the image data acquisition unit 202. Further, the position calculation unit 212 calculates the position data of the corneal reflection image 113 based on the image data of the eye 111 acquired by the image data acquisition unit 202. The position calculation unit 212 calculates the position data of the pupil 112 and the position data of the corneal reflection image 113 based on the image data of the eye 111 when the index 130 displayed on the display device 101 is shown to the subject.

位置算出部212は、被験者の右眼111R及び左眼111Lのそれぞれについて、瞳孔112の位置データ及び角膜反射像113の位置データを算出する。位置算出部212は、右眼111Rの画像データに基づいて、右眼111Rの瞳孔112Rと右眼111Rの角膜反射像113Rとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、左眼111Lの瞳孔112Lと左眼111Lの角膜反射像113Lとの相対位置を示す第2相対位置データを算出する。   The position calculation unit 212 calculates position data of the pupil 112 and position data of the corneal reflection image 113 for each of the right eye 111R and the left eye 111L of the subject. The position calculating unit 212 calculates first relative position data indicating a relative position between the pupil 112R of the right eye 111R and the corneal reflection image 113R of the right eye 111R based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates second relative position data indicating a relative position between the pupil 112L of the left eye 111L and the corneal reflection image 113L of the left eye 111L based on the image data of the left eye 111L.

本実施形態において、位置算出部212は、瞳孔112の位置データとして、XY平面内における瞳孔中心112Cの位置データを算出する。また、位置算出部212は、角膜反射像113の位置データとして、XY平面内における角膜反射中心113Cの位置データを算出する。瞳孔中心112Cとは、瞳孔112の中心をいう。角膜反射中心113Cとは、角膜反射像113の中心をいう。   In the present embodiment, the position calculator 212 calculates position data of the pupil center 112C in the XY plane as position data of the pupil 112. Further, the position calculation unit 212 calculates the position data of the corneal reflection center 113C in the XY plane as the position data of the corneal reflection image 113. Pupil center 112C refers to the center of pupil 112. The corneal reflection center 113C refers to the center of the corneal reflection image 113.

曲率中心算出部214は、画像データ取得部202で取得された眼111の画像データに基づいて、眼111の角膜曲率中心110の位置データを算出する。   The curvature center calculation unit 214 calculates the position data of the corneal curvature center 110 of the eye 111 based on the image data of the eye 111 acquired by the image data acquisition unit 202.

視線検出部216は、画像データ取得部202で取得された眼111の画像データに基づいて、被験者の視線を検出する。被験者の視線は、被験者が見ている視線方向を示す視線ベクトルを含む。視線検出部216は、表示装置101に表示された指標130を被験者に見せたときの眼111の画像データに基づいて、被験者の視線を検出する。視線検出部216は、眼111の画像データから取得された瞳孔中心112Cの位置データ及び角膜曲率中心110の位置データに基づいて、被験者の右眼111Rの視線ベクトル及び左眼111Lの視線ベクトルのそれぞれを検出する。   The gaze detection unit 216 detects the gaze of the subject based on the image data of the eye 111 acquired by the image data acquisition unit 202. The subject's line of sight includes a line of sight vector indicating the direction of the line of sight the subject is looking at. The gaze detection unit 216 detects the gaze of the subject based on image data of the eyes 111 when the index 130 displayed on the display device 101 is shown to the subject. The line-of-sight detection unit 216 determines the line-of-sight vector of the right eye 111R and the line-of-sight vector of the left eye 111L of the subject based on the position data of the pupil center 112C and the position data of the corneal curvature center 110 obtained from the image data of the eye 111, respectively. Is detected.

また、視線検出部216は、検出した視線ベクトルに基づいて、被験者の注視点の位置データを検出する。本実施形態において、被験者の注視点は、被験者の視線ベクトルと表示装置101の表示画面101Sとの交点を含む。本実施形態において、注視点の位置データとは、グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。   In addition, the gaze detection unit 216 detects the position data of the gazing point of the subject based on the detected gaze vector. In the present embodiment, the gaze point of the subject includes an intersection between the gaze vector of the subject and the display screen 101S of the display device 101. In the present embodiment, the position data of the gazing point refers to the position data of the intersection of the subject's line of sight vector defined by the global coordinate system and the display screen 101S of the display device 101.

評価部218は、位置算出部212で算出された位置データに基づいて、被験者の視機能の評価データを出力する。被験者の視機能の評価データは、被験者の斜視の評価データを含む。斜視の評価データは、被験者が斜視であるか否かを示す評価データ、及び斜視の角度を示す評価データを含む。   The evaluation unit 218 outputs evaluation data of the visual function of the subject based on the position data calculated by the position calculation unit 212. The evaluation data of the subject's visual function includes evaluation data of the subject's strabismus. The strabismus evaluation data includes evaluation data indicating whether or not the subject is strabismus and evaluation data indicating the angle of the strabismus.

記憶部220は、コンピュータプログラム20C及び各種のデータを記憶する。   The storage unit 220 stores the computer program 20C and various data.

出力制御部222は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部222は、少なくとも被験者の視機能の評価データを表示装置101又は出力装置50に表示させる。   The output control unit 222 outputs data to at least one of the display device 101, the output device 50, and the audio output device 70. In the present embodiment, the output control unit 222 causes the display device 101 or the output device 50 to display at least the evaluation data of the visual function of the subject.

[視線検出の原理]
次に、本実施形態に係る視線検出の原理について説明する。以下の説明では、主に曲率中心算出部214の処理の概要について説明する。曲率中心算出部214は、眼111の画像データに基づいて、眼111の角膜曲率中心110の位置データを算出する。
[Principle of gaze detection]
Next, the principle of gaze detection according to the present embodiment will be described. In the following description, an outline of the processing of the curvature center calculation unit 214 will be mainly described. The curvature center calculation unit 214 calculates position data of the corneal curvature center 110 of the eye 111 based on the image data of the eye 111.

図5及び図6は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図5は、1つの光源103Cで眼111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼111が照明される例を示す。   FIGS. 5 and 6 are schematic diagrams for explaining a method of calculating the position data of the corneal curvature center 110 according to the present embodiment. FIG. 5 shows an example in which the eye 111 is illuminated by one light source 103C. FIG. 6 shows an example in which the eye 111 is illuminated by the first light source 103A and the second light source 103B.

まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。図5において、瞳孔中心112Cは、眼111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼111が1つの光源103Cで照明されたときの角膜反射中心を示す。   First, the example shown in FIG. 5 will be described. The light source 103C is arranged between the first camera 102A and the second camera 102B. In FIG. 5, pupil center 112C indicates the pupil center when eye 111 is illuminated by one light source 103C. The corneal reflection center 113C indicates a corneal reflection center when the eye 111 is illuminated by one light source 103C.

角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。   The corneal reflection center 113C exists on a straight line connecting the light source 103C and the corneal curvature center 110. The corneal reflection center 113C is positioned at an intermediate point between the corneal surface and the corneal curvature center 110. The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110.

角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部214は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部220に記憶されている。   The position data of the corneal reflection center 113C is detected by the stereo camera device 102. The corneal curvature center 110 exists on a straight line connecting the light source 103C and the corneal reflection center 113C. The curvature center calculation unit 214 calculates position data at which the distance from the corneal reflection center 113C on the straight line becomes a predetermined value as position data of the corneal curvature center 110. The predetermined value is a value determined in advance from a general radius of curvature of the cornea or the like, and is stored in the storage unit 220.

次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。   Next, an example shown in FIG. 6 will be described. In the present embodiment, the first camera 102A and the second light source 103B and the second camera 102B and the first light source 103A are bilaterally symmetric with respect to a straight line passing through an intermediate position between the first camera 102A and the second camera 102B. It is arranged at the position. It can be considered that the virtual light source 103V exists at an intermediate position between the first camera 102A and the second camera 102B.

角膜反射中心121は、第2カメラ102Bで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。   The corneal reflection center 121 indicates a corneal reflection center in an image of the eye 111 taken by the second camera 102B. The corneal reflection center 122 indicates a corneal reflection center in an image obtained by photographing the eye 111 with the first camera 102A. The corneal reflection center 124 indicates a corneal reflection center corresponding to the virtual light source 103V.

角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定されるローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の3次元のローカル座標系を3次元のグローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部220に記憶されている。   The position data of the corneal reflection center 124 is calculated based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 acquired by the stereo camera device 102. The stereo camera device 102 detects the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 in the local coordinate system defined by the stereo camera device 102. For the stereo camera device 102, camera calibration by a stereo calibration method is performed in advance, and conversion parameters for converting the three-dimensional local coordinate system of the stereo camera device 102 to a three-dimensional global coordinate system are calculated. The conversion parameters are stored in the storage unit 220.

曲率中心算出部214は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、グローバル座標系における位置データに変換する。曲率中心算出部214は、グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、グローバル座標系における角膜反射中心124の位置データを算出する。   The center-of-curvature calculation unit 214 converts the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 acquired by the stereo camera device 102 into position data in the global coordinate system using the conversion parameters. The curvature center calculation unit 214 calculates the position data of the corneal reflection center 124 in the global coordinate system based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 defined in the global coordinate system.

角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部214は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部220に記憶されている。   The corneal curvature center 110 exists on a straight line 123 connecting the virtual light source 103V and the corneal reflection center 124. The curvature center calculation unit 214 calculates position data at which the distance from the corneal reflection center 124 on the straight line 123 becomes a predetermined value as position data of the corneal curvature center 110. The predetermined value is a value determined in advance from a general radius of curvature of the cornea or the like, and is stored in the storage unit 220.

図6を参照して説明したように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。   As described with reference to FIG. 6, even when there are two light sources, the corneal curvature center 110 is calculated in the same manner as the method in the case where there is one light source.

角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。   The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. Accordingly, the corneal curvature radius 109 is calculated by calculating the corneal surface position data and the corneal curvature center 110 position data.

このように、本実施形態においては、グローバル座標系における角膜曲率中心110の位置データ、瞳孔中心112Cの位置データ、及び角膜反射中心113Cの位置データが算出される。   Thus, in the present embodiment, the position data of the corneal curvature center 110, the pupil center 112C, and the corneal reflection center 113C in the global coordinate system are calculated.

視線検出部216は、瞳孔中心112Cの位置データ及び角膜曲率中心110の位置データに基づいて、被験者の視線ベクトルを検出することができる。   The gaze detection unit 216 can detect the gaze vector of the subject based on the position data of the pupil center 112C and the position data of the corneal curvature center 110.

[視機能検査方法]
次に、本実施形態に係る視機能検査方法の一例について説明する。図7は、本実施形態に係る視機能検査方法の一例を示すフローチャートである。本実施形態においては、被験者の斜視を検査する斜視検査処理(ステップS100)と、角膜曲率中心110の位置データの算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS200)と、視線検出処理(ステップS300)が実施される。
[Visual function test method]
Next, an example of the visual function inspection method according to the present embodiment will be described. FIG. 7 is a flowchart illustrating an example of the visual function inspection method according to the present embodiment. In the present embodiment, calibration including strabismus inspection processing for inspecting the strabismus of the subject (step S100), calculation processing of the position data of the corneal curvature center 110, and calculation processing of the distance data between the pupil center 112C and the corneal curvature center 110 are performed. The processing (step S200) and the visual line detection processing (step S300) are performed.

(斜視検査処理)
斜視検査処理について説明する。本実施形態において、視機能検査装置100は、光源103から射出された検出光を被験者に照射し、検出光が照射された被験者の眼111をステレオカメラ装置102で撮影し、角膜表面における光源103の反射像である角膜反射像113の位置データに基づいて、被験者の斜視の状態を検査する。
(Squint inspection process)
The strabismus inspection process will be described. In the present embodiment, the visual function inspection apparatus 100 irradiates the subject with the detection light emitted from the light source 103, takes an image of the subject's eye 111 irradiated with the detection light with the stereo camera device 102, and uses the light source 103 on the corneal surface. Based on the position data of the corneal reflection image 113, which is the reflection image of, the oblique state of the subject is inspected.

図8は、本実施形態に係る斜視検査処理(ステップS100)の一例を示すフローチャートである。図8に示すように、斜視検査処理(ステップS100)は、被験者に注視させる指標130を表示装置101に表示させる工程(ステップS101)と、光源103から検出光を射出して被験者に照射する工程(ステップS102)と、光源103から射出された検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データを取得する工程(ステップS103)と、右眼111Rの画像データに基づいて右眼111Rの瞳孔112Rと右眼111Rの角膜反射像113Rとの相対位置を示す第1相対位置データを算出し、左眼111Lの画像データに基づいて左眼111Lの瞳孔112Lと左眼111Lの角膜反射像113Lとの相対位置を示す第2相対位置データを算出する工程(ステップS104)と、第1相対位置データと第2相対位置データとに基づいて、被験者の視機能を評価して評価データを出力する工程(ステップS105,ステップS106,ステップS107)とを含む。   FIG. 8 is a flowchart illustrating an example of the perspective inspection process (step S100) according to the present embodiment. As shown in FIG. 8, in the strabismus inspection process (step S100), a step of displaying an index 130 to be watched by the subject on the display device 101 (step S101), and a step of emitting detection light from the light source 103 and irradiating the subject with the detection light (Step S102), a step of acquiring image data of the right eye 111R and image data of the left eye 111L of the subject irradiated with the detection light emitted from the light source 103 (Step S103), and a step of acquiring the image data of the right eye 111R. First relative position data indicating the relative position between the pupil 112R of the right eye 111R and the corneal reflection image 113R of the right eye 111R is calculated based on the pupil 112L of the left eye 111L and the left eye based on the image data of the left eye 111L. A step (step S104) of calculating second relative position data indicating a relative position of the 111L with respect to the corneal reflection image 113L; Position data and based on the second relative position data, and a step (step S105, step S106, step S107) for outputting the evaluation data by evaluating the visual function of the subject.

表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS101)。表示装置208は、例えば表示画面101Sの中心に指標130を表示させる。本実施形態において、表示制御部208は、表示画面101Sにおいて静止する指標130を表示装置101に表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。   The display control unit 208 causes the display device 101 to display the index 130 for causing the subject to gaze (step S101). The display device 208 displays the index 130 at the center of the display screen 101S, for example. In the present embodiment, the display control unit 208 causes the display device 101 to display the stationary index 130 on the display screen 101S. The subject is instructed to look at the index 130 displayed on the display device 101.

光源103から検出光が射出される(ステップS102)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。被験者の眼111の画像データは、第1カメラ102A及び第2カメラ102Bの少なくとも一方によって取得される。本実施形態においては、被験者の眼111の画像データが第1カメラ102Aによって取得される。なお、被験者の眼111の画像データが第2カメラ102Bによって取得されてもよい。なお、第1カメラ102Aで取得された画像データ及び第2カメラ102Bで取得された画像データの両方が使用されてもよい。   Detection light is emitted from the light source 103 (step S102). The stereo camera device 102 acquires the image data of the right eye 111R and the left eye 111L of the subject irradiated with the detection light. Image data of the subject's eye 111 is acquired by at least one of the first camera 102A and the second camera 102B. In the present embodiment, the image data of the subject's eye 111 is acquired by the first camera 102A. The image data of the subject's eye 111 may be acquired by the second camera 102B. Note that both the image data acquired by the first camera 102A and the image data acquired by the second camera 102B may be used.

図9は、本実施形態に係る検出光が照射された被験者の一例を模式的に示す図である。図9に示すように、被験者の右眼111R及び左眼111Lのそれぞれに検出光が形成されることにより、右眼111Rに角膜反射像113Rが形成され、左眼111Lに角膜反射像113Lが形成される。   FIG. 9 is a diagram schematically illustrating an example of the subject irradiated with the detection light according to the present embodiment. As shown in FIG. 9, the detection light is formed on each of the right eye 111R and the left eye 111L of the subject, so that a corneal reflection image 113R is formed on the right eye 111R and a corneal reflection image 113L is formed on the left eye 111L. Is done.

画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS103)。   The image data acquisition unit 202 acquires the image data of the right eye 111R and the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (step S103).

図10は、本実施形態に係る画像データ取得部202に取得された画像データの一例を模式的に示す図である。図10に示すように、画像データは、右眼111Rの瞳孔112Rの画像データ、右眼111Rの角膜反射像113Rの画像データ、左眼111Lの瞳孔112Lの画像データ、及び左眼111Lの角膜反射像113Lの画像データを含む。   FIG. 10 is a diagram schematically illustrating an example of image data acquired by the image data acquisition unit 202 according to the present embodiment. As shown in FIG. 10, the image data includes image data of the pupil 112R of the right eye 111R, image data of the corneal reflection image 113R of the right eye 111R, image data of the pupil 112L of the left eye 111L, and corneal reflection of the left eye 111L. The image data of the image 113L is included.

位置算出部212は、右眼111Rの画像データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。   The position calculation unit 212 calculates the position data of the pupil center 112Cr of the right eye 111R and the position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates the position data of the pupil center 112Cl of the left eye 111L and the position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane based on the image data of the left eye 111L.

位置算出部212は、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置を示す第2相対位置データを算出する(ステップS104)。   The position calculation unit 212 determines the pupil center 112Cr of the right eye 111R and the right eye 111R in the XY plane based on the position data of the pupil center 112Cr of the right eye 111R in the XY plane and the position data of the corneal reflection center 113Cr of the right eye 111R. First relative position data indicating a relative position of the 111R with respect to the corneal reflection center 113Cr is calculated. Further, the position calculation unit 212 calculates the pupil center 112Cl of the left eye 111L in the XY plane based on the position data of the pupil center 112Cl of the left eye 111L in the XY plane and the position data of the corneal reflection center 113Cl of the left eye 111L. The second relative position data indicating the relative position of the left eye 111L with respect to the corneal reflection center 113Cl is calculated (step S104).

図10に示すように、本実施形態において、第1相対位置データは、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryとを含む。第2相対位置データは、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyとを含む。   As shown in FIG. 10, in the present embodiment, the first relative position data includes a distance Rx between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R in the X-axis direction, and a right The distance Ry between the pupil center 112Cr of the eye 111R and the corneal reflection center 113Cr of the right eye 111R is included. The second relative position data includes the distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction, the pupil center 112Cl of the left eye 111L in the Y-axis direction, and the cornea of the left eye 111L. The distance Ly from the reflection center 113Cl is included.

評価部218は、距離Rxと距離Lxとの差Δxと、距離Ryと距離Lyとの差Δyとを算出する。   The evaluation unit 218 calculates a difference Δx between the distances Rx and Lx and a difference Δy between the distances Ry and Ly.

評価部218は、距離Rxと距離Lxとの差Δxが閾値SHx以上か否かを判定する。また、評価部218は、距離Ryと距離Lyとの差Δyが閾値SHy以上か否かを判定する(ステップS105)。すなわち、評価部218は、(1A)式及び(1B)式が成立するか否かを判定する。   The evaluation unit 218 determines whether the difference Δx between the distance Rx and the distance Lx is equal to or larger than a threshold SHx. Further, the evaluation unit 218 determines whether or not the difference Δy between the distance Ry and the distance Ly is equal to or larger than the threshold SHy (Step S105). That is, the evaluation unit 218 determines whether the expressions (1A) and (1B) are satisfied.

Figure 0006677156
Figure 0006677156

図10は、斜視の傾向がない被験者の眼111の画像データの一例を模式的に示す図である。図11は、斜視の傾向がない被験者が表示装置101の表示画面101Sの中心に表示されている指標130を見つめているときの視線を模式的に示す図である。図12は、斜視の傾向がある被験者の眼111の画像データの一例を模式的に示す図である。図13は、斜視の傾向がある被験者が表示装置101の表示画面101Sの中心に表示されている指標130を見つめているときの視線を模式的に示す図である。   FIG. 10 is a diagram schematically illustrating an example of image data of the subject's eye 111 that does not tend to be squint. FIG. 11 is a diagram schematically illustrating a line of sight when a subject who does not tend to be gazing is staring at the index 130 displayed at the center of the display screen 101S of the display device 101. FIG. 12 is a diagram schematically illustrating an example of image data of the eye 111 of the subject who tends to be oblique. FIG. 13 is a diagram schematically illustrating a line of sight when a subject who is inclined tends to look at the index 130 displayed at the center of the display screen 101S of the display device 101.

図11に示すように、被験者に斜視の傾向がない場合、右眼111Rの視線及び左眼111Lの視線は、指標130に向かう。一方、図13に示すように、被験者に斜視の傾向がある場合、右眼111Rの視線及び左眼111Lの少なくとも一方の視線は、指標130から外れる。図13は、被験者の左眼111Lに斜視の傾向がある状態を示す。図10に示すように、被験者に斜視の傾向がない場合、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyは小さい。一方、図12に示すように、被験者に斜視の傾向がある場合、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyの少なくとも一方は大きい。   As shown in FIG. 11, when the subject has no tendency to be skewed, the line of sight of the right eye 111R and the line of sight of the left eye 111L are directed to the index 130. On the other hand, as shown in FIG. 13, when the subject has a tendency to be squint, at least one of the line of sight of the right eye 111R and the line of sight of the left eye 111L deviates from the index 130. FIG. 13 shows a state in which the subject's left eye 111L tends to be squint. As shown in FIG. 10, when the subject does not tend to be strabismus, the difference Δx between the distance Rx and the distance Lx and the difference Δy between the distance Ry and the distance Ly are small. On the other hand, as shown in FIG. 12, when the subject tends to be oblique, at least one of the difference Δx between the distance Rx and the distance Lx and the difference Δy between the distance Ry and the distance Ly are large.

ステップS105において、差Δxが閾値SHx以上である又は差Δyが閾値SHy以上であると判定されたとき(ステップS105:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS106)。すなわち、(1A)式及び(1B)式の少なくとも一方が成立しないとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。   When it is determined in step S105 that the difference Δx is equal to or greater than the threshold SHx or the difference Δy is equal to or greater than the threshold SHy (step S105: Yes), the evaluation unit 218 evaluates that the visual function of the subject is abnormal. The data is output (step S106). That is, when at least one of the expressions (1A) and (1B) is not satisfied, the evaluation unit 218 determines that the subject has a tendency to be squint, and outputs evaluation data indicating that the subject has a tendency to be squint. .

ステップS105において、差Δxが閾値SHx以上でない及び差Δyが閾値SHy以上でないと判定されたとき(ステップS105:No)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS107)。すなわち、(1A)式及び(1B)式の両方が成立するとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。   When it is determined in step S105 that the difference Δx is not greater than or equal to the threshold SHx and the difference Δy is not greater than or equal to the threshold SHy (step S105: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal. (Step S107). That is, when both the expressions (1A) and (1B) are satisfied, the evaluation unit 218 determines that the subject has no tendency to be squint, and outputs evaluation data indicating that the subject has no tendency to be squint.

なお、閾値SHx及び閾値SHyは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。本実施形態において、閾値SHx及び閾値SHyは、瞳孔112の直径の3[%]以上7[%]以下の値に定められる。閾値SHx及び閾値SHyは、例えば、0.07[mm]以上0.13[mm]以下の値に定められてもよい。   The threshold SHx and the threshold SHy are statistically or empirically derived based on data obtained from a plurality of subjects who tend to be squint, and are stored in the storage unit 220. In the present embodiment, the threshold SHx and the threshold SHy are set to values of 3% to 7% of the diameter of the pupil 112. The threshold value SHx and the threshold value SHy may be set to, for example, 0.07 [mm] or more and 0.13 [mm] or less.

本実施形態においては、差Δxが閾値SHx以上である場合、被験者に内斜視又は外斜視の傾向があると評価される。差Δyが閾値SHy以上である場合、被験者に上斜視又は下斜視の傾向があると評価される。   In the present embodiment, when the difference Δx is equal to or greater than the threshold value SHx, it is evaluated that the subject has a tendency to be squinted or squinted. When the difference Δy is equal to or greater than the threshold value SHy, it is evaluated that the subject has a tendency to be upper or lower oblique.

出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。   The output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to be skewed or evaluation data indicating that there is no tendency to be squinted.

以上により、斜視検査処理が終了する。   Thus, the perspective inspection processing ends.

(キャリブレーション処理)
次に、キャリブレーション処理について説明する。本実施形態においては、斜視検査処理(ステップS100)が実施された後、角膜曲率中心110の位置データの算出処理、及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS200)が実施される。
(Calibration process)
Next, the calibration process will be described. In the present embodiment, after the strabismus inspection process (step S100) is performed, the calibration including the calculation process of the position data of the corneal curvature center 110 and the calculation process of the distance data between the pupil center 112C and the corneal curvature center 110 is performed. The process (Step S200) is performed.

図14は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理は、角膜曲率中心110の位置データを算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。   FIG. 14 is a schematic diagram for explaining an example of the calibration process according to the present embodiment. The calibration process includes calculating the position data of the corneal curvature center 110 and calculating the distance 126 between the pupil center 112C and the corneal curvature center 110.

表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる。指標130は、グローバル座標系において規定される。本実施形態において、指標130は、例えば表示装置101の表示画面101Sの中心に表示される。なお、指標130は、表示画面101Sの端部に表示されてもよい。   The display control unit 208 causes the display device 101 to display an index 130 for causing the subject to gaze. The index 130 is defined in a global coordinate system. In the present embodiment, the index 130 is displayed, for example, at the center of the display screen 101S of the display device 101. Note that the indicator 130 may be displayed at an end of the display screen 101S.

直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、指標130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部214は、仮想光源103Vの位置データと、指標130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。   The straight line 131 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. The straight line 132 is a straight line connecting the index 130 and the pupil center 112C. The corneal curvature center 110 is the intersection of the straight line 131 and the straight line 132. The curvature center calculation unit 214 calculates the position data of the corneal curvature center 110 based on the position data of the virtual light source 103V, the position data of the index 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C. Can be calculated.

図15は、本実施形態に係るキャリブレーション処理(ステップS200)の一例を示すフローチャートである。出力制御部222は、表示装置101の表示画面101Sに指標130を表示させる(ステップS201)。被験者は、指標130を注視することができる。   FIG. 15 is a flowchart illustrating an example of the calibration process (step S200) according to the present embodiment. The output control unit 222 causes the index 130 to be displayed on the display screen 101S of the display device 101 (Step S201). The subject can gaze at the index 130.

次に、光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS202)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼111を撮影する(ステップS203)。   Next, the light source control unit 210 controls the light source driving unit 406 to emit detection light from one of the first light source 103A and the second light source 103B (step S202). The stereo camera device 102 takes an image of the subject's eye 111 with the one of the first camera 102A and the second camera 102B that has a longer distance from the light source that has emitted the detection light (step S203).

次に、光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS204)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼111を撮影する(ステップS205)。   Next, the light source control unit 210 controls the light source driving unit 406 to emit detection light from the other of the first light source 103A and the second light source 103B (step S204). The stereo camera device 102 photographs the subject's eye 111 with the one of the first camera 102A and the second camera 102B that has a longer distance from the light source that has emitted the detection light (step S205).

瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置算出部212は、取得される画像の輝度に基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを検出することができる。また、位置算出部212は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置データを算出する。また、位置算出部212は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置データを算出する(ステップS206)。   Pupil 112 is detected by stereo camera device 102 as a dark part, and corneal reflection image 113 is detected by stereo camera device 102 as a bright part. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the corneal reflection image 113 has high brightness. The position calculation unit 212 can detect the position data of the pupil 112 and the position data of the corneal reflection image 113 based on the luminance of the acquired image. Further, the position calculation unit 212 calculates the position data of the pupil center 112C based on the image data of the pupil 112. Further, the position calculation unit 212 calculates the position data of the corneal reflection center 113C based on the image data of the corneal reflection image 113 (Step S206).

ステレオカメラ装置102によって検出された位置データは、ローカル座標系で規定される位置データである。位置算出部212は、記憶部220に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを座標変換して、グローバル座標系で規定される瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを算出する(ステップS207)。   The position data detected by the stereo camera device 102 is position data defined by a local coordinate system. The position calculation unit 212 performs coordinate conversion of the position data of the pupil center 112C and the position data of the corneal reflection center 113C detected by the stereo camera device 102 using the conversion parameters stored in the storage unit 220, and performs global conversion. The position data of the pupil center 112C and the position data of the corneal reflection center 113C defined by the coordinate system are calculated (step S207).

曲率中心算出部214は、グローバル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS208)。   The curvature center calculation unit 214 calculates a straight line 131 connecting the corneal reflection center 113C defined by the global coordinate system and the virtual light source 103V (step S208).

次に、曲率中心算出部214は、表示装置101の表示画面101Sに表示される指標130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS209)。曲率中心算出部214は、ステップS208で算出した直線131とステップS209で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS210)。   Next, the curvature center calculation unit 214 calculates a straight line 132 connecting the index 130 displayed on the display screen 101S of the display device 101 and the pupil center 112C (step S209). The curvature center calculation unit 214 finds an intersection between the straight line 131 calculated in step S208 and the straight line 132 calculated in step S209, and sets this intersection as the corneal curvature center 110 (step S210).

曲率中心算出部214は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部220に記憶する(ステップS211)。記憶された距離は、ステップS300の視線検出処理において、角膜曲率中心110を算出するために使用される。   The curvature center calculation unit 214 calculates a distance 126 between the pupil center 112C and the corneal curvature center 110, and stores the distance 126 in the storage unit 220 (step S211). The stored distance is used for calculating the corneal curvature center 110 in the line-of-sight detection processing in step S300.

(視線検出処理)
次に、視線検出処理について説明する。視線検出処理は、キャリブレーション処理の後に実施される。視線検出部216は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。
(Gaze detection processing)
Next, the gaze detection process will be described. The gaze detection process is performed after the calibration process. The gaze detection unit 216 calculates the gaze vector of the subject and the position data of the gazing point based on the image data of the eye 111.

図16は、本実施形態に係る視線検出処理の一例を説明するための模式図である。視線検出処理は、キャリブレーション処理(ステップS200)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置データを使って注視点を算出することを含む。   FIG. 16 is a schematic diagram illustrating an example of the eye gaze detection process according to the present embodiment. The gaze detection process corrects the position of the corneal curvature center 110 using the distance 126 between the pupil center 112C and the corneal curvature center 110 obtained in the calibration process (step S200), and corrects the corrected corneal curvature center 110. And calculating the point of gaze using the position data.

図16において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心110から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心110から求めた注視点を示す。   In FIG. 16, a gazing point 165 indicates a gazing point obtained from the corneal curvature center 110 calculated using a general curvature radius value. The gazing point 166 indicates a gazing point obtained from the corneal curvature center 110 calculated using the distance 126 obtained by the calibration process.

瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。   Pupil center 112C indicates the pupil center calculated in the calibration process, and corneal reflection center 113C indicates the corneal reflection center calculated in the calibration process.

直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。   The straight line 173 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. The corneal curvature center 110 is a position of the corneal curvature center calculated from a general curvature radius value.

距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。   The distance 126 is a distance between the pupil center 112C and the corneal curvature center 110 calculated by the calibration process.

角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。   The corneal curvature center 110H indicates the position of the corrected corneal curvature center obtained by correcting the corneal curvature center 110 using the distance 126.

角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。   The corneal curvature center 110H is obtained from the fact that the corneal curvature center 110 exists on the straight line 173 and that the distance between the pupil center 112C and the corneal curvature center 110 is a distance 126. Thus, the line of sight 177 calculated when using a general radius of curvature is corrected to the line of sight 178. Further, the gazing point on the display screen 101S of the display device 101 is corrected from the gazing point 165 to the gazing point 166.

図17は、本実施形態に係る視線検出処理(ステップS300)の一例を示すフローチャートである。なお、図17に示すステップS301からステップS307までの処理は、図15に示したステップS202からステップS208までの処理と同様であるため説明を省略する。   FIG. 17 is a flowchart illustrating an example of the gaze detection process (step S300) according to the present embodiment. Note that the processing from step S301 to step S307 shown in FIG. 17 is the same as the processing from step S202 to step S208 shown in FIG.

曲率中心算出部214は、ステップS307で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を角膜曲率中心110Hとして算出する(ステップS308)。   The curvature center calculation unit 214 calculates, as the corneal curvature center 110H, a position on the straight line 173 calculated in step S307, where the distance from the pupil center 112C is equal to the distance 126 obtained by the calibration process (step S308).

視線検出部216は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS309)。視線ベクトルは、被験者が見ている視線方向を示す。視線検出部216は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置データを算出する(ステップS310)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置データが、グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置データである。   The gaze detection unit 216 calculates a gaze vector connecting the pupil center 112C and the corneal curvature center 110H (step S309). The line of sight vector indicates the direction of the line of sight that the subject is looking at. The gaze detection unit 216 calculates the position data of the intersection between the gaze vector and the display screen 101S of the display device 101 (Step S310). The position data of the intersection between the line-of-sight vector and the display screen 101S of the display device 101 is the position data of the gazing point of the subject on the display screen 101S defined by the global coordinate system.

視線検出部216は、グローバル座標系で規定される注視点の位置データを、二次元座標系で規定される表示装置101の表示画面101Sにおける位置データに変換する(ステップS311)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置データが算出される。   The line-of-sight detection unit 216 converts the position data of the gazing point specified by the global coordinate system into position data on the display screen 101S of the display device 101 specified by the two-dimensional coordinate system (step S311). Thereby, the position data of the gazing point on the display screen 101S of the display device 101 that the subject looks at is calculated.

[作用及び効果]
以上説明したように、本実施形態によれば、右眼111Rの画像データ及び左眼111Lの画像データが取得され、右眼111Rの画像データに基づいて、右眼111Rの瞳孔中心112Crと角膜反射中心113Crとの相対位置を示す第1相対位置データが算出され、左眼111Lの画像データに基づいて、左眼111Lの瞳孔中心112Clと角膜反射中心113Clとの相対位置を示す第2相対位置データが算出される。第1相対位置データ及び第2相対位置データが算出された後、第1相対位置データと第2相対位置データとに基づいて、被験者の視機能の評価データが出力される。右眼111Rについての第1相対位置データ及び左眼111Lについての第2相対位置データに基づいて、被験者の斜視の状態が評価されるため、斜視の検査において、光源103と被験者との相対位置が変動しても、検査精度の低下が抑制される。すなわち、斜視の検査において、被験者の頭部が動いても、右眼111Rと左眼111Lとは相対位置を維持したまま移動する。被験者の頭部が動いても、右眼111Rと左眼111Lとの相対位置が維持されるため、それら右眼111Rについての第1相対位置データ及び左眼111Lについての第2相対位置データに基づいて、被験者の斜視の状態を精度良く検査することができる。
[Action and effect]
As described above, according to the present embodiment, the image data of the right eye 111R and the image data of the left eye 111L are acquired, and the pupil center 112Cr and the corneal reflection of the right eye 111R are obtained based on the image data of the right eye 111R. First relative position data indicating a relative position with respect to the center 113Cr is calculated, and second relative position data indicating a relative position between the pupil center 112Cl and the corneal reflection center 113Cl of the left eye 111L based on the image data of the left eye 111L. Is calculated. After the first relative position data and the second relative position data are calculated, evaluation data of the visual function of the subject is output based on the first relative position data and the second relative position data. Based on the first relative position data for the right eye 111R and the second relative position data for the left eye 111L, the state of the subject's strabismus is evaluated. Even if it fluctuates, a decrease in inspection accuracy is suppressed. That is, in the examination of the strabismus, even if the subject's head moves, the right eye 111R and the left eye 111L move while maintaining the relative positions. Even if the subject's head moves, the relative position between the right eye 111R and the left eye 111L is maintained, and therefore, based on the first relative position data for the right eye 111R and the second relative position data for the left eye 111L. As a result, it is possible to accurately inspect the oblique state of the subject.

また、本実施形態においては、第1相対位置データとして、距離Rx及び距離Ryが算出され、第2相対位置データとして、距離Lx及び距離Lyが算出される。評価部218は、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyに基づいて、評価データを出力する。これにより、被験者に内斜視又は外斜視の傾向があるか否か、及び被験者に上斜視又は下斜視の傾向があるか否かを評価することができる。例えば、差Δxが閾値SHx以上である場合、被験者に内斜視又は外斜視の傾向があると評価することができる。差Δyが閾値SHy以上である場合、被験者に上斜視又は下斜視の傾向があると評価することができる。   In the present embodiment, the distance Rx and the distance Ry are calculated as the first relative position data, and the distance Lx and the distance Ly are calculated as the second relative position data. The evaluation unit 218 outputs evaluation data based on the difference Δx between the distance Rx and the distance Lx and the difference Δy between the distance Ry and the distance Ly. This makes it possible to evaluate whether or not the subject has a tendency to be squinted or strabismus, and whether or not the subject has a tendency to be squinted or slanted. For example, when the difference Δx is equal to or greater than the threshold value SHx, it can be evaluated that the subject has a tendency to be squinted or squinted. When the difference Δy is equal to or greater than the threshold value SHy, it can be evaluated that the subject has a tendency to be upper or lower oblique.

第2実施形態.
第2実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Second embodiment.
A second embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

本実施形態においては、斜視検出処理(ステップS100)において、第1相対位置データ及び第2相対位置データに基づいて、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dが算出される例について説明する。   In the present embodiment, in the strabismus detection process (step S100), the position of the pupil center 112Cr of the right eye 111R and the pupil center of the left eye 111L in the XY plane based on the first relative position data and the second relative position data. An example in which the distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of 112Cl is matched will be described.

図18は、本実施形態における右眼111Rの画像データと左眼111Lの画像データとを画像処理した結果の一例を模式的に示す図である。画像処理部206は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とが一致するように、画像データ取得部202で取得された右眼111Rの画像データと左眼111Lの画像データとを合成する。   FIG. 18 is a diagram schematically illustrating an example of a result of performing image processing on image data of the right eye 111R and image data of the left eye 111L in the present embodiment. The image processing unit 206 adjusts the image of the right eye 111R acquired by the image data acquisition unit 202 such that the position of the pupil center 112Cr of the right eye 111R and the position of the pupil center 112Cl of the left eye 111L match in the XY plane. The data and the image data of the left eye 111L are combined.

位置算出部212は、画像処理部206で合成された画像データにおいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、画像処理部206で合成された画像データにおいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。   The position calculation unit 212 calculates the position data of the pupil center 112Cr of the right eye 111R and the position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane in the image data synthesized by the image processing unit 206. Further, the position calculation unit 212 calculates the position data of the pupil center 112Cl of the left eye 111L and the position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane in the image data synthesized by the image processing unit 206.

また、位置算出部212は、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryとを算出する。また、位置算出部212は、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyとを算出する。   Further, the position calculation unit 212 calculates the distance Rx between the pupil center 112Cr of the right eye 111R in the X-axis direction and the corneal reflection center 113Cr of the right eye 111R, and the pupil center 112Cr and the right eye 111R of the right eye 111R in the Y-axis direction. The distance Ry from the corneal reflection center 113Cr is calculated. Further, the position calculation unit 212 calculates the distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction, and the pupil center 112Cl of the left eye 111L and the left eye 111L in the Y-axis direction. The distance Ly to the corneal reflection center 113Cl is calculated.

図18に示すように、位置算出部212は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dを算出する。すなわち、位置算出部212は、(2)式の演算を実施する。   As shown in FIG. 18, the position calculation unit 212 calculates the corneal reflection center of the right eye 111R when the position of the pupil center 112Cr of the right eye 111R matches the position of the pupil center 112Cl of the left eye 111L in the XY plane. The distance D between 113Cr and the corneal reflection center 113Cl of the left eye 111L is calculated. That is, the position calculation unit 212 performs the calculation of Expression (2).

Figure 0006677156
Figure 0006677156

評価部218は、距離Dに基づいて、被験者の視機能の評価データを出力する。   The evaluation unit 218 outputs evaluation data of the visual function of the subject based on the distance D.

図18は、斜視の傾向がない被験者の右眼111Rの画像データと左眼111Lの画像データとを合成した画像データの一例を模式的に示す図である。図19は、斜視の傾向がある被験者の右眼111Rの画像データと左眼111Lの画像データとを合成した画像データの一例を模式的に示す図である。図18に示すように、被験者に斜視の傾向がない場合、距離Dは小さい。一方、図19に示すように、被験者に斜視の傾向がある場合、距離Dは大きい。   FIG. 18 is a diagram schematically illustrating an example of image data obtained by combining the image data of the right eye 111R and the image data of the left eye 111L of the subject who does not tend to be squint. FIG. 19 is a diagram schematically illustrating an example of image data obtained by synthesizing image data of the right eye 111R and image data of the left eye 111L of a subject who tends to be oblique. As shown in FIG. 18, when the subject does not tend to be squint, the distance D is small. On the other hand, as shown in FIG. 19, when the subject has a tendency to be skewed, the distance D is large.

本実施形態において、評価部218は、距離Dが閾値SH以上であるとき、被験者の視機能が異常であることを示す評価データを出力する。すなわち、距離Dが閾値SH以上であるとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。   In the present embodiment, when the distance D is equal to or greater than the threshold value SH, the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal. That is, when the distance D is equal to or greater than the threshold value SH, the evaluation unit 218 determines that the subject has a tendency to be squint, and outputs evaluation data indicating that the subject has a tendency to be squint.

一方、評価部218は、距離Dが閾値SH以上でないとき、被験者の視機能が正常であることを示す評価データを出力する。すなわち、距離Dが閾値SH未満であるとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。   On the other hand, when the distance D is not greater than or equal to the threshold value SH, the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is normal. That is, when the distance D is less than the threshold value SH, the evaluation unit 218 determines that the subject has no tendency to be squint, and outputs evaluation data indicating that the subject has no tendency to be squint.

なお、閾値SHは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。本実施形態において、閾値SHは、瞳孔112の直径の5[%]以上10[%]以下の値に定められる。閾値SHは、例えば、0.07[mm]以上0.13[mm]以下の値に定められてもよい。   The threshold value SH is derived statistically or empirically based on data obtained from a plurality of subjects who tend to be squint, and is stored in the storage unit 220. In the present embodiment, the threshold value SH is set to a value of 5% to 10% of the diameter of the pupil 112. The threshold value SH may be set to, for example, a value of 0.07 [mm] or more and 0.13 [mm] or less.

出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。   The output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to be skewed or evaluation data indicating that there is no tendency to be squinted.

以上説明したように、本実施形態によれば、右眼111Rの画像データと左眼111Lの画像データとが合成され、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dが算出される。スカラー値である距離Dに基づいて、被験者の斜視の状態が評価されるため、演算処理の負担を軽減することができる。   As described above, according to the present embodiment, the image data of the right eye 111R and the image data of the left eye 111L are synthesized, and the position of the pupil center 112Cr of the right eye 111R and the pupil of the left eye 111L in the XY plane. The distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of the center 112Cl is matched is calculated. Based on the distance D, which is a scalar value, the state of the subject's strabismus is evaluated, so that the load on the arithmetic processing can be reduced.

本実施形態においては、被験者に注視させるための指標130は、表示画面101Sの中心に表示されてもよいし、表示画面101Sの端部に表示されてもよい。表示画面101Sにおける指標130の位置が距離Dの算出に及ぼす影響は小さい。   In the present embodiment, the index 130 for causing the subject to gaze may be displayed at the center of the display screen 101S, or may be displayed at an end of the display screen 101S. The influence of the position of the index 130 on the display screen 101S on the calculation of the distance D is small.

第3実施形態.
第3実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Third embodiment.
A third embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

図20は、本実施形態における右眼111Rの画像データと左眼111Lの画像データとを画像処理した結果の一例を模式的に示す図である。本実施形態は、上述の第2実施形態の応用例である。   FIG. 20 is a diagram schematically illustrating an example of a result obtained by performing image processing on image data of the right eye 111R and image data of the left eye 111L in the present embodiment. This embodiment is an application example of the above-described second embodiment.

図20に示すように、本実施形態において、位置算出部212は、距離DのX軸方向の成分である距離Dxと、距離DのY軸方向の成分である距離Dyとを算出する。距離Dxは、X軸方向における右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離である。距離Dyは、Y軸方向における右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離である。   As shown in FIG. 20, in the present embodiment, the position calculation unit 212 calculates a distance Dx that is a component of the distance D in the X-axis direction and a distance Dy that is a component of the distance D in the Y-axis direction. The distance Dx is the distance between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction. The distance Dy is the distance between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L in the Y-axis direction.

評価部218は、距離Dxに基づいて、被験者に内斜視又は外斜視の傾向があるか否かを評価することができる。また、評価部218は、距離Dyに基づいて、被験者に上斜視又は下斜視の傾向があるか否かを評価することができる。   The evaluation unit 218 can evaluate whether or not the subject has an internal squint or an external squint based on the distance Dx. In addition, the evaluation unit 218 can evaluate whether or not the subject has an upper squint or a lower squint based on the distance Dy.

例えば、距離Dxが予め定められている閾値以上である場合、被験者に内斜視又は外斜視の傾向があると評価される。距離Dyが予め定められている閾値以上である場合、被験者に上斜視又は下斜視の傾向があると評価される。   For example, when the distance Dx is equal to or greater than a predetermined threshold value, it is evaluated that the subject has a tendency to have an internal or external strabismus. If the distance Dy is equal to or greater than a predetermined threshold, it is evaluated that the subject has a tendency to be upper squint or lower squint.

第4実施形態.
第4実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Fourth embodiment.
A fourth embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

本実施形態においては、第1相対位置データが、規定時間PTにおける右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置の時系列データを含み、第2相対位置データが、規定時間PTにおける左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置の時系列データを含む例について説明する。   In the present embodiment, the first relative position data includes time-series data of a relative position between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R at the specified time PT, and the second relative position data includes An example including time-series data of the relative position between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L at the specified time PT will be described.

図21は、本実施形態に係る斜視検査方法の一例を示すフローチャートである。表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS111)。表示制御部208は、指標130を表示装置101の表示画面101Sの中心に表示させてもよいし表示画面101Sの端部に表示させてもよい。また、表示制御部208は、表示画面101Sにおいて静止する指標130を表示装置101に表示させてもよいし、表示画面101Sにおいて移動する指標130を表示装置101に表示させてもよい。   FIG. 21 is a flowchart illustrating an example of the perspective inspection method according to the present embodiment. The display control unit 208 causes the display device 101 to display the index 130 for causing the subject to gaze (step S111). The display control unit 208 may display the index 130 at the center of the display screen 101S of the display device 101 or at the end of the display screen 101S. Further, the display control unit 208 may cause the display device 101 to display the stationary index 130 on the display screen 101S, or display the moving index 130 on the display screen 101S.

本実施形態において、表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。   In the present embodiment, the display control unit 208 causes the display device 101 to display the stationary and moving index 130 on the display screen 101S of the display device 101. The subject is instructed to look at the index 130 displayed on the display device 101.

光源103から検出光が射出される(ステップS112)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。   Detection light is emitted from the light source 103 (step S112). The stereo camera device 102 acquires the image data of the right eye 111R and the left eye 111L of the subject irradiated with the detection light.

画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS113)。   The image data acquisition unit 202 acquires image data of the right eye 111R and image data of the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (step S113).

位置算出部212は、右眼111Rの画像データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。   The position calculation unit 212 calculates the position data of the pupil center 112Cr of the right eye 111R and the position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates the position data of the pupil center 112Cl of the left eye 111L and the position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane based on the image data of the left eye 111L.

位置算出部212は、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置を示す第2相対位置データを算出する(ステップS114)。   The position calculation unit 212 determines the pupil center 112Cr of the right eye 111R and the right eye 111R in the XY plane based on the position data of the pupil center 112Cr of the right eye 111R in the XY plane and the position data of the corneal reflection center 113Cr of the right eye 111R. First relative position data indicating a relative position of the 111R with respect to the corneal reflection center 113Cr is calculated. Further, the position calculation unit 212 calculates the pupil center 112Cl of the left eye 111L in the XY plane based on the position data of the pupil center 112Cl of the left eye 111L in the XY plane and the position data of the corneal reflection center 113Cl of the left eye 111L. The second relative position data indicating the relative position of the left eye 111L with respect to the corneal reflection center 113Cl is calculated (step S114).

上述の実施形態と同様、位置算出部212は、第1相対位置データとして、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryを算出する。また、位置算出部212は、第2相対位置データとして、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyと算出する。   As in the above-described embodiment, the position calculator 212 determines, as the first relative position data, the distance Rx between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R in the X-axis direction and the Y-axis direction. The distance Ry between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R is calculated. In addition, the position calculation unit 212 determines, as the second relative position data, the distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction, and the pupil of the left eye 111L in the Y-axis direction. The distance Ly between the center 112Cl and the corneal reflection center 113Cl of the left eye 111L is calculated.

また、上述の実施形態と同様、画像処理部206は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とが一致するように、右眼111Rの画像データと左眼111Lの画像データとを合成する。位置算出部212は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dを算出する(ステップS115)。   Further, similarly to the above-described embodiment, the image processing unit 206 adjusts the image of the right eye 111R so that the position of the pupil center 112Cr of the right eye 111R matches the position of the pupil center 112Cl of the left eye 111L in the XY plane. The data and the image data of the left eye 111L are combined. The position calculation unit 212 calculates the corneal reflection center 113Cr of the right eye 111R and the cornea of the left eye 111L when the position of the pupil center 112Cr of the right eye 111R matches the position of the pupil center 112Cl of the left eye 111L in the XY plane. The distance D from the reflection center 113Cl is calculated (step S115).

記憶部220は、ステップS115で算出された距離Dを記憶する(ステップS116)。   The storage unit 220 stores the distance D calculated in step S115 (step S116).

視機能検査装置100は、ステップS111からステップS116までの処理を規定の周期で実施する。本実施形態において、ステップS111からステップS116までの処理は、1秒間に50回実施される。ステップS111からステップS116までの処理は、予め定められた規定時間PTだけ実施される。本実施形態において、規定時間PTは30秒である。なお、規定時間PTは任意に定められる。   The visual function inspection apparatus 100 performs the processing from step S111 to step S116 at a specified cycle. In the present embodiment, the processing from step S111 to step S116 is performed 50 times per second. The processing from step S111 to step S116 is performed for a predetermined time PT. In the present embodiment, the specified time PT is 30 seconds. The specified time PT is arbitrarily determined.

すなわち、本実施形態において、位置算出部212は、規定時間PTにおける第1相対位置データ及び第2相対位置データに基づいて、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dの時系列データを規定の周期で算出する。算出された距離Dの時系列データは、記憶部220に順次記憶される。   That is, in the present embodiment, the position calculation unit 212 determines the position of the pupil center 112Cr of the right eye 111R and the position of the left eye 111L in the XY plane based on the first relative position data and the second relative position data at the specified time PT. Time series data of the distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of the pupil center 112Cl is matched is calculated at a prescribed cycle. The time series data of the calculated distance D is sequentially stored in the storage unit 220.

評価部218は、ステップS111からステップS116までの処理が開始されてからの経過時間が規定時間PTを超えたか否かを判定する(ステップS117)。   The evaluation unit 218 determines whether the elapsed time from the start of the processing from step S111 to step S116 has exceeded the specified time PT (step S117).

ステップS117において、経過時間が規定時間PTを超えていないと判定されたとき(ステップS117:No)、ステップS111に戻り、ステップS111からステップS116までの処理が実施される。   When it is determined in step S117 that the elapsed time does not exceed the specified time PT (step S117: No), the process returns to step S111, and the processes from step S111 to step S116 are performed.

ステップS117において、経過時間が規定時間PTを超えたと判定されたとき(ステップS117:Yes)、評価部218は、記憶部220に記憶されている複数の距離Dを示すデータに基づいて、規定時間PTにおける距離Dの平均値を算出する。本実施形態においては、距離Dが1秒間に50回算出され、規定時間PTは30秒である。したがって、記憶部220には、1500のサンプル数の距離Dを示すデータが記憶されている。評価部218は、1500のサンプル数の距離Dの平均値を算出する。   When it is determined in step S117 that the elapsed time has exceeded the specified time PT (step S117: Yes), the evaluation unit 218 determines the specified time based on the data indicating the plurality of distances D stored in the storage unit 220. The average value of the distance D at the PT is calculated. In the present embodiment, the distance D is calculated 50 times per second, and the specified time PT is 30 seconds. Therefore, the storage unit 220 stores data indicating the distance D of 1500 samples. The evaluation unit 218 calculates an average value of the distances D for 1500 samples.

評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、規定時間PTにおける距離Dの平均値が予め定められている閾値SK以上か否かを判定する(ステップS118)。   The evaluation unit 218 outputs evaluation data of the visual function of the subject based on the average value of the distance D at the specified time PT. In the present embodiment, the evaluation unit 218 determines whether the average value of the distance D at the specified time PT is equal to or larger than a predetermined threshold SK (Step S118).

ステップS118において、規定時間PTにおける距離Dの平均値が閾値SK以上であると判定されたとき(ステップS118:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS119)。すなわち、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。   When it is determined in step S118 that the average value of the distance D at the specified time PT is equal to or greater than the threshold value SK (step S118: Yes), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal. The data is output (step S119). That is, the evaluation unit 218 determines that the subject has a tendency to be squint, and outputs evaluation data indicating that the subject has a tendency to be squint.

ステップS118において、規定時間PTにおける距離Dの平均値が閾値SK以上でないと判定されたとき(ステップS118:No)、評価部218は、記憶部220に記憶されている複数の距離Dを示すデータに基づいて、規定時間PTを複数に分割した分割時間DTのそれぞれにおける距離Dの平均値を算出する。分割時間DTは、規定時間PTよりも短い。規定時間PTが30秒である場合、分割時間DTは、例えば1秒以上10秒以下に定められる。   When it is determined in step S118 that the average value of the distances D at the specified time PT is not greater than or equal to the threshold value SK (step S118: No), the evaluation unit 218 stores the data indicating the plurality of distances D stored in the storage unit 220. , The average value of the distance D in each of the divided times DT obtained by dividing the specified time PT into a plurality is calculated. The division time DT is shorter than the specified time PT. When the specified time PT is 30 seconds, the division time DT is set to, for example, 1 second or more and 10 seconds or less.

評価部218は、複数の分割時間DTのそれぞれにおける距離Dの平均値に基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、分割時間DTにおける距離Dの平均値が予め定められている閾値SK以上か否かを判定する(ステップS120)。   The evaluation unit 218 outputs evaluation data of the visual function of the subject based on the average value of the distance D in each of the plurality of division times DT. In the present embodiment, the evaluation unit 218 determines whether or not the average value of the distance D during the division time DT is equal to or greater than a predetermined threshold SK (Step S120).

ステップS120において、分割時間DTにおける距離Dの平均値が閾値SK以上であると判定されたとき(ステップS120:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS121)。本実施形態において、評価部218は、被験者に間欠性斜視の傾向があると判定し、被験者に間欠性斜視の傾向があることを示す評価データを出力する。   When it is determined in step S120 that the average value of the distance D in the divided time DT is equal to or greater than the threshold value SK (step S120: Yes), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal. Output (Step S121). In the present embodiment, the evaluation unit 218 determines that the subject has a tendency of intermittent strabismus, and outputs evaluation data indicating that the subject has a tendency of intermittent strabismus.

間欠性斜視とは、斜視が出現するとき及び出現しないときの2つの状態を併せ持つ斜視をいう。   The term “intermittent strabismus” refers to a strabismus having two states when a strabismus appears and when it does not appear.

ステップS120において、分割時間DTにおける距離Dの平均値が閾値SK以上でないと判定されたとき(ステップS120:No)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS122)。すなわち、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。   When it is determined in step S120 that the average value of the distance D in the divided time DT is not equal to or greater than the threshold SK (step S120: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal. (Step S122). That is, the evaluation unit 218 determines that the subject does not tend to be squint, and outputs evaluation data indicating that the subject does not tend to be squint.

図22、図23、及び図24は、本実施形態に係る表示装置101に表示される指標130の一例を模式的に示す図である。上述したように、本実施形態において、表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させる。   FIGS. 22, 23, and 24 are diagrams schematically illustrating an example of the index 130 displayed on the display device 101 according to the present embodiment. As described above, in the present embodiment, the display control unit 208 causes the display device 101 to display the stationary and moving index 130 on the display screen 101S of the display device 101.

図22に示すように、表示制御部208は、表示装置101の表示画面101Sの第1位置PJ1において静止する指標130を表示装置101に表示させる。本実施形態において、第1位置PJ1は、表示画面101Sの+X方向及び+Y方向の端部に規定される。なお、第1位置PJ1は、表示画面101Sの任意の位置に定めることができる。   As shown in FIG. 22, the display control unit 208 causes the display device 101 to display the index 130 that is stationary at the first position PJ1 of the display screen 101S of the display device 101. In the present embodiment, the first position PJ1 is defined at the ends of the display screen 101S in the + X direction and the + Y direction. Note that the first position PJ1 can be set at an arbitrary position on the display screen 101S.

本実施形態において、表示制御部208は、表示画面101Sの第1位置PJ1において指標130を11秒間静止させる。   In the present embodiment, the display control unit 208 stops the index 130 at the first position PJ1 of the display screen 101S for 11 seconds.

第1位置PJ1において指標130を11秒間静止させた後、表示制御部208は、表示画面101Sにおいて指標130を移動させる。図23に示すように、表示制御部208は、表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130を移動させる。本実施形態において、第2位置PJ2は、表示画面101Sの−X方向及び−Y方向の端部に規定される。なお、第2位置PJ2は、表示画面101Sの任意の位置に定めることができる。   After stopping the index 130 at the first position PJ1 for 11 seconds, the display control unit 208 moves the index 130 on the display screen 101S. As shown in FIG. 23, the display control unit 208 moves the index 130 from the first position PJ1 on the display screen 101S to the second position PJ2. In the present embodiment, the second position PJ2 is defined at the end of the display screen 101S in the -X direction and the -Y direction. Note that the second position PJ2 can be set at an arbitrary position on the display screen 101S.

第1位置PJ1から第2位置PJ2までの指標130の移動軌跡は、直線状でもよいし、曲線状でもよいし、複数の曲折部を含むジグザグ(zigzag)状でもよい。   The movement trajectory of the index 130 from the first position PJ1 to the second position PJ2 may be linear, curved, or zigzag including a plurality of bent portions.

本実施形態において、表示制御部208は、指標130を第1位置PJ1から第2位置PJ2まで6秒間で移動させる。   In the present embodiment, the display control unit 208 moves the index 130 from the first position PJ1 to the second position PJ2 in six seconds.

図24に示すように、表示制御部208は、表示装置101の表示画面101Sの第2位置PJ2において静止する指標130を表示装置101に表示させる。   As illustrated in FIG. 24, the display control unit 208 causes the display device 101 to display the index 130 that is stationary at the second position PJ2 of the display screen 101S of the display device 101.

本実施形態において、表示制御部208は、表示画面101Sの第2位置PJ2において指標130を13秒間静止させる。   In the present embodiment, the display control unit 208 stops the index 130 at the second position PJ2 of the display screen 101S for 13 seconds.

分割時間DTは、表示画面101Sにおける指標130の移動条件に基づいて決定される。分割時間DTは、表示画面101Sにおいて指標130が静止している静止時間に基づいて決定される。また、分割時間DTは、表示画面101Sにおいて指標130が移動している移動時間に基づいて決定される。   The division time DT is determined based on a moving condition of the index 130 on the display screen 101S. The division time DT is determined based on the stationary time during which the index 130 is stationary on the display screen 101S. Further, the division time DT is determined based on the moving time during which the index 130 moves on the display screen 101S.

本実施形態においては、表示画面101Sの第1位置PJ1において指標130が静止している静止時間に基づいて、第1分割時間DT1が決定される。表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130が移動する移動時間に基づいて、第2分割時間DT2が決定される。表示画面101Sの第2位置PJ2において指標130が静止している静止時間に基づいて、第3分割時間DT3が決定される。   In the present embodiment, the first divided time DT1 is determined based on the stationary time during which the index 130 is stationary at the first position PJ1 of the display screen 101S. The second divided time DT2 is determined based on the moving time of the index 130 from the first position PJ1 to the second position PJ2 of the display screen 101S. The third division time DT3 is determined based on the stationary time during which the index 130 is stationary at the second position PJ2 of the display screen 101S.

図25、図26、及び図27は、本実施形態に係る記憶部220に記憶されている距離Dの時系列データの一例を模式的に示す図である。   FIG. 25, FIG. 26, and FIG. 27 are diagrams schematically illustrating an example of the time-series data of the distance D stored in the storage unit 220 according to the present embodiment.

図25に示すように、規定時間PTの全期間において距離Dが閾値SK未満であるとき、被験者に斜視の傾向はない可能性が高い。規定時間PTの全期間において距離Dが閾値SK未満であるとき、規定時間PTにおける距離Dの平均値は閾値SK未満となる。図25に示すような距離Dの時系列データが取得された場合、ステップS122で説明したように、評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者に斜視の傾向がないことを示す評価データを出力する。   As shown in FIG. 25, when the distance D is less than the threshold value SK during the entire period of the specified time PT, it is highly possible that the subject does not tend to be squint. When the distance D is less than the threshold SK during the entire period of the specified time PT, the average value of the distance D at the specified time PT is less than the threshold SK. When the time-series data of the distance D as illustrated in FIG. 25 is acquired, as described in step S122, the evaluation unit 218 determines that the subject has a tendency to be strabismus based on the average value of the distance D at the specified time PT. Outputs evaluation data indicating no

図26に示すように、規定時間PTの全期間において距離Dが閾値SK以上であるとき、被験者に斜視の傾向がある可能性が高い。規定時間PTの全期間において距離Dが閾値SK以上であるとき、規定時間PTにおける距離Dの平均値は閾値SK以上となる。図26に示すような距離Dの時系列データが取得された場合、ステップS119で説明したように、評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者に斜視の傾向があることを示す評価データを出力する。   As shown in FIG. 26, when the distance D is equal to or greater than the threshold value SK during the entire period of the specified time PT, it is highly possible that the subject has a tendency to be skewed. When the distance D is equal to or greater than the threshold SK in the entire period of the specified time PT, the average value of the distance D in the specified time PT is equal to or larger than the threshold SK. When the time-series data of the distance D as shown in FIG. 26 is acquired, as described in step S119, the evaluation unit 218 determines that the subject has a tendency to be strabismus based on the average value of the distance D at the specified time PT. Outputs evaluation data indicating that there is.

図27に示すように、規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、被験者に間欠性斜視の傾向がある可能性が高い。規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、規定時間PTにおける距離Dの平均値が閾値SK未満になる可能性がある。すなわち、規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、被験者に間欠性斜視の傾向があるにもかかわらず、規定時間PTにおける距離Dの平均値は閾値SK未満になる可能性がある。被験者に間欠性斜視の傾向があるにもかかわらず、規定時間PTにおける距離Dの平均値が閾値SK未満になると、評価部218は、被験者に斜視の傾向がないことを示す誤った評価データを出力してしまう可能性がある。   As shown in FIG. 27, when the distance D is equal to or more than the threshold SK in a part of the specified time PT and the distance D is less than the threshold SK in a part of the specified time PT, the subject tends to have intermittent strabismus. There is likely to be. When the distance D is equal to or larger than the threshold SK in a part of the specified time PT and the distance D is smaller than the threshold SK in a part of the specified time PT, the average value of the distance D in the specified time PT is smaller than the threshold SK Could be. That is, when the distance D is equal to or greater than the threshold value SK during a part of the specified time PT and the distance D is smaller than the threshold value SK during a part of the specified time PT, the subject may have an intermittent strabismus. Instead, the average value of the distance D at the specified time PT may be smaller than the threshold value SK. If the average value of the distance D at the specified time PT is less than the threshold value SK, despite the subject's tendency to intermittent strabismus, the evaluation unit 218 outputs erroneous evaluation data indicating that the subject has no tendency to strabismus. There is a possibility of outputting.

本実施形態においては、ステップS118及びステップS120で説明したように、規定時間PTにおける距離Dの平均値が閾値SK以上でないと判定されたとき、評価部218は、規定時間PTを複数に分割した分割時間DTのそれぞれにおける距離Dの平均値を算出する。図27に示すように、本実施形態において、規定時間PTは、第1分割時間DT1、第2分割時間DT2、及び第3分割時間DT3に分割される。複数の分割時間DTのそれぞれにおける距離Dの平均値が算出されることにより、評価部218は、規定時間DTにおいて距離Dが閾値SK以上になる期間があるか否かを判定することができる。これにより、規定時間PTにおける距離Dの平均値が閾値SK未満である場合において、被験者に間欠性斜視の傾向がある場合、被験者に斜視の傾向がないことを示す誤った評価データが出力されてしまうことが抑制される。   In the present embodiment, as described in steps S118 and S120, when it is determined that the average value of the distance D at the specified time PT is not greater than or equal to the threshold SK, the evaluation unit 218 divides the specified time PT into a plurality. The average value of the distance D in each of the divided times DT is calculated. As shown in FIG. 27, in the present embodiment, the specified time PT is divided into a first divided time DT1, a second divided time DT2, and a third divided time DT3. By calculating the average value of the distance D in each of the plurality of division times DT, the evaluation unit 218 can determine whether or not there is a period in which the distance D is equal to or larger than the threshold SK in the specified time DT. Thereby, when the average value of the distance D at the specified time PT is less than the threshold value SK, if the subject has a tendency to intermittent strabismus, erroneous evaluation data indicating that the subject has no tendency to squint is output. Is suppressed.

上述のように、本実施形態において、第1分割時間DT1、第2分割時間DT2、及び第3分割時間DT3を含む分割時間DTは、表示画面101Sにおける指標130の移動条件に基づいて決定される。本実施形態において、第1分割時間DT1は、表示画面101Sの第1位置PJ1において指標130が静止している静止時間(本実施形態においては11秒間)に設定される。第2分割時間DT2は、表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130が移動する移動時間(本実施形態においては6秒間)に設定される。第3分割時間DT3は、表示画面101Sの第2位置PJ2において指標130が静止している静止時間(本実施形態においては13秒間)に設定される。   As described above, in the present embodiment, the division time DT including the first division time DT1, the second division time DT2, and the third division time DT3 is determined based on the moving condition of the index 130 on the display screen 101S. . In the present embodiment, the first divided time DT1 is set to a stationary time (11 seconds in the present embodiment) in which the index 130 is stationary at the first position PJ1 of the display screen 101S. The second division time DT2 is set to a movement time (6 seconds in the present embodiment) in which the index 130 moves from the first position PJ1 to the second position PJ2 of the display screen 101S. The third divided time DT3 is set to a stationary time (13 seconds in the present embodiment) in which the index 130 is stationary at the second position PJ2 of the display screen 101S.

位置算出部212は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの右眼111Rの画像データ及び左眼111Lの画像データに基づいて、規定時間PTにおける距離Dの時系列データを算出する。評価部218は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの距離Dの時系列データに基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの被験者の視線の移動状態と、被験者の斜視の状態との関係を示す評価データを出力する。   The position calculating unit 212 performs time-series data of the distance D at the specified time PT based on the image data of the right eye 111R and the image data of the left eye 111L when the subject sees the stationary and moving index 130 on the display screen 101S. Is calculated. The evaluation unit 218 outputs evaluation data of the visual function of the subject based on the time-series data of the distance D when the subject sees the stationary and moving index 130 on the display screen 101S. In the present embodiment, the evaluation unit 218 outputs evaluation data indicating a relationship between a moving state of the subject's line of sight when the subject 130 shows the stationary and moving index 130 on the display screen 101S and a state of the subject's perspective. .

表示画面101Sにおいて静止している指標130を間欠性斜視の傾向がある被験者に見せたとき、間欠性斜視は出現しない可能性がある。一方、表示画面101Sにおいて移動する指標130を間欠性斜視の傾向がある被験者に見せたとき、間欠性斜視が顕著に出現する可能性が高い。   When the index 130 that is stationary on the display screen 101S is shown to a subject who tends to have intermittent strabismus, intermittent strabismus may not appear. On the other hand, when the moving index 130 on the display screen 101S is shown to a subject who tends to have intermittent strabismus, it is highly possible that intermittent strabismus appears remarkably.

本実施形態においては、第2分割時間DT2は、表示画面101Sにおいて指標130が移動する移動期間に設定されている。したがって、第2分割時間DT2における距離Dの平均値が算出されることにより、被験者に間欠性斜視の傾向があるか否かを精度良く検査することができる。   In the present embodiment, the second divided time DT2 is set to a movement period during which the index 130 moves on the display screen 101S. Therefore, by calculating the average value of the distance D in the second divided time DT2, it is possible to accurately inspect whether or not the subject has a tendency to intermittent strabismus.

以上説明したように、本実施形態によれば、評価部218は、規定時間PTにおける距離Dの変化量に基づいて、被験者の視機能の評価データを出力する。図25に示したように、規定時間PTにおける距離Dの変化量が小さく、規定時間PTにおける距離Dの平均値が閾値SKよりも小さい場合、評価部218は、被験者に斜視の傾向がないことを示す評価データを出力することができる。図26に示したように、規定時間PTにおける距離Dの変化量が小さく、規定時間PTにおける距離Dの平均値が閾値SKよりも大きい場合、評価部218は、被験者に斜視の傾向があることを示す評価データを出力することができる。図27に示したように、規定時間PTにおける距離Dの変化量が大きい場合、評価部218は、被験者に間欠性斜視の傾向があることを示す評価データを出力することができる。   As described above, according to the present embodiment, the evaluation unit 218 outputs evaluation data of the visual function of the subject based on the amount of change in the distance D at the specified time PT. As illustrated in FIG. 25, when the amount of change in the distance D at the specified time PT is small and the average value of the distance D at the specified time PT is smaller than the threshold SK, the evaluation unit 218 determines that the subject has no tendency to be squint. Can be output. As illustrated in FIG. 26, when the amount of change in the distance D at the specified time PT is small and the average value of the distance D at the specified time PT is larger than the threshold SK, the evaluation unit 218 determines that the subject is inclined. Can be output. As illustrated in FIG. 27, when the amount of change in the distance D at the specified time PT is large, the evaluation unit 218 can output evaluation data indicating that the subject has a tendency to have intermittent strabismus.

なお、本実施形態においては、距離Dの平均値に基づいて評価データが出力されることとした。距離Dの平均値に限らず、中央値、最頻値、及び四分位数等、複数の距離Dを代表する他の統計値(代表値)を用いてもよい。   In the present embodiment, the evaluation data is output based on the average value of the distance D. Not limited to the average value of the distance D, other statistical values (representative values) representing the plurality of distances D, such as a median, a mode, and a quartile may be used.

なお、本実施形態において、規定時間PTにおける距離Rxと距離Lxとの差Δxの時系列データ、及び規定時間PTにおける距離Ryと距離Lyとの差Δyの時系列データが算出されてもよい。評価部218は、規定時間PTにおける差Δxの変化量及び規定時間PTにおける差Δyの変化量の少なくとも一方に基づいて、被験者の視機能の評価データを出力することができる。すなわち、本実施形態において、評価部218は、規定時間PTにおける右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置の変化量、及び左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置の変化量の少なくとも一方に基づいて、被験者の視機能の評価データを出力することができる。   In the present embodiment, time series data of the difference Δx between the distance Rx and the distance Lx at the specified time PT and time series data of the difference Δy between the distance Ry and the distance Ly at the specified time PT may be calculated. The evaluation unit 218 can output evaluation data of the visual function of the subject based on at least one of the change amount of the difference Δx at the specified time PT and the change amount of the difference Δy at the specified time PT. That is, in the present embodiment, the evaluation unit 218 determines the relative position change amount between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R and the pupil center 112Cl of the left eye 111L at the specified time PT. Evaluation data of the visual function of the subject can be output based on at least one of the amount of change in the relative position of the eye 111L with respect to the corneal reflection center 113Cl.

第5実施形態.
第5実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Fifth embodiment.
A fifth embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

上述の第4実施形態においては、分割時間DTが表示画面101Sにおける指標130の移動条件に基づいて決定されることとした。分割時間DTは、指標130の移動条件に基づかずに任意に決定されてもよい。取得された距離Dの時系列データにおける距離Dの変化量に基づいて、分割時間DTが決定されてもよい。   In the above-described fourth embodiment, the division time DT is determined based on the moving condition of the index 130 on the display screen 101S. The division time DT may be arbitrarily determined without being based on the moving condition of the index 130. The division time DT may be determined based on the change amount of the distance D in the acquired time-series data of the distance D.

図28は、本実施形態に係る分割時間DTを決定する方法の一例を模式的に示す図である。図28のラインLaで示すような、距離Dの時系列データ(生データ)が取得された場合、例えば画像処理部206は、距離Dの時系列データについてローパスフィルタ処理を実施する。これにより、図28のラインLbで示すように、ノイズの影響が低減された距離Dの時系列データが生成される。ローパスフィルタ処理における時定数は、第2分割時間DT2に基づいて定めることが好ましい。   FIG. 28 is a diagram schematically illustrating an example of a method for determining the division time DT according to the present embodiment. When time-series data (raw data) of the distance D as shown by the line La in FIG. 28 is obtained, for example, the image processing unit 206 performs a low-pass filter process on the time-series data of the distance D. As a result, as shown by the line Lb in FIG. 28, time-series data of the distance D with reduced influence of noise is generated. The time constant in the low-pass filter processing is preferably determined based on the second division time DT2.

また、画像処理部206は、ラインLbで示す距離Dの時系列データを1次微分して、図28のラインLcで示すような1次微分値を抽出する。これにより、距離Dが急激に変化する時点が抽出される。距離Dが急激に増加する時点と距離Dが急激に低下する時点との間が分割時間DTに決定される。   Further, the image processing unit 206 first-order differentiates the time-series data of the distance D indicated by the line Lb, and extracts a first-order differential value as indicated by the line Lc in FIG. Thereby, the point in time when the distance D changes abruptly is extracted. The time between the time when the distance D sharply increases and the time when the distance D sharply decreases is determined as the division time DT.

第6実施形態.
第6実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Sixth embodiment.
A sixth embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

本実施形態においては、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させ、複数の指標130のそれぞれを被験者に見せたときの被験者の眼111の画像データに基づいて角膜反射像113の位置データを算出し、複数の指標130の相対位置と複数の角膜反射像113の相対位置とに基づいて、被験者の視機能の評価データを出力する例について説明する。   In the present embodiment, the index 130 is displayed at each of a plurality of positions on the display screen 101S of the display device 101, and based on the image data of the eye 111 of the subject when each of the plurality of indices 130 is shown to the subject. An example will be described in which position data of the reflection image 113 is calculated, and evaluation data of the visual function of the subject is output based on the relative positions of the plurality of indices 130 and the plurality of corneal reflection images 113.

図29は、本実施形態に係る斜視検査方法の一例を示すフローチャートである。表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS131)。   FIG. 29 is a flowchart illustrating an example of the perspective inspection method according to the present embodiment. The display control unit 208 causes the display device 101 to display the index 130 for causing the subject to gaze (step S131).

本実施形態において、表示制御部208は、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。   In the present embodiment, the display control unit 208 causes the index 130 to be displayed at each of a plurality of positions on the display screen 101S of the display device 101. The subject is instructed to look at the index 130 displayed on the display device 101.

光源103から検出光が射出される(ステップS132)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。   Detection light is emitted from the light source 103 (step S132). The stereo camera device 102 acquires the image data of the right eye 111R and the left eye 111L of the subject irradiated with the detection light.

画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS133)。   The image data acquisition unit 202 acquires the image data of the right eye 111R and the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (Step S133).

位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sに表示された指標130を見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sに表示された指標130を見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する(ステップS134)。   The position calculation unit 212 calculates the position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane when the index 130 displayed on the display screen 101S is shown, based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates the position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane when the index 130 displayed on the display screen 101S is shown based on the image data of the left eye 111L. (Step S134).

視機能検査装置100は、ステップS131からステップS134までの処理を規定の周期で実施する。ステップS131からステップS134までの処理は、表示画面101Sの複数の位置のそれぞれに指標130が表示されることが終了するまで実施される。   The visual function inspection apparatus 100 performs the processing from step S131 to step S134 at a prescribed cycle. The processing from step S131 to step S134 is performed until the display of the index 130 at each of the plurality of positions on the display screen 101S ends.

すなわち、本実施形態において、位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sの複数の位置に表示された複数の指標130のそれぞれを見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sの複数の位置に表示された複数の指標130のそれぞれを見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する。   That is, in the present embodiment, based on the image data of the right eye 111R, the position calculation unit 212 determines whether each of the plurality of indices 130 displayed at a plurality of positions on the display screen 101S is right in the XY plane when the respective indices 130 are shown. The position data of the corneal reflection center 113Cr of the eye 111R is calculated. In addition, the position calculation unit 212 is configured to determine, based on the image data of the left eye 111L, the corneal reflection of the left eye 111L in the XY plane when each of the plurality of indices 130 displayed at the plurality of positions on the display screen 101S is shown. The position data of the center 113Cl is calculated.

評価部218は、表示画面101Sの複数の位置のそれぞれに指標130が表示されることが終了したか否かを判定する(ステップS135)。   The evaluation unit 218 determines whether or not the display of the index 130 at each of the plurality of positions on the display screen 101S has been completed (step S135).

ステップS135において、指標130が表示されることが終了していないと判定されたとき(ステップS135:No)、ステップS131に戻り、ステップS131からステップS134までの処理が実施される。   When it is determined in step S135 that the display of the index 130 has not been completed (step S135: No), the process returns to step S131, and the processing from step S131 to step S134 is performed.

ステップS135において、指標130が表示されることが終了したと判定されたとき(ステップS135:Yes)、評価部218は、複数の指標130の相対位置によって規定される第1図形CA1と、複数の角膜反射中心113Cの相対位置によって規定される第2図形CA2とのそれぞれを算出する(ステップS136)。   When it is determined in step S135 that the display of the index 130 has been completed (step S135: Yes), the evaluation unit 218 determines whether the first graphic CA1 defined by the relative positions of the plurality of indices 130 and the plurality of A second figure CA2 defined by the relative position of the corneal reflection center 113C is calculated (step S136).

図30は、本実施形態に係る表示装置101に表示される指標130の一例を模式的に示す図である。図30に示すように、表示制御部208は、表示装置101の表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに指標130を表示させる。本実施形態において、表示装置208は、表示画面101Sの位置PD1、位置PD2、位置PD3、位置PD4、及び位置PD5のそれぞれに指標130を順次表示させる。   FIG. 30 is a diagram schematically illustrating an example of the index 130 displayed on the display device 101 according to the present embodiment. As illustrated in FIG. 30, the display control unit 208 causes the index 130 to be displayed at each of a plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S of the display device 101. In the present embodiment, the display device 208 causes the index 130 to be sequentially displayed at each of the positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S.

位置PD2に表示される指標130と位置PD3に表示される指標130とは、隣接する。位置PD3に表示される指標130と位置PD4に表示される指標130とは隣接する。位置PD4に表示される指標130と位置PD5に表示される指標130とは隣接する。位置PD5に表示される指標130と位置PD2に表示される指標130とは隣接する。   The index 130 displayed at the position PD2 and the index 130 displayed at the position PD3 are adjacent to each other. The index 130 displayed at the position PD3 and the index 130 displayed at the position PD4 are adjacent to each other. The index 130 displayed at the position PD4 and the index 130 displayed at the position PD5 are adjacent to each other. The index 130 displayed at the position PD5 and the index 130 displayed at the position PD2 are adjacent to each other.

本実施形態においては、位置PD2に表示される指標130と、位置PD3に表示される指標130と、位置PD4に表示される指標130と、位置PD5に表示される指標130との相対位置によって、第1図形CA1として正方形が規定される。位置PD2と位置PD3との距離Vaと、位置PD3と位置PD4との距離Vbと、位置PD4と位置PD5との距離Vcと、位置PD5と位置PD2との距離Vdとは、等しい。   In the present embodiment, the index 130 displayed at the position PD2, the index 130 displayed at the position PD3, the index 130 displayed at the position PD4, and the relative position of the index 130 displayed at the position PD5, A square is defined as the first graphic CA1. Distance Va between position PD2 and position PD3, distance Vb between position PD3 and position PD4, distance Vc between position PD4 and position PD5, and distance Vd between position PD5 and position PD2 are equal.

本実施形態において、表示制御部208は、指標130を位置PD1に表示させた後、位置PD1から位置PD2まで移動させ、位置PD2に移動させた指標130を位置PD3まで移動させ、位置PD3に移動させた指標130を位置PD4まで移動させ、位置PD4に移動させた指標130を位置PD5まで移動させる。すなわち、本実施形態において、表示制御部208は、位置PD1の指標130が位置PD2、位置PD3、及び位置PD4を順次通過して位置PD5まで移動するように、表示画面101Sに指標130を表示させる。   In the present embodiment, after displaying the index 130 at the position PD1, the display control unit 208 moves the index 130 moved from the position PD1 to the position PD2, moves the index 130 moved to the position PD2 to the position PD3, and moves to the position PD3. The moved index 130 is moved to the position PD4, and the index 130 moved to the position PD4 is moved to the position PD5. That is, in the present embodiment, the display control unit 208 causes the display screen 101S to display the index 130 such that the index 130 at the position PD1 sequentially passes through the positions PD2, PD3, and PD4 and moves to the position PD5. .

本実施形態においては、表示制御部208は、表示画面101Sにおいて指標130が静止及び移動するように、指標130を表示装置101に表示させる。本実施形態において、表示制御部208は、指標130を位置PD1において2秒間静止させ、位置PD1から位置PD2まで1秒間で指標130を移動させる。同様に、表示制御部208は、指標130を位置PD2,PD3,PD4のそれぞれにおいて2秒間ずつ静止させ、位置PD2から位置PD3まで1秒間で指標130を移動させ、位置PD3から位置PD4まで1秒間で指標130を移動させ、位置PD4から位置PD5まで1秒間で指標130を移動させる。表示制御部208は、指標130を位置PD5において2秒間静止させた後、指標130の表示を停止する。   In the present embodiment, the display control unit 208 causes the display device 101 to display the index 130 such that the index 130 is stationary and moves on the display screen 101S. In the present embodiment, the display control unit 208 stops the index 130 at the position PD1 for 2 seconds, and moves the index 130 from the position PD1 to the position PD2 for 1 second. Similarly, the display control unit 208 stops the index 130 at each of the positions PD2, PD3, and PD4 for 2 seconds, moves the index 130 from the position PD2 to the position PD3 in 1 second, and moves the index 130 from the position PD3 to the position PD4 for 1 second. To move the index 130 from the position PD4 to the position PD5 in one second. The display control unit 208 stops the display of the index 130 after stopping the index 130 at the position PD5 for 2 seconds.

本実施形態においては、指標130は、位置PD1から移動を開始し、位置PD2、位置PD3、及び位置PD4を経由して位置PD5に到達するまで、表示装置101に連続的に表示される。なお、指標130は、表示装置101に間欠的に表示されてもよい。例えば、位置PD1から位置PD2までの移動区間、位置PD2から位置PD3までの移動区間、位置PD3から位置PD4までの移動区間、及び位置PD4から位置PD5までの移動区間の少なくとも一部において、指標130は表示装置101に表示されなくてもよい。指標130は、表示画面101Sの複数の位置PD1、位置PD2、位置PD3、位置PD4、及び位置PD5のそれぞれにおいて順次表示されればよい。   In the present embodiment, the indicator 130 starts moving from the position PD1, and is continuously displayed on the display device 101 until it reaches the position PD5 via the positions PD2, PD3, and PD4. Note that the index 130 may be intermittently displayed on the display device 101. For example, in at least a part of the movement section from the position PD1 to the position PD2, the movement section from the position PD2 to the position PD3, the movement section from the position PD3 to the position PD4, and the movement section from the position PD4 to the position PD5, the index 130 is set. May not be displayed on the display device 101. The index 130 may be sequentially displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S.

図31は、本実施形態に係る画像データ取得部202に取得された画像データの一例を模式的に示す図である。図31は、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときの角膜反射像113の画像データを模式的に示す。   FIG. 31 is a diagram schematically illustrating an example of image data acquired by the image data acquisition unit 202 according to the present embodiment. FIG. 31 schematically shows image data of the corneal reflection image 113 when the index 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S is shown to the subject.

位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する。   The position calculation unit 212 is based on the image data of the right eye 111R, in the XY plane when the index 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S is shown to the subject. , The position data of the corneal reflection center 113Cr of the right eye 111R is calculated. In addition, the position calculation unit 212 displays the indices 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S based on the image data of the left eye 111L, and displays the XY when the subject is shown. The position data of the corneal reflection center 113Cl of the left eye 111L in the plane is calculated.

図31に示すように、被験者が表示画面101Sの位置PD1に表示された指標130を見たとき、角膜反射像113は、位置PE1に形成される。被験者が表示画面101Sの位置PD2に表示された指標130を見たとき、角膜反射像113は、位置PE2に形成される。被験者が表示画面101Sの位置PD3に表示された指標130を見たとき、角膜反射像113は、位置PE3に形成される。被験者が表示画面101Sの位置PD4に表示された指標130を見たとき、角膜反射像113は、位置PE4に形成される。被験者が表示画面101Sの位置PD5に表示された指標130を見たとき、角膜反射像113は、位置PE5に形成される。   As shown in FIG. 31, when the subject looks at the index 130 displayed at the position PD1 on the display screen 101S, the corneal reflection image 113 is formed at the position PE1. When the subject looks at the index 130 displayed at the position PD2 on the display screen 101S, the corneal reflection image 113 is formed at the position PE2. When the subject looks at the index 130 displayed at the position PD3 on the display screen 101S, the corneal reflection image 113 is formed at the position PE3. When the subject looks at the index 130 displayed at the position PD4 on the display screen 101S, the corneal reflection image 113 is formed at the position PE4. When the subject views the index 130 displayed at the position PD5 on the display screen 101S, the corneal reflection image 113 is formed at the position PE5.

位置PE2に形成される角膜反射像113と位置PE3に形成される角膜反射像113とは、隣接する。位置PE3に形成される角膜反射像113と位置PE4に形成される角膜反射像113とは隣接する。位置PE4に形成される角膜反射像113と位置PE5に形成される角膜反射像113とは隣接する。位置PE5に形成される角膜反射像113と位置PE2に形成される角膜反射像113とは隣接する。   The corneal reflection image 113 formed at the position PE2 and the corneal reflection image 113 formed at the position PE3 are adjacent to each other. The corneal reflection image 113 formed at the position PE3 and the corneal reflection image 113 formed at the position PE4 are adjacent to each other. The corneal reflection image 113 formed at the position PE4 and the corneal reflection image 113 formed at the position PE5 are adjacent to each other. The corneal reflection image 113 formed at the position PE5 and the corneal reflection image 113 formed at the position PE2 are adjacent to each other.

本実施形態においては、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとの相対位置によって、第2図形CA2として四角形が規定される。位置PE2と位置PE3とは距離Waだけ離れている。位置PE3と位置PE4とは距離Wbだけ離れている。位置PE4と位置PE5とは距離Wcだけ離れている。位置PE5と位置PE2とは距離Wdだけ離れている。   In the present embodiment, the corneal reflection center 113C formed at the position PE2, the corneal reflection center 113C formed at the position PE3, the corneal reflection center 113C formed at the position PE4, and the corneal reflection center formed at the position PE5. A quadrangle is defined as the second graphic CA2 by the relative position with respect to the center 113C. The position PE2 and the position PE3 are separated by a distance Wa. Position PE3 and position PE4 are separated by distance Wb. The position PE4 and the position PE5 are separated by a distance Wc. Position PE5 and position PE2 are separated by distance Wd.

評価部218は、第1図形CA1と第2図形CA2とが類似しているか否かを判定する(ステップS137)。   The evaluation unit 218 determines whether or not the first graphic CA1 and the second graphic CA2 are similar (Step S137).

本実施形態において、評価部218は、隣接する角膜反射像113の距離と閾値SQとを比較して、第1図形CA1と第2図形CA2との類似度を判定する。本実施形態において、評価部218は、(3A)式及び(3B)式が成立するか否かを判定する。   In the present embodiment, the evaluation unit 218 determines the degree of similarity between the first graphic CA1 and the second graphic CA2 by comparing the distance between the adjacent corneal reflection images 113 and the threshold SQ. In the present embodiment, the evaluation unit 218 determines whether the expressions (3A) and (3B) are satisfied.

Figure 0006677156
Figure 0006677156

図31は、斜視の傾向がない被験者の眼111の画像データの一例を模式的に示す図である。図32は、左眼111Lに斜視の傾向がある被験者の眼111の画像データの一例を模式的に示す図である。   FIG. 31 is a diagram schematically illustrating an example of image data of the eye 111 of the subject who does not tend to be squint. FIG. 32 is a diagram schematically illustrating an example of image data of the subject's eye 111 in which the left eye 111L is inclined.

図31に示すように、被験者に斜視の傾向がない場合、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとによって規定される第2図形CA2は、実質的に正方形となる。すなわち、被験者に斜視の傾向がない場合、第1図形CA1と第2図形CA2とは相似する。この場合、(3A)式及び(3B)式が成立する。   As shown in FIG. 31, when the subject does not tend to be oblique, the corneal reflection center 113C formed at the position PE2, the corneal reflection center 113C formed at the position PE3, and the corneal reflection center 113C formed at the position PE4. And the second graphic CA2 defined by the corneal reflection center 113C formed at the position PE5 is substantially a square. That is, when the subject does not tend to be squint, the first graphic CA1 and the second graphic CA2 are similar. In this case, the equations (3A) and (3B) hold.

一方、図32に示すように、被験者の左眼111Lに斜視の傾向がある場合、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとによって規定される第2図形CA2は、正方形にならない。すなわち、被験者に斜視の傾向がある場合、第1図形CA1と第2図形CA2とは相似しない。この場合、(3A)式及び(3B)式の少なくとも一方が成立しない。   On the other hand, as shown in FIG. 32, when the subject's left eye 111L tends to be oblique, the corneal reflection center 113C formed at the position PE2, the corneal reflection center 113C formed at the position PE3, and the corneal reflection center 113C formed at the position PE4. The second figure CA2 defined by the corneal reflection center 113C formed and the corneal reflection center 113C formed at the position PE5 does not become a square. That is, when the subject has a tendency to be strabismus, the first graphic CA1 and the second graphic CA2 are not similar. In this case, at least one of the equations (3A) and (3B) does not hold.

このように、本実施形態においては、(3A)式及び(3B)式が成立するとき、評価部218は、第1図形CA1と第2図形CA2とは類似すると判定する。(3A)式及び(3B)式の少なくとも一方が成立しないとき、評価部218は、第1図形CA1と第2図形CA2とは類似しないと判定する。   Thus, in the present embodiment, when the expressions (3A) and (3B) are satisfied, the evaluation unit 218 determines that the first graphic CA1 and the second graphic CA2 are similar. When at least one of the expressions (3A) and (3B) is not satisfied, the evaluation unit 218 determines that the first graphic CA1 and the second graphic CA2 are not similar.

ステップS137において、第1図形CA1と第2図形CA2とが類似しないと判定されたとき(ステップS137:No)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS138)。すなわち、(3A)式及び(3B)式の少なくとも一方が成立しないとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。   When it is determined in step S137 that the first graphic CA1 and the second graphic CA2 are not similar (step S137: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal. (Step S138). That is, when at least one of the expressions (3A) and (3B) is not satisfied, the evaluation unit 218 determines that the subject has a tendency to be squint, and outputs evaluation data indicating that the subject has a tendency to be squint. .

ステップS137において、第1図形CA1と第2図形CA2とが類似すると判定されたとき(ステップS137:Yes)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS139)。すなわち、(3A)式及び(3B)式の両方が成立するとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。   When it is determined in step S137 that the first graphic CA1 and the second graphic CA2 are similar (step S137: Yes), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal (step S137). S139). That is, when both the expressions (3A) and (3B) are satisfied, the evaluation unit 218 determines that the subject has no tendency to be strabismus, and outputs evaluation data indicating that the subject has no tendency to be squinted.

なお、閾値SQは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。   The threshold value SQ is statistically or empirically derived based on data obtained from a plurality of subjects who tend to be squint, and is stored in the storage unit 220.

本実施形態においては、第1図形CA1と右眼111Rについての第2図形CA2とが比較される。また、第1図形CA1と左眼111Lについての第2図形CA2とが比較される。本実施形態においては、右眼111Rに斜視の傾向があるか否か、及び左眼111Lに斜視の傾向があるか否かについて、それぞれ評価することができる。   In the present embodiment, the first graphic CA1 is compared with the second graphic CA2 for the right eye 111R. Further, the first graphic CA1 is compared with the second graphic CA2 for the left eye 111L. In the present embodiment, it can be evaluated whether or not the right eye 111R has a squint tendency and whether or not the left eye 111L has a squint tendency.

出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。   The output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to be skewed or evaluation data indicating that there is no tendency to be squinted.

以上により、斜視検査処理が終了する。   Thus, the perspective inspection processing ends.

以上説明したように、本実施形態によれば、複数の指標130の相対位置と、それら複数の指標を見せたときの複数の角膜反射像113の相対位置とに基づいて、被験者の視機能の評価データが出力される。本実施形態においても、斜視の検査において、光源103と被験者との相対位置が変動しても、検査精度の低下が抑制される。   As described above, according to the present embodiment, based on the relative positions of the plurality of indices 130 and the relative positions of the plurality of corneal reflection images 113 when the plurality of indices are shown, the visual function of the subject is determined. The evaluation data is output. Also in the present embodiment, in the oblique examination, even if the relative position between the light source 103 and the subject changes, a decrease in the examination accuracy is suppressed.

また、本実施形態によれば、複数の指標130の相対位置によって規定される第1図形CA1と複数の角膜反射像113の相対位置によって規定される第2図形CA2との類似度に基づいて、評価データが出力される。これにより、斜視の検査における演算処理の負荷が低減され、検査精度は向上する。   Further, according to the present embodiment, based on the similarity between the first graphic CA1 defined by the relative positions of the plurality of indices 130 and the second graphic CA2 defined by the relative positions of the plurality of corneal reflection images 113, The evaluation data is output. Thereby, the load of the arithmetic processing in the inspection of the perspective is reduced, and the inspection accuracy is improved.

また、本実施形態においては、第1図形CA1と右眼111Rについての第2図形CA2とが比較される。また、第1図形CA1と左眼111Lについての第2図形CA2とが比較される。そのため、右眼111R及び左眼111Lのどちらに斜視の傾向があるか否かを精度良く検査することができる。   In the present embodiment, the first graphic CA1 is compared with the second graphic CA2 for the right eye 111R. Further, the first graphic CA1 is compared with the second graphic CA2 for the left eye 111L. Therefore, it is possible to accurately inspect whether the right eye 111R or the left eye 111L has a tendency to be skewed.

また、右眼111R及び左眼111Lのどちらに斜視の傾向があるか否かを精度良く検査することができるため、視線検出処理(ステップS300)の検出精度の低下を抑制することができる。例えば、本実施形態に係る斜視検査処理(ステップS100)において、左眼111Lに斜視の傾向があり、右眼111Rには斜視の傾向がないと判定されたとき、視線検出処理(ステップS300)においては、右眼111Rについての視線検出処理を実施することにより、視線検出処理の検出精度の低下を抑制することができる。   Further, since it is possible to accurately inspect whether the right eye 111R or the left eye 111L has a tendency to be skewed, it is possible to suppress a decrease in the detection accuracy of the visual line detection process (step S300). For example, when it is determined in the strabismus inspection process (step S100) according to the present embodiment that the left eye 111L has a tendency to squint and the right eye 111R does not have a tendency to squint, the gaze detection process (step S300). By performing the line-of-sight detection processing for the right eye 111R, it is possible to suppress a decrease in the detection accuracy of the line-of-sight detection processing.

第7実施形態.
第7実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Seventh embodiment.
A seventh embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

本実施形態は、上述の第6実施形態の応用例である。図33、図34、図35、及び図36はそれぞれ、本実施形態に係る被験者の眼111の画像データの一例を示す図である。図33、図34、図35、及び図36は、上述の第6実施形態で説明した、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときの角膜反射中心113Cの位置を示す画像データである。   This embodiment is an application example of the above-described sixth embodiment. FIG. 33, FIG. 34, FIG. 35, and FIG. 36 are diagrams illustrating examples of image data of the subject's eye 111 according to the present embodiment. 33, FIG. 34, FIG. 35, and FIG. 36 show the indices 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 of the display screen 101S described in the sixth embodiment. 9 is image data showing the position of the corneal reflection center 113C when the image is shown in FIG.

図33は、斜視の傾向がない被験者に表示画面101Sを見せたときの右眼111Rの角膜反射中心113Crの位置及び左眼111Lの角膜反射中心113Clの位置を示す画像データである。角膜反射中心113Cの位置データは、例えば1秒間に50回取得される。   FIG. 33 is image data showing the position of the corneal reflection center 113Cr of the right eye 111R and the position of the corneal reflection center 113Cl of the left eye 111L when the display screen 101S is shown to a subject who does not tend to be oblique. The position data of the corneal reflection center 113C is acquired, for example, 50 times per second.

被験者が表示画面101Sの位置PD1に表示された指標130を見たときの右眼111Rの角膜反射中心113Crの位置PE1rは、角膜反射中心113Crの密度に基づいて決定される。同様に、被験者が表示画面101Sの位置PD2,PD3,PD4,PD5のそれぞれに表示された指標130を見たときの右眼111Rの角膜反射中心113Crの位置PE2r,PE3r,PE4r,PE5rは、角膜反射中心113Crの密度に基づいて決定される。   The position PE1r of the corneal reflection center 113Cr of the right eye 111R when the subject looks at the index 130 displayed at the position PD1 on the display screen 101S is determined based on the density of the corneal reflection center 113Cr. Similarly, the positions PE2r, PE3r, PE4r, and PE5r of the corneal reflection center 113Cr of the right eye 111R when the subject looks at the index 130 displayed at each of the positions PD2, PD3, PD4, and PD5 on the display screen 101S are corneal. It is determined based on the density of the reflection center 113Cr.

被験者が表示画面101Sの位置PD1に表示された指標130を見たときの左眼111Lの角膜反射中心113Clの位置PE1lは、角膜反射中心113Clの密度に基づいて決定される。同様に、被験者が表示画面101Sの位置PD2,PD3,PD4,PD5のそれぞれに表示された指標130を見たときの左眼111Lの角膜反射中心113Clの位置PE2l,PE3l,PE4l,PE5lは、角膜反射中心113Clの密度に基づいて決定される。   The position PE11 of the corneal reflection center 113Cl of the left eye 111L when the subject looks at the index 130 displayed at the position PD1 on the display screen 101S is determined based on the density of the corneal reflection center 113Cl. Similarly, when the subject looks at the index 130 displayed at each of the positions PD2, PD3, PD4, and PD5 on the display screen 101S, the positions PE21, PE31, PE41, and PE51 of the corneal reflection center 113Cl of the left eye 111L are corneal. It is determined based on the density of the reflection center 113Cl.

図34は、斜視の傾向がない被験者の右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データである。図34は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの画像データである。   FIG. 34 is image data obtained by combining the positions PE1r, PE2r, PE3r, PE4r, and PE5r for the right eye 111R and the positions PE11, PE21, PE31, PE41, and PE51 for the left eye 111L of a subject who does not tend to be strabismus. is there. FIG. 34 shows image data when the position of the pupil center 112Cr of the right eye 111R and the position of the pupil center 112Cl of the left eye 111L are matched in the XY plane.

図34において、斜視の傾向がない被験者については、位置PE1rと位置PE1lとは実質的に一致する。同様に、斜視の傾向がない被験者については、位置PE2rと位置PE2lとが実質的に一致し、位置PE3rと位置PE3lとが実質的に一致し、位置PE4rと位置PE4lとが実質的に一致し、位置PE5rと位置PE5lとが実質的に一致する。   In FIG. 34, the position PE1r and the position PE11 substantially coincide with each other for a subject who does not tend to be strabismus. Similarly, for a subject who does not tend to be strabismus, the positions PE2r and PE21 substantially match, the positions PE3r and PE31 substantially match, and the positions PE4r and PE41 substantially match. , Position PE5r and position PE5l substantially coincide with each other.

図35は、斜視の傾向がある被験者に表示画面101Sを見せたときの右眼111Rの角膜反射中心113Crの位置及び左眼111Lの角膜反射中心113Clの位置を示す画像データである。図36は、斜視の傾向がある被験者の右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データである。図36に示すように、斜視の傾向がある被験者については、例えば位置PE5rと位置PE5lとがずれる。   FIG. 35 is image data showing the position of the corneal reflection center 113Cr of the right eye 111R and the position of the corneal reflection center 113Cl of the left eye 111L when the display screen 101S is shown to a subject who tends to be oblique. FIG. 36 shows image data obtained by combining the positions PE1r, PE2r, PE3r, PE4r, and PE5r for the right eye 111R of the subject who tends to be oblique and the positions PE11, PE21, PE31, PE41, and PE51 for the left eye 111L. is there. As shown in FIG. 36, for a subject who tends to be oblique, for example, the position PE5r and the position PE5l are shifted.

以上説明したように、右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データに基づいて、斜視の傾向を評価することができる。   As described above, based on image data obtained by combining the positions PE1r, PE2r, PE3r, PE4r, and PE5r for the right eye 111R and the positions PE11, PE21, PE31, PE31, and PE51 for the left eye 111L. The tendency can be evaluated.

第8実施形態.
第8実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
Eighth embodiment.
An eighth embodiment will be described. In the following description, the same or equivalent components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof will be simplified or omitted.

本実施形態は、上述の第6実施形態又は第7実施形態の応用例である。本実施形態においては、表示画面101Sにおいて隣接する指標130の一方から他方へ向かう第1ベクトルYdと、それら指標130を見たときに形成される隣接する角膜反射像113の一方から他方へ向かう第2ベクトルYeとを比較して、第1図形CA1と第2図形CA2との類似度を判定する例について説明する。   This embodiment is an application of the sixth embodiment or the seventh embodiment. In the present embodiment, the first vector Yd that goes from one of the adjacent indices 130 to the other on the display screen 101S, and the first vector Yd that goes from one of the adjacent corneal reflection images 113 formed when the indices 130 are viewed to the other. An example in which the two vectors Ye are compared to determine the similarity between the first graphic CA1 and the second graphic CA2 will be described.

図37、図38、及び図39は、本実施形態に係る斜視検査方法の一例を説明するための模式図である。図37は、表示画面101Sにおいて隣接する指標130の一方から他方へ向かう第1ベクトルYdを示す。図38は、斜視の傾向がない被験者が図37に示す指標130を見たときに形成される隣接する角膜反射中心113Cの一方から他方へ向かう第2ベクトルYeを示す。図39は、斜視の傾向がある被験者が図37に示す指標130を見たときに形成される隣接する角膜反射中心113Cの一方から他方へ向かう第2ベクトルYeを示す。   FIG. 37, FIG. 38, and FIG. 39 are schematic diagrams for explaining an example of the perspective inspection method according to the present embodiment. FIG. 37 shows a first vector Yd from one side of the index 130 adjacent to the other on the display screen 101S. FIG. 38 shows a second vector Ye that is formed when a subject who does not tend to be squint looks at the index 130 shown in FIG. 37 and travels from one of the adjacent corneal reflection centers 113C to the other. FIG. 39 shows a second vector Ye from one side of the adjacent corneal reflection center 113C formed to the other when the subject who is inclined tends to look at the index 130 shown in FIG.

図37において、指標130は、表示画面101Sの位置PDa及び位置PDbに順次表示される。位置PDaに表示される指標130と位置PDbに表示される指標130とは隣接する。位置PDaに表示される指標130から位置PDbに表示される指標130に向かう第1ベクトルYdが規定される。   In FIG. 37, the index 130 is sequentially displayed at the position PDa and the position PDb on the display screen 101S. The index 130 displayed at the position PDa is adjacent to the index 130 displayed at the position PDb. A first vector Yd from the index 130 displayed at the position PDa to the index 130 displayed at the position PDb is defined.

図38に示すように、斜視の傾向がない被験者が位置PDaに表示される指標130を見たとき、角膜反射中心113Cは位置PEaに形成される。斜視の傾向がない被験者が位置PDbに表示される指標130を見たとき、角膜反射中心113Cは位置PEbに形成される。位置PEaに形成される角膜反射中心113Cと位置PEbに形成される角膜反射中心113Cとは隣接する。位置PEaに形成される角膜反射中心113Cから位置PEbに形成される角膜反射中心113Cに向かう第2ベクトルYeが規定される。   As shown in FIG. 38, when the subject who does not tend to be oblique looks at the index 130 displayed at the position PDa, the corneal reflection center 113C is formed at the position PEa. When the subject who does not tend to be squint looks at the index 130 displayed at the position PDb, the corneal reflection center 113C is formed at the position PEb. The corneal reflection center 113C formed at the position PEa is adjacent to the corneal reflection center 113C formed at the position PEb. A second vector Ye from the corneal reflection center 113C formed at the position PEa to the corneal reflection center 113C formed at the position PEb is defined.

図38に示すように、斜視の傾向がない被験者についての第2ベクトルYeは、第1ベクトルYdと実質的に平行となる。   As shown in FIG. 38, the second vector Ye for a subject who does not tend to be squint is substantially parallel to the first vector Yd.

図39に示すように、斜視の傾向がある被験者が位置PDaに表示される指標130を見たとき、角膜反射中心113Cは位置PEcに形成される。斜視の傾向がある被験者が位置PDbに表示される指標130を見たとき、角膜反射中心113Cは位置PEdに形成される。位置PEcに形成される角膜反射中心113Cと位置PEdに形成される角膜反射中心113Cとは隣接する。位置PEcに形成される角膜反射中心113Cから位置PEdに形成される角膜反射中心113Cに向かう第2ベクトルYeが規定される。   As shown in FIG. 39, when the subject who is inclined tends to look at the index 130 displayed at the position PDa, the corneal reflection center 113C is formed at the position PEc. When the subject who is inclined tends to look at the index 130 displayed at the position PDb, the corneal reflection center 113C is formed at the position PEd. The corneal reflection center 113C formed at the position PEc is adjacent to the corneal reflection center 113C formed at the position PEd. A second vector Ye from the corneal reflection center 113C formed at the position PEc to the corneal reflection center 113C formed at the position PEd is defined.

図39に示すように、斜視の傾向がある被験者についての第2ベクトルYeは、第1ベクトルYdと非平行になる可能性が高い。   As shown in FIG. 39, the second vector Ye for a subject who tends to be skewed is likely to be non-parallel to the first vector Yd.

このように、第1ベクトルYdの向きを基準としたとき、斜視の傾向がない被験者についての第2ベクトルYeの向きと、斜視の傾向がある被験者についての第2ベクトルYeの向きとが異なる可能性が高い。そのため、評価部218は、第1ベクトルYdと第2ベクトルYeとを比較することにより、第1図形CA1と第2図形CA2との類似度を判定することができる。   Thus, based on the direction of the first vector Yd, the direction of the second vector Ye for a subject who does not tend to be squint may be different from the direction of the second vector Ye for a subject who tends to be squinted. High in nature. Therefore, the evaluation unit 218 can determine the similarity between the first graphic CA1 and the second graphic CA2 by comparing the first vector Yd and the second vector Ye.

本実施形態において、評価部218は、第1ベクトルYdと第2ベクトルYeとがなす角度θが閾値以上か否かを判定する。角度θが閾値以上であると判定されたとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。一方、角度θが閾値以上でないと判定されたとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。   In the present embodiment, the evaluation unit 218 determines whether the angle θ formed by the first vector Yd and the second vector Ye is equal to or larger than a threshold. When it is determined that the angle θ is equal to or greater than the threshold, the evaluation unit 218 determines that the subject has a tendency to be squint, and outputs evaluation data indicating that the subject has a tendency to be squint. On the other hand, when it is determined that the angle θ is not equal to or larger than the threshold, the evaluation unit 218 determines that the subject has no tendency to be strabismus and outputs evaluation data indicating that the subject has no tendency to be squinted.

なお、角度θについての閾値は、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。角度θについての閾値は、例えば15[°]以上45[°]以下に定められる。本実施形態において、角度θについての閾値は、20[°]に定められる。   The threshold value for the angle θ is statistically or empirically derived based on data obtained from a plurality of subjects who tend to be squint, and is stored in the storage unit 220. The threshold value for the angle θ is set, for example, to 15 ° or more and 45 ° or less. In the present embodiment, the threshold value for the angle θ is set to 20 [°].

以上説明したように、第1ベクトルYd及び第2ベクトルYeに基づいて、被験者の視機能が評価されてもよい。本実施形態によれば、斜視の検査についての演算処理の負荷を抑制することができる。   As described above, the visual function of the subject may be evaluated based on the first vector Yd and the second vector Ye. According to the present embodiment, it is possible to suppress the load of the arithmetic processing for the inspection of the perspective.

なお、上述の第6実施形態、第7実施形態、及び第8実施形態において、第1図形CA1は、正方形でなくてもよく、長方形でもよいし、平行四辺形でもよいし、台形でもよい。また、第1図形CA1は、四角形でなくてもよく、三角形でもよいし、五角形以上の多角形でもよいし、円でもよいし、楕円でもよい。   In the sixth, seventh, and eighth embodiments described above, the first graphic CA1 may not be a square, may be a rectangle, may be a parallelogram, or may be a trapezoid. Further, the first graphic CA1 does not have to be a quadrangle, may be a triangle, may be a polygon having five or more pentagons, may be a circle, or may be an ellipse.

20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視機能検査装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…光源、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110…角膜曲率中心、111…眼、111L…左眼、111R…右眼、112…瞳孔、112L…瞳孔、112R…瞳孔、112C…瞳孔中心、112Cl…瞳孔中心、112Cr…瞳孔中心、113…角膜反射像、113L…角膜反射像、113R…角膜反射像、113C…角膜反射中心、113Cl…角膜反射中心、113Cr…角膜反射中心、121…角膜反射中心、122…角膜反射中心、123…直線、124…角膜反射中心、126…距離、130…指標、131…直線、132…直線、165…注視点、166…注視点、173…直線、177…視線、178…視線、202…画像データ取得部、204…入力データ取得部、206…画像処理部、208…表示制御部、210…光源制御部、211…カメラ制御部、212…位置算出部、214…曲率中心算出部、216…視線検出部、218…評価部、220…記憶部、222…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部、PD1…位置、PD2…位置、PD3…位置、PD4…位置、PD5…位置、PJ1…第1位置、PJ2…第2位置。   Reference Signs List 20 computer system, 20A arithmetic processing device, 20B storage device, 20C computer program, 30 input / output interface device, 40 drive circuit, 50 output device, 60 input device, 70 audio output device, 100 ... visual function inspection device, 101 ... display device, 101S ... display screen, 102 ... stereo camera device, 102A ... first camera, 102B ... second camera, 103 ... light source, 103A ... first light source, 103B ... second light source, 103C: light source, 103V: virtual light source, 109: corneal curvature radius, 110: corneal curvature radius, 111: eye, 111L: left eye, 111R: right eye, 112: pupil, 112L: pupil, 112R: pupil, 112C: pupil Center, 112Cl: pupil center, 112Cr: pupil center, 113: corneal reflection image, 113L: corneal reflection image, 13R: corneal reflection image, 113C: corneal reflection center, 113Cl: corneal reflection center, 113Cr: corneal reflection center, 121: corneal reflection center, 122: corneal reflection center, 123: straight line, 124: corneal reflection center, 126: distance, 130, index, 131, straight line, 132, straight line, 165, gazing point, 166, gazing point, 173, straight line, 177, sight line, 178, sight line, 202, image data acquisition unit, 204, input data acquisition unit, 206 ... Image processing unit 208 Display control unit 210 Light source control unit 211 Camera control unit 212 Position calculation unit 214 Curvature center calculation unit 216 Line-of-sight detection unit 218 Evaluation unit 220 Storage unit , 222 ... output control unit, 302 ... input / output unit, 402 ... display device drive unit, 404A ... first camera input / output unit, 404B ... A light source driving unit, PD1 ... position, PD2 ... position, PD3 ... position, PD4 ... position, PD5 ... position, PJ1 ... first position, PJ2 ... second position.

Claims (7)

表示装置の表示画面の複数の位置のそれぞれに指標を表示させる表示制御部と、
光源から射出された検出光が照射される被験者の眼の画像データを取得する画像データ取得部と、
前記画像データに基づいて、前記表示画面の複数の位置に表示された複数の前記指標のそれぞれを見せたときの前記眼の角膜反射像の位置データを算出する位置算出部と、
複数の前記指標の相対位置と複数の前記角膜反射像の相対位置とに基づいて、前記被験者の視機能の評価データを出力する評価部と、
を備える視機能検査装置。
A display control unit that displays an index at each of a plurality of positions on the display screen of the display device,
An image data acquisition unit that acquires image data of the subject's eye irradiated with the detection light emitted from the light source,
Based on the image data, a position calculation unit that calculates position data of the corneal reflection image of the eye when showing each of the plurality of indices displayed at a plurality of positions on the display screen,
An evaluation unit that outputs evaluation data of the visual function of the subject based on the relative positions of the plurality of indices and the relative positions of the plurality of corneal reflection images,
A visual function inspection device comprising:
前記評価部は、複数の前記指標の相対位置によって規定される第1図形と複数の前記角膜反射像の相対位置によって規定される第2図形との類似度に基づいて、前記評価データを出力する、
請求項1に記載の視機能検査装置。
The evaluation unit outputs the evaluation data based on a similarity between a first graphic defined by a relative position of the plurality of indices and a second graphic defined by a relative position of the plurality of corneal reflection images. ,
The visual function inspection device according to claim 1.
前記表示制御部は、前記表示画面の複数の位置のそれぞれに前記指標を順次表示させ、
前記評価部は、隣接する前記角膜反射像の距離と閾値とを比較して、前記第1図形と前記第2図形との類似度を判定する、
請求項2に記載の視機能検査装置。
The display control unit sequentially displays the index at each of a plurality of positions on the display screen,
The evaluation unit compares a distance between adjacent corneal reflection images and a threshold value to determine a similarity between the first graphic and the second graphic.
The visual function inspection device according to claim 2.
前記表示制御部は、前記表示画面の複数の位置のそれぞれに前記指標を順次表示させ、
前記評価部は、隣接する前記指標の一方から他方へ向かう第1ベクトルと、隣接する前記角膜反射像の一方から他方へ向かう第2ベクトルとを比較して、前記評価データを出力する、
請求項2又は請求項3に記載の視機能検査装置。
The display control unit sequentially displays the index at each of a plurality of positions on the display screen,
The evaluation unit compares a first vector from one of the adjacent indices to the other with a second vector from one of the adjacent corneal reflection images to the other, and outputs the evaluation data.
The visual function inspection device according to claim 2 or 3.
前記画像データに基づいて前記被験者の視線を検出する視線検出部を備える、
請求項1から請求項4のいずれか一項に記載の視機能検査装置。
A gaze detection unit that detects the gaze of the subject based on the image data,
The visual function inspection device according to any one of claims 1 to 4.
表示装置の表示画面の複数の位置のそれぞれに指標を表示させることと、
光源から射出された検出光が照射される被験者の眼の画像データを取得することと、
複数の前記指標のそれぞれを見せたときの前記画像データに基づいて、前記眼の角膜反射像の位置データを算出することと、
複数の前記指標の相対位置と複数の前記角膜反射像の相対位置とに基づいて、前記被験者の視機能の評価データを出力することと、
を含む視機能検査方法。
Displaying an index at each of a plurality of positions on the display screen of the display device;
Acquiring image data of the subject's eye irradiated with the detection light emitted from the light source,
Based on the image data when showing each of the plurality of indices, calculating position data of the corneal reflection image of the eye,
Based on the relative positions of the plurality of indices and the relative positions of the plurality of corneal reflection images, to output evaluation data of the visual function of the subject,
A visual function test method including:
コンピュータに、
表示装置の表示画面の複数の位置のそれぞれに指標を表示させることと、
光源から射出された検出光が照射される被験者の眼の画像データを取得することと、
複数の前記指標のそれぞれを見せたときの前記画像データに基づいて、前記眼の角膜反射像の位置データを算出することと、
複数の前記指標の相対位置と複数の前記角膜反射像の相対位置とに基づいて、前記被験者の視機能の評価データを出力することと、
を実行させるコンピュータプログラム。
On the computer,
Displaying an index at each of a plurality of positions on the display screen of the display device;
Acquiring image data of the subject's eye irradiated with the detection light emitted from the light source,
Based on the image data when showing each of the plurality of indices, calculating position data of the corneal reflection image of the eye,
Based on the relative positions of the plurality of indices and the relative positions of the plurality of corneal reflection images, to output evaluation data of the visual function of the subject,
A computer program that executes
JP2016256645A 2016-12-28 2016-12-28 Visual function testing device, visual function testing method, and computer program Active JP6677156B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016256645A JP6677156B2 (en) 2016-12-28 2016-12-28 Visual function testing device, visual function testing method, and computer program
EP17887452.5A EP3542705B1 (en) 2016-12-28 2017-11-02 Visual function examination device, visual function examination method, and computer program
PCT/JP2017/039791 WO2018123266A1 (en) 2016-12-28 2017-11-02 Visual function examination device, visual function examination method, and computer program
US16/409,968 US11019994B2 (en) 2016-12-28 2019-05-13 Visual performance examination device, visual performance examination method, and computer program
US17/242,384 US11653831B2 (en) 2016-12-28 2021-04-28 Visual performance examination device, visual performance examination method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016256645A JP6677156B2 (en) 2016-12-28 2016-12-28 Visual function testing device, visual function testing method, and computer program

Publications (2)

Publication Number Publication Date
JP2018108166A JP2018108166A (en) 2018-07-12
JP6677156B2 true JP6677156B2 (en) 2020-04-08

Family

ID=62843945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016256645A Active JP6677156B2 (en) 2016-12-28 2016-12-28 Visual function testing device, visual function testing method, and computer program

Country Status (1)

Country Link
JP (1) JP6677156B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4889422A (en) * 1986-01-28 1989-12-26 George Pavlidis Method and means for detecting dyslexia
JP4336854B2 (en) * 2003-11-11 2009-09-30 学校法人東海大学 Gaze display device and dementia diagnosis device
IL215883A0 (en) * 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
WO2014055600A1 (en) * 2012-10-02 2014-04-10 University Hospitals Of Cleveland Apparatus and methods for diagnosis of strabismus

Also Published As

Publication number Publication date
JP2018108166A (en) 2018-07-12

Similar Documents

Publication Publication Date Title
EP3499462B1 (en) Line-of-sight detection device
EP3153092B1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
EP2649932A1 (en) Method for detecting point of gaze and device for detecting point of gaze
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
JP2017111746A (en) Sight line detection device and sight line detection method
JP2018140007A (en) Evaluation device, evaluation method, and evaluation program
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP6766646B2 (en) Visual function test device, visual function test method, and computer program
JP6677156B2 (en) Visual function testing device, visual function testing method, and computer program
US20210290133A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
US11890057B2 (en) Gaze detection apparatus, gaze detection method, and gaze detection program
WO2018123266A1 (en) Visual function examination device, visual function examination method, and computer program
EP3583887B1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
JP7063045B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
WO2020044691A1 (en) Evaluation device, evaluation method, and evaluation program
WO2020031471A1 (en) Assessment device, assessment method, and assessment program
JP7027958B2 (en) Evaluation device, evaluation method, and evaluation program
WO2019181272A1 (en) Evaluation device, evaluation method, and evaluation program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R150 Certificate of patent or registration of utility model

Ref document number: 6677156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150