WO2018123266A1 - 視機能検査装置、視機能検査方法、及びコンピュータプログラム - Google Patents

視機能検査装置、視機能検査方法、及びコンピュータプログラム Download PDF

Info

Publication number
WO2018123266A1
WO2018123266A1 PCT/JP2017/039791 JP2017039791W WO2018123266A1 WO 2018123266 A1 WO2018123266 A1 WO 2018123266A1 JP 2017039791 W JP2017039791 W JP 2017039791W WO 2018123266 A1 WO2018123266 A1 WO 2018123266A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
distance
eye
subject
relative position
Prior art date
Application number
PCT/JP2017/039791
Other languages
English (en)
French (fr)
Inventor
修二 箱嶋
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016256646A external-priority patent/JP6766646B2/ja
Priority claimed from JP2016256645A external-priority patent/JP6677156B2/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP17887452.5A priority Critical patent/EP3542705B1/en
Publication of WO2018123266A1 publication Critical patent/WO2018123266A1/ja
Priority to US16/409,968 priority patent/US11019994B2/en
Priority to US17/242,384 priority patent/US11653831B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • A61B3/085Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus for testing strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Definitions

  • the present invention relates to a visual function inspection device, a visual function inspection method, and a computer program.
  • a visual function inspection device is used in a visual function test such as an eye position test or a refraction test.
  • the visual function inspection device inspects abnormalities in visual function such as strabismus or amblyopia.
  • the Hirschberg method is known as one of eye position inspection methods. In the Hirschberg method, a subject is irradiated with infrared light emitted from a light source, the subject's eyes irradiated with infrared light are photographed with a camera, and the position of the cornea reflection image, which is a reflection image of the light source on the cornea surface, is determined. This is a method of detecting and examining the eye position of the subject.
  • the examination accuracy may be reduced.
  • An aspect of the present invention aims to suppress a decrease in inspection accuracy of visual function even if the relative position between the light source and the subject fluctuates.
  • the image data acquisition unit that acquires the right eye image data and the left eye image data of the subject irradiated with the detection light emitted from the light source
  • the right eye image data Calculating first relative position data indicating a relative position between the pupil of the right eye and the corneal reflection image, and indicating a relative position between the pupil of the left eye and the corneal reflection image based on the image data of the left eye.
  • a visual function comprising: a position calculation unit that calculates second relative position data; and an evaluation unit that outputs evaluation data of the visual function of the subject based on the first relative position data and the second relative position data.
  • FIG. 1 is a perspective view schematically showing an example of a visual function testing device according to the first embodiment.
  • FIG. 2 is a diagram schematically illustrating a positional relationship among the display device, the stereo camera device, the light source, and the eye of the subject according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual function testing device according to the first embodiment.
  • FIG. 4 is a functional block diagram illustrating an example of the visual function testing device according to the first embodiment.
  • FIG. 5 is a schematic diagram for explaining the calculation method of the position data of the corneal curvature center according to the first embodiment.
  • FIG. 6 is a schematic diagram for explaining the calculation method of the position data of the corneal curvature center according to the first embodiment.
  • FIG. 7 is a flowchart illustrating an example of the visual function inspection method according to the first embodiment.
  • FIG. 8 is a flowchart illustrating an example of a perspective inspection method according to the first embodiment.
  • FIG. 9 is a diagram schematically illustrating an example of a subject irradiated with detection light according to the first embodiment.
  • FIG. 10 is a diagram schematically illustrating an example of image data of the eyes of a subject who does not have a tendency to squint.
  • FIG. 11 is a diagram schematically showing a line of sight when a subject who does not have a tendency to squint is looking at an index displayed at the center of the display screen of the display device.
  • FIG. 12 is a diagram schematically illustrating an example of image data of the eyes of a subject who has a tendency to squint.
  • FIG. 13 is a diagram schematically showing a line of sight when a subject who has a tendency to squint is staring at an index displayed at the center of the display screen of the display device.
  • FIG. 14 is a schematic diagram for explaining an example of calibration processing according to the first embodiment.
  • FIG. 15 is a flowchart illustrating an example of the calibration process according to the first embodiment.
  • FIG. 16 is a schematic diagram for explaining an example of a line-of-sight detection process according to the first embodiment.
  • FIG. 17 is a flowchart illustrating an example of a line-of-sight detection process according to the first embodiment.
  • FIG. 18 is a diagram schematically illustrating an example of a result of image processing of the right eye image data and the left eye image data in the second embodiment.
  • FIG. 19 is a diagram schematically illustrating an example of a result of image processing of the right eye image data and the left eye image data in the second embodiment.
  • FIG. 20 is a diagram schematically illustrating an example of a result of image processing of right eye image data and left eye image data in the third embodiment.
  • FIG. 21 is a flowchart illustrating an example of a perspective inspection method according to the fourth embodiment.
  • FIG. 22 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment.
  • FIG. 23 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment.
  • FIG. 24 is a diagram schematically illustrating an example of an index displayed on the display device according to the fourth embodiment.
  • FIG. 25 is a diagram schematically illustrating an example of time-series data of distances stored in the storage unit according to the fourth embodiment.
  • FIG. 26 is a diagram schematically illustrating an example of time-series data of distances stored in the storage unit according to the fourth embodiment.
  • FIG. 27 is a diagram schematically illustrating an example of time-series data of distances stored in the storage unit according to the fourth embodiment.
  • FIG. 28 is a diagram schematically illustrating an example of a method for determining a division time according to the fifth embodiment.
  • FIG. 29 is a flowchart illustrating an example of a perspective inspection method according to the sixth embodiment.
  • FIG. 29 is a flowchart illustrating an example of a perspective inspection method according to the sixth embodiment.
  • FIG. 30 is a diagram schematically illustrating an example of an index displayed on the display device according to the sixth embodiment.
  • FIG. 31 is a diagram schematically illustrating an example of image data of the eyes of a subject who does not have a tendency to squint.
  • FIG. 32 is a diagram schematically illustrating an example of image data of the eyes of a subject who has a tendency to squint.
  • FIG. 33 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment.
  • FIG. 34 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment.
  • FIG. 35 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment.
  • FIG. 31 is a diagram schematically illustrating an example of image data of the eyes of a subject who does not have a tendency to squint.
  • FIG. 32 is a diagram schematically illustrating an example of image data of the eyes of a subject
  • FIG. 36 is a diagram illustrating an example of image data of a subject's eye according to the seventh embodiment.
  • FIG. 37 is a schematic diagram for explaining an example of a perspective inspection method according to the eighth embodiment.
  • FIG. 38 is a schematic diagram for explaining an example of a perspective inspection method according to the eighth embodiment.
  • FIG. 39 is a schematic diagram for explaining an example of a perspective inspection method according to the eighth embodiment.
  • the direction parallel to the X axis in the predetermined plane is the X axis direction
  • the direction parallel to the Y axis in the predetermined plane orthogonal to the X axis is the Y axis direction
  • the Z axis is orthogonal to each of the X axis and the Y axis.
  • the predetermined plane includes an XY plane.
  • FIG. 1 is a perspective view schematically showing an example of a visual function testing device 100 according to the present embodiment.
  • the visual function inspection device 100 inspects an abnormality in the visual function of the subject.
  • Abnormal visual function includes strabismus or amblyopia.
  • strabismus or amblyopia.
  • the visual function inspection device 100 includes a display device 101, a stereo camera device 102, and a light source 103.
  • the display device 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic EL display (OELD).
  • a flat panel display such as a liquid crystal display (LCD) or an organic EL display (OELD).
  • the display screen 101S of the display device 101 is substantially parallel to the XY plane.
  • the X-axis direction is the left-right direction of the display screen 101S
  • the Y-axis direction is the up-down direction of the display screen 101S
  • the Z-axis direction is the depth direction orthogonal to the display screen 101S.
  • the stereo camera device 102 captures the subject's image data by photographing the subject.
  • the stereo camera device 102 includes a first camera 102A and a second camera 102B arranged at different positions.
  • the stereo camera device 102 is disposed below the display screen 101S of the display device 101.
  • the first camera 102A and the second camera 102B are arranged in the X-axis direction.
  • the first camera 102A is arranged in the ⁇ X direction with respect to the second camera 102B.
  • Each of the first camera 102A and the second camera 102B includes an infrared camera, and includes, for example, an optical system capable of transmitting near-infrared light having a wavelength of 850 [nm] and an imaging element capable of receiving near-infrared light.
  • the light source 103 emits detection light.
  • the light source 103 includes a first light source 103A and a second light source 103B arranged at different positions.
  • the light source 103 is disposed below the display screen 101S of the display device 101.
  • the first light source 103A and the second light source 103B are arranged in the X-axis direction.
  • the first light source 103A is arranged in the ⁇ X direction with respect to the first camera 102A.
  • the second light source 103B is arranged in the + X direction with respect to the second camera 102B.
  • Each of the first light source 103A and the second light source 103B includes an LED (light emitting diode) light source, and can emit, for example, near-infrared light having a wavelength of 850 [nm]. Note that the first light source 103A and the second light source 103B may be disposed between the first camera 102A and the second camera 102B.
  • LED light emitting diode
  • FIG. 2 is a diagram schematically showing a positional relationship among the display device 101, the stereo camera device 102, the light source 103, and the eye 111 of the subject according to the present embodiment.
  • the subject's eye 111 includes a subject's right eye 111R and left eye 111L.
  • the light source 103 emits infrared light as detection light to illuminate the eye 111 of the subject.
  • the stereo camera device 102 captures the eye 111 with the second camera 102B when the detection light emitted from the first light source 103A is applied to the eye 111, and the detection light emitted from the second light source 103B is applied to the eye 111.
  • the eye 111 is imaged by the first camera 102A when irradiated.
  • a frame synchronization signal is output from at least one of the first camera 102A and the second camera 102B.
  • the first light source 103A and the second light source 103B emit detection light based on the frame synchronization signal.
  • the first camera 102A acquires image data of the eye 111 when the detection light emitted from the second light source 103B is irradiated to the eye 111.
  • the second camera 102B acquires image data of the eye 111 when the detection light emitted from the first light source 103A is irradiated on the eye 111.
  • the eye 111 When the eye 111 is irradiated with detection light, a part of the detection light is reflected by the pupil 112. The light reflected by the pupil 112 enters the stereo camera device 102.
  • a cornea reflection image 113 is formed on the eye 111.
  • the cornea reflection image 113 is a reflection image of the light source 103 on the cornea surface. The light from the cornea reflection image 113 enters the stereo camera device 102.
  • the intensity of light incident on the stereo camera device 102 from the pupil 112 is reduced, and the cornea The intensity of light incident on the stereo camera device 102 from the reflected image 113 is increased. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the cornea reflection image 113 has high brightness.
  • the stereo camera device 102 can detect the position of the pupil 112 and the position of the cornea reflection image 113 based on the luminance of the acquired image.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the visual function testing device 100 according to the present embodiment.
  • the visual function testing device 100 includes a display device 101, a stereo camera device 102, a light source 103, a computer system 20, an input / output interface device 30, a drive circuit 40, and an output device 50.
  • the input device 60 and the audio output device 70 are provided.
  • the computer system 20 includes an arithmetic processing device 20A and a storage device 20B.
  • a computer program 20C is stored in the storage device 20B.
  • the computer system 20, the drive circuit 40, the output device 50, the input device 60, and the audio output device 70 perform data communication via the input / output interface device 30.
  • the arithmetic processing unit 20A includes a microprocessor such as a CPU (central processing unit).
  • the storage device 20B includes a nonvolatile memory such as a ROM (read only memory) or a volatile memory such as a RAM (random access memory).
  • the arithmetic processing device 20A performs arithmetic processing according to the computer program 20C stored in the storage device 20B.
  • the drive circuit 40 generates a drive signal and outputs it to the display device 101, the stereo camera device 102, and the light source 103. In addition, the drive circuit 40 supplies the image data of the eye 111 acquired by the stereo camera device 102 to the computer system 20 via the input / output interface device 30.
  • the output device 50 includes a display device such as a flat panel display.
  • the output device 50 may include a printing device.
  • the input device 60 generates input data when operated.
  • the input device 60 includes a keyboard or mouse for a computer system.
  • the input device 60 may include a touch sensor provided on the display screen of the output device 50 that is a display device.
  • the audio output device 70 includes a speaker and outputs, for example, audio for prompting the subject to pay attention.
  • the display device 101 and the computer system 20 are separate devices. Note that the display device 101 and the computer system 20 may be integrated.
  • the visual function testing device 100 includes a tablet personal computer
  • the computer system 20, the input / output interface device 30, the drive circuit 40, and the display device 101 may be mounted on the tablet personal computer.
  • FIG. 4 is a functional block diagram showing an example of the visual function testing device 100 according to the present embodiment.
  • the input / output interface device 30 includes an input / output unit 302.
  • the drive circuit 40 generates a drive signal for driving the display device 101 and outputs the drive signal to the display device 101, and generates a drive signal for driving the first camera 102A to generate the first camera.
  • a first camera input / output unit 404A that outputs to the second camera 102B
  • a second camera input / output unit 404B that generates a drive signal for driving the second camera 102B and outputs it to the second camera 102B, the first light source 103A and the second light source 103A.
  • a light source drive unit 406 that generates a drive signal for driving the two light sources 103B and outputs the drive signals to the first light source 103A and the second light source 103B.
  • the first camera input / output unit 404 ⁇ / b> A supplies the image data of the eye 111 acquired by the first camera 102 ⁇ / b> A to the computer system 20 via the input / output unit 302.
  • the second camera input / output unit 404B supplies the image data of the eye 111 acquired by the second camera 102B to the computer system 20 via the input / output unit 302.
  • the computer system 20 controls the visual function inspection device 100.
  • the computer system 20 includes an image data acquisition unit 202, an input data acquisition unit 204, an image processing unit 206, a display control unit 208, a light source control unit 210, a camera control unit 211, a position calculation unit 212, a curvature.
  • a center calculation unit 214, a line-of-sight detection unit 216, an evaluation unit 218, a storage unit 220, and an output control unit 222 are included.
  • the functions of the computer system 20 are exhibited by the arithmetic processing unit 20A, the storage unit 20B, and the computer program 20C stored in the storage unit 20B.
  • the image data acquisition unit 202 acquires the image data of the subject acquired by the stereo camera device 102 including the first camera 102A and the second camera 102B from the stereo camera device 102 via the input / output unit 302.
  • the image data is digital data.
  • the subject image data includes image data of the subject's eye 111.
  • the image data of the subject's eye 111 includes image data of the subject's right eye 111R and image data of the left eye 111L.
  • the stereo camera device 102 photographs the eye 111 of the subject irradiated with the detection light emitted from the light source 103.
  • the image data acquisition unit 202 acquires image data of the eye 111 of the subject irradiated with the detection light emitted from the light source 103 from the stereo camera device 102 via the input / output unit 302.
  • the input data acquisition unit 204 acquires input data generated by operating the input device 60 from the input device 60 via the input / output unit 302.
  • the image processing unit 206 performs image processing on the image data acquired by the image data acquisition unit 202.
  • the display control unit 208 causes the display device 101 to display specific display data.
  • the display control unit 208 causes the display device 101 to display an indicator 130 for causing the subject to gaze as display data.
  • the indicator 130 may be a light spot or an illustration.
  • the display control unit 208 can cause the display device 101 to display the indicator 130 that is stationary and moving on the display screen 101 ⁇ / b> S of the display device 101.
  • the display control unit 208 can display the indicator 130 at each of a plurality of positions on the display screen 101S of the display device 101.
  • the light source control unit 210 controls the operation state of the first light source 103A and the second light source 103B by controlling the light source driving unit 406.
  • the light source controller 210 controls the first light source 103A and the second light source 103B so that the first light source 103A and the second light source 103B emit detection light at different timings. Further, the light source control unit 210 controls the amount of detection light emitted from the first light source 103A and the amount of detection light emitted from the second light source 103B.
  • the camera control unit 211 controls the operating state of the stereo camera device 102 including the first camera 102A and the second camera 102B by controlling the first camera input / output unit 404A and the second camera input / output unit 404B.
  • the position calculation unit 212 calculates the position data of the pupil 112 based on the image data of the eye 111 acquired by the image data acquisition unit 202. Further, the position calculation unit 212 calculates position data of the cornea reflection image 113 based on the image data of the eye 111 acquired by the image data acquisition unit 202. The position calculation unit 212 calculates the position data of the pupil 112 and the position data of the corneal reflection image 113 based on the image data of the eye 111 when the index 130 displayed on the display device 101 is shown to the subject.
  • the position calculation unit 212 calculates the position data of the pupil 112 and the position data of the corneal reflection image 113 for each of the right eye 111R and the left eye 111L of the subject.
  • the position calculation unit 212 calculates first relative position data indicating the relative position between the pupil 112R of the right eye 111R and the cornea reflection image 113R of the right eye 111R based on the image data of the right eye 111R.
  • the position calculation unit 212 calculates second relative position data indicating the relative position between the pupil 112L of the left eye 111L and the cornea reflection image 113L of the left eye 111L based on the image data of the left eye 111L.
  • the position calculation unit 212 calculates the position data of the pupil center 112C in the XY plane as the position data of the pupil 112. Further, the position calculation unit 212 calculates position data of the corneal reflection center 113C in the XY plane as position data of the corneal reflection image 113.
  • the pupil center 112 ⁇ / b> C refers to the center of the pupil 112.
  • the corneal reflection center 113C is the center of the corneal reflection image 113.
  • the curvature center calculation unit 214 calculates position data of the corneal curvature center 110 of the eye 111 based on the image data of the eye 111 acquired by the image data acquisition unit 202.
  • the line-of-sight detection unit 216 detects the line of sight of the subject based on the image data of the eye 111 acquired by the image data acquisition unit 202.
  • the subject's line of sight includes a line-of-sight vector indicating the line-of-sight direction that the subject is looking at.
  • the gaze detection unit 216 detects the gaze of the subject based on the image data of the eye 111 when the index 130 displayed on the display device 101 is shown to the subject.
  • the line-of-sight detection unit 216 Based on the position data of the pupil center 112C and the position data of the corneal curvature center 110 acquired from the image data of the eye 111, the line-of-sight detection unit 216 includes each of the line-of-sight vector of the right eye 111R and the line-of-sight vector of the left eye 111L Is detected.
  • the line-of-sight detection unit 216 detects position data of the gaze point of the subject based on the detected line-of-sight vector.
  • the subject's gaze point includes an intersection between the subject's line-of-sight vector and the display screen 101 ⁇ / b> S of the display device 101.
  • the position data of the gazing point refers to the position data of the intersection point between the subject's line-of-sight vector defined in the global coordinate system and the display screen 101S of the display device 101.
  • the evaluation unit 218 outputs the evaluation data of the visual function of the subject based on the position data calculated by the position calculation unit 212.
  • the evaluation data of the subject's visual function includes evaluation data of the subject's strabismus.
  • the strabismus evaluation data includes evaluation data indicating whether or not the subject is strabismus and evaluation data indicating the angle of strabismus.
  • the storage unit 220 stores the computer program 20C and various data.
  • the output control unit 222 outputs data to at least one of the display device 101, the output device 50, and the audio output device 70.
  • the output control unit 222 causes the display device 101 or the output device 50 to display at least evaluation data of the visual function of the subject.
  • the curvature center calculation unit 214 calculates position data of the corneal curvature center 110 of the eye 111 based on the image data of the eye 111.
  • FIG. 5 and 6 are schematic diagrams for explaining a method for calculating the position data of the corneal curvature center 110 according to the present embodiment.
  • FIG. 5 shows an example in which the eye 111 is illuminated by one light source 103C.
  • FIG. 6 shows an example in which the eye 111 is illuminated by the first light source 103A and the second light source 103B.
  • the light source 103C is disposed between the first camera 102A and the second camera 102B.
  • the pupil center 112C indicates the pupil center when the eye 111 is illuminated by one light source 103C.
  • the corneal reflection center 113C indicates the corneal reflection center when the eye 111 is illuminated by one light source 103C.
  • the corneal reflection center 113C exists on a straight line connecting the light source 103C and the corneal curvature center 110.
  • the corneal reflection center 113C is positioned at the midpoint between the corneal surface and the corneal curvature center 110.
  • the corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110.
  • the position data of the corneal reflection center 113C is detected by the stereo camera device 102.
  • the corneal curvature center 110 exists on a straight line connecting the light source 103C and the corneal reflection center 113C.
  • the curvature center calculator 214 calculates position data on the straight line at which the distance from the corneal reflection center 113C is a predetermined value as position data of the corneal curvature center 110.
  • the predetermined value is a value determined in advance based on a general radius of curvature of the cornea and the like, and is stored in the storage unit 220.
  • the first camera 102A and the second light source 103B, and the second camera 102B and the first light source 103A are symmetrical with respect to a straight line passing through an intermediate position between the first camera 102A and the second camera 102B. It is arranged at the position. It can be considered that the virtual light source 103V exists at an intermediate position between the first camera 102A and the second camera 102B.
  • the corneal reflection center 121 indicates the corneal reflection center in an image obtained by photographing the eye 111 with the second camera 102B.
  • a corneal reflection center 122 indicates a corneal reflection center in an image obtained by photographing the eye 111 with the first camera 102A.
  • a corneal reflection center 124 indicates a corneal reflection center corresponding to the virtual light source 103V.
  • the position data of the cornea reflection center 124 is calculated based on the position data of the cornea reflection center 121 and the position data of the cornea reflection center 122 acquired by the stereo camera device 102.
  • the stereo camera device 102 detects position data of the corneal reflection center 121 and position data of the corneal reflection center 122 in the local coordinate system defined by the stereo camera device 102.
  • camera calibration is performed in advance by the stereo calibration method, and conversion parameters for converting the three-dimensional local coordinate system of the stereo camera device 102 into a three-dimensional global coordinate system are calculated.
  • the conversion parameters are stored in the storage unit 220.
  • the curvature center calculation unit 214 converts the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 acquired by the stereo camera device 102 into position data in the global coordinate system using the conversion parameters.
  • the curvature center calculation unit 214 calculates position data of the corneal reflection center 124 in the global coordinate system based on the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 defined in the global coordinate system.
  • the corneal curvature center 110 exists on a straight line 123 connecting the virtual light source 103V and the corneal reflection center 124.
  • the curvature center calculation unit 214 calculates position data on the straight line 123 where the distance from the corneal reflection center 124 is a predetermined value as position data of the corneal curvature center 110.
  • the predetermined value is a value determined in advance based on a general radius of curvature of the cornea and the like, and is stored in the storage unit 220.
  • the corneal curvature center 110 is calculated by the same method as the method when there is one light source.
  • the corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. Accordingly, the corneal curvature radius 109 is calculated by calculating the position data of the corneal surface and the position data of the corneal curvature center 110.
  • the position data of the corneal curvature center 110, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C in the global coordinate system are calculated.
  • the gaze detection unit 216 can detect the gaze vector of the subject based on the position data of the pupil center 112C and the position data of the corneal curvature center 110.
  • FIG. 7 is a flowchart illustrating an example of the visual function inspection method according to the present embodiment.
  • calibration includes a perspective inspection process (step S100) for inspecting the subject's perspective, a calculation process of position data of the corneal curvature center 110, and a calculation process of distance data between the pupil center 112C and the corneal curvature center 110.
  • step S100 a perspective inspection process for inspecting the subject's perspective
  • step S200 calculation process of position data of the corneal curvature center 110
  • distance data between the pupil center 112C and the corneal curvature center 110 The process (step S200) and the line-of-sight detection process (step S300) are performed.
  • the visual function testing device 100 irradiates the subject with detection light emitted from the light source 103, images the subject's eyes 111 irradiated with the detection light with the stereo camera device 102, and the light source 103 on the corneal surface. Based on the position data of the cornea reflection image 113, which is a reflection image of the subject, the state of the subject's strabismus is examined.
  • FIG. 8 is a flowchart showing an example of a perspective inspection process (step S100) according to the present embodiment.
  • the perspective inspection process (step S ⁇ b> 100) includes a step (step S ⁇ b> 101) of displaying an indicator 130 to be watched by the subject on the display device 101, and a step of emitting detection light from the light source 103 to irradiate the subject.
  • Step S102 a step of obtaining the image data of the right eye 111R and the image data of the left eye 111L of the subject irradiated with the detection light emitted from the light source 103 (Step S103), and the image data of the right eye 111R
  • the pupil 112L and the left eye of the left eye 111L are calculated based on the image data of the left eye 111L.
  • a step of calculating second relative position data indicating a relative position of the 111L cornea reflection image 113L (step S104), and a first phase Position data and based on the second relative position data, and a step (step S105, step S106, step S107) for outputting the evaluation data by evaluating the visual function of the subject.
  • the display control unit 208 causes the display device 101 to display an index 130 for causing the subject to gaze (step S101).
  • the display control unit 208 displays the indicator 130 at the center of the display screen 101S, for example.
  • the display control unit 208 causes the display device 101 to display the indicator 130 that is stationary on the display screen 101S. The subject is instructed to stare at the index 130 displayed on the display device 101.
  • Detection light is emitted from the light source 103 (step S102).
  • the stereo camera device 102 acquires image data of the right eye 111R and image data of the left eye 111L of the subject irradiated with the detection light.
  • Image data of the eye 111 of the subject is acquired by at least one of the first camera 102A and the second camera 102B.
  • image data of the eye 111 of the subject is acquired by the first camera 102A.
  • the image data of the eye 111 of the subject may be acquired by the second camera 102B. Note that both the image data acquired by the first camera 102A and the image data acquired by the second camera 102B may be used.
  • FIG. 9 is a diagram schematically illustrating an example of a subject irradiated with detection light according to the present embodiment. As shown in FIG. 9, detection light is formed on each of the right eye 111R and the left eye 111L of the subject, so that a cornea reflection image 113R is formed on the right eye 111R and a cornea reflection image 113L is formed on the left eye 111L. Is done.
  • the image data acquisition unit 202 acquires the image data of the right eye 111R and the image data of the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (step S103).
  • FIG. 10 is a diagram schematically illustrating an example of image data acquired by the image data acquisition unit 202 according to the present embodiment.
  • the image data includes image data of the pupil 112R of the right eye 111R, image data of the corneal reflection image 113R of the right eye 111R, image data of the pupil 112L of the left eye 111L, and corneal reflection of the left eye 111L.
  • the image data of the image 113L is included.
  • the position calculation unit 212 calculates position data of the pupil center 112Cr of the right eye 111R and position data of the corneal reflection center 113Cr of the right eye 111R based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates position data of the pupil center 112Cl of the left eye 111L and position data of the corneal reflection center 113Cl of the left eye 111L based on the image data of the left eye 111L.
  • the position calculation unit 212 Based on the position data of the pupil center 112Cr of the right eye 111R in the XY plane and the position data of the cornea reflection center 113Cr of the right eye 111R in the XY plane, the position calculation unit 212 and the pupil center 112Cr of the right eye 111R in the XY plane and the right eye First relative position data indicating a relative position of the 111R cornea reflection center 113Cr is calculated.
  • the position calculation unit 212 determines the pupil center 112Cl of the left eye 111L in the XY plane based on the position data of the pupil center 112Cl of the left eye 111L in the XY plane and the position data of the corneal reflection center 113Cl of the left eye 111L.
  • Second relative position data indicating the relative position of the left eye 111L with the corneal reflection center 113Cl is calculated (step S104).
  • the first relative position data includes the distance Rx between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R in the X-axis direction, and the right in the Y-axis direction. It includes a distance Ry between the pupil center 112Cr of the eye 111R and the corneal reflection center 113Cr of the right eye 111R.
  • the second relative position data includes the distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X axis direction, and the pupil center 112Cl of the left eye 111L and the cornea of the left eye 111L in the Y axis direction.
  • the distance Ly with respect to the reflection center 113Cl is included.
  • Evaluation unit 218 calculates difference ⁇ x between distance Rx and distance Lx and difference ⁇ y between distance Ry and distance Ly.
  • the evaluation unit 218 determines whether or not the difference ⁇ x between the distance Rx and the distance Lx is greater than or equal to the threshold value SHx. Further, the evaluation unit 218 determines whether or not the difference ⁇ y between the distance Ry and the distance Ly is greater than or equal to the threshold value SHy (step S105). That is, the evaluation unit 218 determines whether or not the expressions (1A) and (1B) are established.
  • FIG. 10 is a diagram schematically showing an example of image data of the eye 111 of the subject who does not have a tendency to squint.
  • FIG. 11 is a diagram schematically showing a line of sight when a subject who does not have a tendency to squint is staring at the index 130 displayed at the center of the display screen 101 ⁇ / b> S of the display device 101.
  • FIG. 12 is a diagram schematically illustrating an example of image data of the eye 111 of the subject who has a tendency to squint.
  • FIG. 13 is a diagram schematically showing a line of sight when a subject who has a tendency to squint is looking at the indicator 130 displayed at the center of the display screen 101 ⁇ / b> S of the display device 101.
  • FIG. 11 when the subject has no tendency to squint, the line of sight of the right eye 111R and the line of sight of the left eye 111L are directed toward the index 130.
  • FIG. 13 when the subject has a tendency to squint, the line of sight of the right eye 111 ⁇ / b> R and the line of sight of the left eye 111 ⁇ / b> L deviate from the index 130.
  • FIG. 13 shows a state in which the left eye 111L of the subject has a tendency to squint. As shown in FIG.
  • step S105 when it is determined that the difference ⁇ x is greater than or equal to the threshold value SHx or the difference ⁇ y is greater than or equal to the threshold value SHy (step S105: Yes), the evaluation unit 218 evaluates that the visual function of the subject is abnormal. Data is output (step S106). That is, when at least one of the expressions (1A) and (1B) is not satisfied, the evaluation unit 218 determines that the subject has a tendency to squint, and outputs evaluation data indicating that the subject has a tendency to squint. .
  • step S105 when it is determined that the difference ⁇ x is not greater than or equal to the threshold SHx and the difference ⁇ y is not greater than or equal to the threshold SHy (step S105: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal. (Step S107). That is, when both the formulas (1A) and (1B) are established, the evaluation unit 218 determines that the subject does not have a tendency to squint, and outputs evaluation data indicating that the subject has no tendency to squint.
  • the threshold value SHx and the threshold value SHy are derived statistically or empirically based on data acquired from a plurality of subjects having a tendency to strabismus and stored in the storage unit 220.
  • the threshold value SHx and the threshold value SHy are set to values of 3 [%] to 7 [%] of the diameter of the pupil 112.
  • the threshold value SHx and the threshold value SHy may be set to values of 0.07 [mm] or more and 0.13 [mm] or less, for example.
  • the difference ⁇ x when the difference ⁇ x is equal to or greater than the threshold value SHx, it is evaluated that the subject has a tendency to be esotropia or exotropia.
  • the difference ⁇ y is equal to or greater than the threshold value SHy, it is evaluated that the subject has a tendency of upper strabismus or lower strabismus.
  • the output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to squint or evaluation data indicating that there is no tendency to squint.
  • the calibration process Next, the calibration process will be described.
  • the calibration includes the calculation process of the position data of the corneal curvature center 110 and the calculation process of the distance data between the pupil center 112C and the corneal curvature center 110. Processing (step S200) is performed.
  • FIG. 14 is a schematic diagram for explaining an example of calibration processing according to the present embodiment.
  • the calibration process includes calculating position data of the corneal curvature center 110 and calculating a distance 126 between the pupil center 112C and the corneal curvature center 110.
  • the display control unit 208 causes the display device 101 to display an index 130 for allowing the subject to gaze.
  • the indicator 130 is defined in the global coordinate system. In the present embodiment, the index 130 is displayed at the center of the display screen 101S of the display device 101, for example. The indicator 130 may be displayed at the end of the display screen 101S.
  • the straight line 131 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C.
  • a straight line 132 is a straight line connecting the index 130 and the pupil center 112C.
  • the corneal curvature center 110 is an intersection of the straight line 131 and the straight line 132.
  • the curvature center calculation unit 214 obtains the position data of the corneal curvature center 110 based on the position data of the virtual light source 103V, the position data of the index 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C. Can be calculated.
  • FIG. 15 is a flowchart showing an example of the calibration process (step S200) according to the present embodiment.
  • the output control unit 222 displays the indicator 130 on the display screen 101S of the display device 101 (step S201).
  • the subject can watch the index 130.
  • the light source control unit 210 controls the light source driving unit 406 to emit detection light from one of the first light source 103A and the second light source 103B (step S202).
  • the stereo camera device 102 photographs the eye 111 of the subject with the camera having the longer distance from the light source that emitted the detection light among the first camera 102A and the second camera 102B (step S203).
  • the light source control unit 210 controls the light source driving unit 406 to emit detection light from the other light source of the first light source 103A and the second light source 103B (step S204).
  • the stereo camera apparatus 102 images the eye 111 of the subject with the camera having the longer distance from the light source that emitted the detection light among the first camera 102A and the second camera 102B (step S205).
  • the pupil 112 is detected by the stereo camera device 102 as a dark portion, and the cornea reflection image 113 is detected by the stereo camera device 102 as a bright portion. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low brightness, and the image of the cornea reflection image 113 has high brightness.
  • the position calculation unit 212 can detect the position data of the pupil 112 and the position data of the cornea reflection image 113 based on the luminance of the acquired image. Further, the position calculation unit 212 calculates position data of the pupil center 112 ⁇ / b> C based on the image data of the pupil 112. Further, the position calculation unit 212 calculates position data of the corneal reflection center 113C based on the image data of the corneal reflection image 113 (step S206).
  • the position data detected by the stereo camera device 102 is position data defined by the local coordinate system.
  • the position calculation unit 212 uses the conversion parameters stored in the storage unit 220 to perform coordinate conversion of the position data of the pupil center 112C and the position data of the cornea reflection center 113C detected by the stereo camera device 102, and perform global conversion.
  • the position data of the pupil center 112C and the position data of the corneal reflection center 113C defined by the coordinate system are calculated (step S207).
  • the curvature center calculation unit 214 calculates a straight line 131 connecting the corneal reflection center 113C defined by the global coordinate system and the virtual light source 103V (step S208).
  • the curvature center calculation unit 214 calculates a straight line 132 that connects the index 130 displayed on the display screen 101S of the display device 101 and the pupil center 112C (step S209).
  • the curvature center calculation unit 214 obtains an intersection between the straight line 131 calculated in step S208 and the straight line 132 calculated in step S209, and sets the intersection as the corneal curvature center 110 (step S210).
  • the curvature center calculation unit 214 calculates the distance 126 between the pupil center 112C and the corneal curvature center 110, and stores it in the storage unit 220 (step S211). The stored distance is used to calculate the corneal curvature center 110 in the line-of-sight detection process in step S300.
  • the line-of-sight detection process is performed after the calibration process.
  • the gaze detection unit 216 calculates the gaze vector of the subject and the position data of the gazing point based on the image data of the eye 111.
  • FIG. 16 is a schematic diagram for explaining an example of a line-of-sight detection process according to the present embodiment.
  • the line-of-sight detection process uses the distance 126 between the pupil center 112C and the corneal curvature center 110 obtained in the calibration process (step S200) to correct the position of the corneal curvature center 110 and the corrected corneal curvature center 110. Calculation of the gazing point using the position data.
  • a gazing point 165 indicates a gazing point obtained from the corneal curvature center 110 calculated using a general radius of curvature value.
  • a gaze point 166 indicates a gaze point obtained from the corneal curvature center 110 calculated using the distance 126 obtained by the calibration process.
  • the pupil center 112C indicates the pupil center calculated in the calibration process
  • the corneal reflection center 113C indicates the corneal reflection center calculated in the calibration process.
  • the straight line 173 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C.
  • the corneal curvature center 110 is the position of the corneal curvature center calculated from a general curvature radius value.
  • the distance 126 is the distance between the pupil center 112C and the corneal curvature center 110 calculated by the calibration process.
  • the corneal curvature center 110H indicates the position of the corrected corneal curvature center obtained by correcting the corneal curvature center 110 using the distance 126.
  • the corneal curvature center 110H is obtained because the corneal curvature center 110 exists on the straight line 173 and the distance between the pupil center 112C and the corneal curvature center 110 is the distance 126.
  • the line of sight 177 calculated when a general radius of curvature value is used is corrected to the line of sight 178.
  • the gazing point on the display screen 101S of the display device 101 is corrected from the gazing point 165 to the gazing point 166.
  • FIG. 17 is a flowchart illustrating an example of a line-of-sight detection process (step S300) according to the present embodiment. Note that the processing from step S301 to step S307 shown in FIG. 17 is the same as the processing from step S202 to step S208 shown in FIG.
  • the curvature center calculation unit 214 calculates the position on the straight line 173 calculated in step S307 and the distance from the pupil center 112C equal to the distance 126 obtained by the calibration process as the corneal curvature center 110H (step S308).
  • the line-of-sight detection unit 216 calculates a line-of-sight vector connecting the pupil center 112C and the corneal curvature center 110H (step S309).
  • the line-of-sight vector indicates the line-of-sight direction that the subject is looking at.
  • the line-of-sight detection unit 216 calculates position data of an intersection point between the line-of-sight vector and the display screen 101S of the display device 101 (step S310).
  • the position data of the intersection of the line-of-sight vector and the display screen 101S of the display device 101 is the position data of the subject's point of interest on the display screen 101S defined by the global coordinate system.
  • the line-of-sight detection unit 216 converts the position data of the gazing point defined in the global coordinate system into the position data on the display screen 101S of the display device 101 defined in the two-dimensional coordinate system (step S311). Thereby, the position data of the gazing point on the display screen 101S of the display device 101 that the subject looks at is calculated.
  • the image data of the right eye 111R and the image data of the left eye 111L are acquired, and the pupil center 112Cr of the right eye 111R and the corneal reflection are acquired based on the image data of the right eye 111R.
  • First relative position data indicating a relative position with respect to the center 113Cr is calculated, and based on image data of the left eye 111L, second relative position data indicating a relative position between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl. Is calculated.
  • the visual function evaluation data of the subject is output based on the first relative position data and the second relative position data.
  • the relative position between the light source 103 and the subject is determined in the strabismus examination. Even if it fluctuates, a decrease in inspection accuracy is suppressed. That is, in a perspective examination, even if the subject's head moves, the right eye 111R and the left eye 111L move while maintaining the relative position. Even if the subject's head moves, the relative position between the right eye 111R and the left eye 111L is maintained, and therefore, based on the first relative position data for the right eye 111R and the second relative position data for the left eye 111L. Thus, it is possible to accurately inspect the state of the subject's strabismus.
  • the distance Rx and the distance Ry are calculated as the first relative position data
  • the distance Lx and the distance Ly are calculated as the second relative position data.
  • the evaluation unit 218 outputs evaluation data based on the difference ⁇ x between the distance Rx and the distance Lx and the difference ⁇ y between the distance Ry and the distance Ly.
  • a test subject has the tendency of an internal strabismus or an external strabismus, and whether a test subject has a tendency of an upper strabismus or a lower strabismus.
  • the difference ⁇ x is greater than or equal to the threshold value SHx
  • the subject has a tendency to be inspected in the inside or outside.
  • the difference ⁇ y is equal to or greater than the threshold value SHy
  • step S100 in the perspective detection process (step S100), based on the first relative position data and the second relative position data, the position of the pupil center 112Cr of the right eye 111R and the pupil center of the left eye 111L in the XY plane.
  • the distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of 112Cl is matched will be described.
  • FIG. 18 is a diagram schematically illustrating an example of a result of image processing of the image data of the right eye 111R and the image data of the left eye 111L in the present embodiment.
  • the image processing unit 206 captures the image of the right eye 111R acquired by the image data acquisition unit 202 so that the position of the pupil center 112Cr of the right eye 111R matches the position of the pupil center 112Cl of the left eye 111L in the XY plane.
  • the data and the image data of the left eye 111L are synthesized.
  • the position calculation unit 212 calculates position data of the pupil center 112Cr of the right eye 111R and position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane in the image data synthesized by the image processing unit 206.
  • the position calculation unit 212 calculates position data of the pupil center 112Cl of the left eye 111L and position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane in the image data synthesized by the image processing unit 206.
  • the position calculation unit 212 also includes a distance Rx between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R in the X-axis direction, and the pupil center 112Cr of the right eye 111R and the right eye 111R in the Y-axis direction. A distance Ry from the corneal reflection center 113Cr is calculated.
  • the position calculation unit 212 also includes a distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction, and the pupil center 112Cl of the left eye 111L and the left eye 111L in the Y-axis direction. The distance Ly from the corneal reflection center 113Cl is calculated.
  • the position calculation unit 212 matches the corneal reflection center of the right eye 111R when the position of the pupil center 112Cr of the right eye 111R and the position of the pupil center 112Cl of the left eye 111L coincide with each other in the XY plane. A distance D between 113Cr and the corneal reflection center 113Cl of the left eye 111L is calculated. That is, the position calculation unit 212 performs the calculation of equation (2).
  • the evaluation unit 218 outputs evaluation data of the visual function of the subject based on the distance D.
  • FIG. 18 is a diagram schematically illustrating an example of image data obtained by synthesizing the image data of the right eye 111R and the image data of the left eye 111L of the subject who does not have a tendency to squint.
  • FIG. 19 is a diagram schematically illustrating an example of image data obtained by combining the image data of the right eye 111R and the image data of the left eye 111L of a subject who has a tendency to squint.
  • the distance D is small when the subject has no tendency to squint.
  • the distance D is large.
  • the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal when the distance D is equal to or greater than the threshold SH. That is, when the distance D is equal to or greater than the threshold SH, the evaluation unit 218 determines that the subject has a tendency to squint, and outputs evaluation data indicating that the subject has a tendency to squint.
  • the evaluation unit 218 when the distance D is not equal to or greater than the threshold SH, the evaluation unit 218 outputs evaluation data indicating that the subject's visual function is normal. That is, when the distance D is less than the threshold SH, the evaluation unit 218 determines that the subject does not have a tendency to squint, and outputs evaluation data indicating that the subject has no tendency to squint.
  • the threshold value SH is derived statistically or empirically based on data acquired from a plurality of subjects having a tendency to squint, and is stored in the storage unit 220.
  • the threshold value SH is set to a value of 5% to 10% of the diameter of the pupil 112.
  • the threshold value SH may be set to a value of 0.07 [mm] or more and 0.13 [mm] or less, for example.
  • the output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to squint or evaluation data indicating that there is no tendency to squint.
  • the image data of the right eye 111R and the image data of the left eye 111L are combined, and the position of the pupil center 112Cr of the right eye 111R and the pupil of the left eye 111L in the XY plane.
  • a distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of the center 112Cl is matched is calculated. Since the state of the subject's strabismus is evaluated based on the distance D, which is a scalar value, it is possible to reduce the processing load.
  • the indicator 130 for causing the subject to gaze may be displayed at the center of the display screen 101S or may be displayed at the end of the display screen 101S.
  • the influence of the position of the indicator 130 on the display screen 101S on the calculation of the distance D is small.
  • FIG. 20 is a diagram schematically illustrating an example of a result of image processing of the image data of the right eye 111R and the image data of the left eye 111L in the present embodiment.
  • This embodiment is an application example of the second embodiment described above.
  • the position calculation unit 212 calculates a distance Dx that is a component of the distance D in the X-axis direction and a distance Dy that is a component of the distance D in the Y-axis direction.
  • the distance Dx is a distance between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction.
  • the distance Dy is a distance between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L in the Y-axis direction.
  • the evaluation unit 218 can evaluate whether or not the subject has a tendency of esotropia or exotropia based on the distance Dx. Further, the evaluation unit 218 can evaluate whether or not the subject has a tendency of upper strabismus or lower strabismus based on the distance Dy.
  • the distance Dx is equal to or greater than a predetermined threshold value, it is evaluated that the subject has a tendency of esotropia or exotropia.
  • the distance Dy is greater than or equal to a predetermined threshold value, it is evaluated that the subject has a tendency of upper strabismus or lower strabismus.
  • the first relative position data includes time-series data of the relative positions of the pupil center 112Cr of the right eye 111R and the cornea reflection center 113Cr of the right eye 111R at the specified time PT
  • the second relative position data is An example including time-series data of relative positions of the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L at the specified time PT will be described.
  • FIG. 21 is a flowchart showing an example of a perspective inspection method according to the present embodiment.
  • the display control unit 208 causes the display device 101 to display an index 130 for causing the subject to gaze (step S111).
  • the display control unit 208 may display the index 130 at the center of the display screen 101S of the display device 101 or at the end of the display screen 101S. Further, the display control unit 208 may cause the display device 101 to display the indicator 130 that is stationary on the display screen 101S, or may cause the display device 101 to display the indicator 130 that moves on the display screen 101S.
  • the display control unit 208 causes the display device 101 to display the indicator 130 that is stationary and moving on the display screen 101S of the display device 101. The subject is instructed to stare at the index 130 displayed on the display device 101.
  • Detection light is emitted from the light source 103 (step S112).
  • the stereo camera device 102 acquires image data of the right eye 111R and image data of the left eye 111L of the subject irradiated with the detection light.
  • the image data acquisition unit 202 acquires the image data of the right eye 111R and the image data of the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (step S113).
  • the position calculation unit 212 calculates position data of the pupil center 112Cr of the right eye 111R and position data of the corneal reflection center 113Cr of the right eye 111R based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates position data of the pupil center 112Cl of the left eye 111L and position data of the corneal reflection center 113Cl of the left eye 111L based on the image data of the left eye 111L.
  • the position calculation unit 212 Based on the position data of the pupil center 112Cr of the right eye 111R in the XY plane and the position data of the cornea reflection center 113Cr of the right eye 111R in the XY plane, the position calculation unit 212 and the pupil center 112Cr of the right eye 111R in the XY plane and the right eye First relative position data indicating a relative position of the 111R cornea reflection center 113Cr is calculated.
  • the position calculation unit 212 determines the pupil center 112Cl of the left eye 111L in the XY plane based on the position data of the pupil center 112Cl of the left eye 111L in the XY plane and the position data of the corneal reflection center 113Cl of the left eye 111L.
  • Second relative position data indicating the relative position of the left eye 111L with the corneal reflection center 113Cl is calculated (step S114).
  • the position calculation unit 212 uses, as the first relative position data, the distance Rx between the pupil center 112Cr of the right eye 111R and the cornea reflection center 113Cr of the right eye 111R in the X-axis direction, and the Y-axis direction. A distance Ry between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R is calculated.
  • the position calculation unit 212 uses the distance Lx between the pupil center 112Cl of the left eye 111L and the corneal reflection center 113Cl of the left eye 111L in the X-axis direction and the pupil of the left eye 111L in the Y-axis direction as the second relative position data. A distance Ly between the center 112Cl and the corneal reflection center 113Cl of the left eye 111L is calculated.
  • the image processing unit 206 images the right eye 111R so that the position of the pupil center 112Cr of the right eye 111R matches the position of the pupil center 112Cl of the left eye 111L in the XY plane.
  • the data and the image data of the left eye 111L are synthesized.
  • the position calculation unit 212 matches the corneal reflection center 113Cr of the right eye 111R and the cornea of the left eye 111L when the position of the pupil center 112Cr of the right eye 111R and the position of the pupil center 112Cl of the left eye 111L coincide with each other in the XY plane.
  • a distance D from the reflection center 113Cl is calculated (step S115).
  • the storage unit 220 stores the distance D calculated in step S115 (step S116).
  • the visual function testing device 100 performs the processing from step S111 to step S116 at a prescribed cycle.
  • the processing from step S111 to step S116 is performed 50 times per second.
  • the processes from step S111 to step S116 are performed for a predetermined time PT.
  • the specified time PT is 30 seconds.
  • the specified time PT is arbitrarily determined.
  • the position calculation unit 212 determines the position of the pupil center 112Cr of the right eye 111R and the left eye 111L in the XY plane based on the first relative position data and the second relative position data at the specified time PT.
  • Time-series data of the distance D between the corneal reflection center 113Cr of the right eye 111R and the corneal reflection center 113Cl of the left eye 111L when the position of the pupil center 112Cl is made coincident is calculated at a specified period.
  • the time-series data of the calculated distance D is sequentially stored in the storage unit 220.
  • the evaluation unit 218 determines whether or not the elapsed time after the processing from step S111 to step S116 has started exceeds the specified time PT (step S117).
  • step S117 When it is determined in step S117 that the elapsed time does not exceed the specified time PT (step S117: No), the process returns to step S111, and the processes from step S111 to step S116 are performed.
  • step S117 determines the specified time based on the data indicating the plurality of distances D stored in the storage unit 220.
  • the average value of the distance D in PT is calculated.
  • the distance D is calculated 50 times per second, and the specified time PT is 30 seconds. Therefore, the storage unit 220 stores data indicating the distance D of 1500 samples.
  • the evaluation unit 218 calculates an average value of the distance D of 1500 samples.
  • Evaluation unit 218 outputs the evaluation data of the visual function of the subject based on the average value of the distance D at the specified time PT. In the present embodiment, the evaluation unit 218 determines whether or not the average value of the distance D at the specified time PT is greater than or equal to a predetermined threshold value SK (step S118).
  • step S118 when it is determined that the average value of the distance D at the specified time PT is equal to or greater than the threshold SK (step S118: Yes), the evaluation unit 218 provides evaluation data indicating that the visual function of the subject is abnormal. Output (step S119). That is, the evaluation unit 218 determines that the subject has a tendency to squint, and outputs evaluation data indicating that the subject has a tendency to squint.
  • step S118 when it is determined that the average value of the distance D at the specified time PT is not equal to or greater than the threshold SK (step S118: No), the evaluation unit 218 stores data indicating a plurality of distances D stored in the storage unit 220. Based on the above, the average value of the distance D in each of the divided times DT obtained by dividing the prescribed time PT into a plurality of times is calculated.
  • the division time DT is shorter than the specified time PT. When the specified time PT is 30 seconds, the division time DT is set to, for example, 1 second to 10 seconds.
  • the evaluation unit 218 outputs the evaluation data of the visual function of the subject based on the average value of the distance D in each of the plurality of divided times DT. In the present embodiment, the evaluation unit 218 determines whether or not the average value of the distance D in the division time DT is greater than or equal to a predetermined threshold SK (step S120).
  • step S120 when it is determined that the average value of the distance D in the division time DT is equal to or greater than the threshold value SK (step S120: Yes), the evaluation unit 218 generates evaluation data indicating that the visual function of the subject is abnormal. Output (step S121). In the present embodiment, the evaluation unit 218 determines that the subject has a tendency for intermittent strabismus, and outputs evaluation data indicating that the subject has a tendency for intermittent strabismus.
  • Intermittent strabismus refers to strabismus that has two states when strabismus appears and when it does not appear.
  • step S120 when it is determined that the average value of the distance D in the division time DT is not equal to or greater than the threshold SK (step S120: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal. (Step S122). That is, the evaluation unit 218 determines that the subject does not have a strabismus tendency and outputs evaluation data indicating that the subject does not have a strabismus tendency.
  • FIG. 22, FIG. 23, and FIG. 24 are diagrams schematically illustrating an example of the indicator 130 displayed on the display device 101 according to the present embodiment.
  • the display control unit 208 causes the display device 101 to display the indicator 130 that is stationary and moving on the display screen 101 ⁇ / b> S of the display device 101.
  • the display control unit 208 causes the display device 101 to display the indicator 130 that is stationary at the first position PJ1 of the display screen 101S of the display device 101.
  • the first position PJ1 is defined at the ends of the display screen 101S in the + X direction and the + Y direction.
  • the first position PJ1 can be set at an arbitrary position on the display screen 101S.
  • the display control unit 208 stops the indicator 130 for 11 seconds at the first position PJ1 of the display screen 101S.
  • the display control unit 208 moves the index 130 on the display screen 101S after the index 130 is stopped for 11 seconds at the first position PJ1. As shown in FIG. 23, the display control unit 208 moves the indicator 130 from the first position PJ1 to the second position PJ2 on the display screen 101S.
  • the second position PJ2 is defined at the ends of the display screen 101S in the ⁇ X direction and the ⁇ Y direction. The second position PJ2 can be determined at an arbitrary position on the display screen 101S.
  • the movement trajectory of the indicator 130 from the first position PJ1 to the second position PJ2 may be a straight line, a curved line, or a zigzag including a plurality of bent portions.
  • the display control unit 208 moves the indicator 130 from the first position PJ1 to the second position PJ2 in 6 seconds.
  • the display control unit 208 causes the display device 101 to display the indicator 130 that is stationary at the second position PJ2 of the display screen 101S of the display device 101.
  • the display control unit 208 causes the indicator 130 to stand still for 13 seconds at the second position PJ2 of the display screen 101S.
  • the division time DT is determined based on the moving condition of the index 130 on the display screen 101S.
  • the division time DT is determined based on the stationary time during which the indicator 130 is stationary on the display screen 101S.
  • the division time DT is determined based on the movement time during which the indicator 130 is moving on the display screen 101S.
  • the first divided time DT1 is determined based on the stationary time in which the index 130 is stationary at the first position PJ1 of the display screen 101S.
  • the second division time DT2 is determined based on the movement time for the indicator 130 to move from the first position PJ1 to the second position PJ2 on the display screen 101S.
  • the third divided time DT3 is determined based on the stationary time during which the index 130 is stationary at the second position PJ2 of the display screen 101S.
  • 25, 26, and 27 are diagrams schematically illustrating an example of time-series data of the distance D stored in the storage unit 220 according to the present embodiment.
  • the evaluation unit 218 has a tendency to squint on the subject based on the average value of the distance D at the specified time PT. Outputs evaluation data indicating that there is no data.
  • the evaluation unit 218 has a tendency of squinting on the subject based on the average value of the distance D at the specified time PT. Outputs evaluation data indicating that it exists.
  • the subject tends to have intermittent strabismus. There is a high possibility.
  • the distance D is greater than or equal to the threshold SK during a part of the specified time PT and the distance D is less than the threshold SK during a part of the specified time PT, the average value of the distance D at the specified time PT is less than the threshold SK. There is a possibility.
  • the subject when the distance D is equal to or greater than the threshold value SK during a part of the specified time PT and the distance D is less than the threshold value SK during a part of the specified time PT, the subject has a tendency of intermittent strabismus.
  • the average value of the distance D at the specified time PT may be less than the threshold value SK. If the average value of the distance D at the specified time PT becomes less than the threshold value SK even though the subject has a tendency for intermittent strabismus, the evaluation unit 218 gives erroneous evaluation data indicating that the subject has no strabismus tendency. There is a possibility of output.
  • the evaluation unit 218 divides the specified time PT into a plurality of times. An average value of the distance D in each of the division times DT is calculated. As shown in FIG. 27, in the present embodiment, the specified time PT is divided into a first divided time DT1, a second divided time DT2, and a third divided time DT3. By calculating the average value of the distance D in each of the plurality of divided times DT, the evaluation unit 218 can determine whether or not there is a period in which the distance D is equal to or greater than the threshold SK in the specified time DT.
  • the division time DT including the first division time DT1, the second division time DT2, and the third division time DT3 is determined based on the movement condition of the index 130 on the display screen 101S.
  • the first divided time DT1 is set to a stationary time (11 seconds in the present embodiment) in which the index 130 is stationary at the first position PJ1 of the display screen 101S.
  • the second division time DT2 is set to a movement time (6 seconds in the present embodiment) during which the indicator 130 moves from the first position PJ1 to the second position PJ2 on the display screen 101S.
  • the third division time DT3 is set to a stationary time (13 seconds in the present embodiment) in which the index 130 is stationary at the second position PJ2 of the display screen 101S.
  • the position calculation unit 212 uses the time-series data of the distance D at the specified time PT based on the image data of the right eye 111R and the image data of the left eye 111L when the subject 130 shows the stationary and moving index 130 on the display screen 101S. Is calculated.
  • the evaluation unit 218 outputs the evaluation data of the visual function of the subject based on the time series data of the distance D when the subject 130 is shown the stationary and moving index 130 on the display screen 101S. In the present embodiment, the evaluation unit 218 outputs evaluation data indicating the relationship between the moving state of the subject's line of sight when the subject 130 shows the stationary and moving index 130 on the display screen 101S and the state of the subject's strabismus. .
  • the intermittent strabismus may not appear.
  • the index 130 moving on the display screen 101S is shown to a subject who has a tendency for intermittent strabismus, the possibility that the intermittent strabismus appears remarkably is high.
  • the second divided time DT2 is set to a movement period in which the indicator 130 moves on the display screen 101S. Therefore, by calculating the average value of the distance D in the second divided time DT2, it is possible to accurately inspect whether or not the subject has a tendency of intermittent strabismus.
  • the evaluation unit 218 outputs the evaluation data of the visual function of the subject based on the change amount of the distance D at the specified time PT.
  • the evaluation unit 218 has no tendency to squint the subject. Can be output.
  • the evaluation unit 218 has a tendency for the subject to be oblique. Can be output.
  • the evaluation unit 218 can output evaluation data indicating that the subject has a tendency of intermittent strabismus.
  • the evaluation data is output based on the average value of the distance D.
  • Other statistical values representing a plurality of distances D, such as a median value, a mode value, and a quartile, may be used instead of the average value of distances D.
  • time series data of the difference ⁇ x between the distance Rx and the distance Lx at the specified time PT and time series data of the difference ⁇ y between the distance Ry and the distance Ly at the specified time PT may be calculated.
  • the evaluation unit 218 can output the evaluation data of the visual function of the subject based on at least one of the change amount of the difference ⁇ x in the specified time PT and the change amount of the difference ⁇ y in the specified time PT. That is, in the present embodiment, the evaluation unit 218 changes the relative position between the pupil center 112Cr of the right eye 111R and the corneal reflection center 113Cr of the right eye 111R and the pupil center 112Cl of the left eye 111L and the left at the specified time PT. Evaluation data of the visual function of the subject can be output based on at least one of the amount of change in the relative position of the eye 111L with the corneal reflection center 113Cl.
  • the division time DT is determined based on the movement condition of the index 130 on the display screen 101S.
  • the division time DT may be arbitrarily determined without being based on the movement condition of the indicator 130.
  • the division time DT may be determined based on the change amount of the distance D in the acquired time series data of the distance D.
  • FIG. 28 is a diagram schematically illustrating an example of a method for determining the division time DT according to the present embodiment.
  • the image processing unit 206 performs a low-pass filter process on the time series data of the distance D.
  • time series data of the distance D in which the influence of noise is reduced is generated.
  • the time constant in the low-pass filter process is preferably determined based on the second divided time DT2.
  • the image processing unit 206 performs first-order differentiation on the time series data of the distance D indicated by the line Lb, and extracts a first-order differential value as indicated by the line Lc in FIG. Thereby, the time point at which the distance D changes rapidly is extracted.
  • the division time DT is determined between the time when the distance D increases rapidly and the time when the distance D decreases rapidly.
  • the index 130 is displayed at each of a plurality of positions on the display screen 101S of the display device 101, and the cornea is based on the image data of the eye 111 of the subject when each of the plurality of indices 130 is shown to the subject.
  • the position data of the reflected image 113 is calculated and the evaluation data of the visual function of the subject is output based on the relative positions of the plurality of indices 130 and the relative positions of the plurality of corneal reflection images 113 will be described.
  • FIG. 29 is a flowchart showing an example of a perspective inspection method according to the present embodiment.
  • the display control unit 208 causes the display device 101 to display an index 130 for causing the subject to gaze (step S131).
  • the display control unit 208 displays the indicator 130 at each of a plurality of positions on the display screen 101S of the display device 101. The subject is instructed to stare at the index 130 displayed on the display device 101.
  • Detection light is emitted from the light source 103 (step S132).
  • the stereo camera device 102 acquires image data of the right eye 111R and image data of the left eye 111L of the subject irradiated with the detection light.
  • the image data acquisition unit 202 acquires the image data of the right eye 111R and the image data of the left eye 111L of the subject irradiated with the detection light from the stereo camera device 102 (step S133).
  • the position calculation unit 212 calculates position data of the corneal reflection center 113Cr of the right eye 111R in the XY plane when the index 130 displayed on the display screen 101S is shown based on the image data of the right eye 111R. Further, the position calculation unit 212 calculates position data of the corneal reflection center 113Cl of the left eye 111L in the XY plane when the index 130 displayed on the display screen 101S is shown based on the image data of the left eye 111L. (Step S134).
  • the visual function testing device 100 performs the processing from step S131 to step S134 at a prescribed cycle.
  • the processing from step S131 to step S134 is performed until the display of the indicator 130 at each of the plurality of positions on the display screen 101S is completed.
  • the position calculation unit 212 is based on the image data of the right eye 111R, and the right in the XY plane when each of the plurality of indices 130 displayed at the plurality of positions on the display screen 101S is shown.
  • the position data of the corneal reflection center 113Cr of the eye 111R is calculated.
  • the position calculation unit 212 based on the image data of the left eye 111L, reflects the corneal reflection of the left eye 111L in the XY plane when each of the plurality of indices 130 displayed at a plurality of positions on the display screen 101S is shown.
  • the position data of the center 113Cl is calculated.
  • the evaluation unit 218 determines whether or not the display of the indicator 130 at each of the plurality of positions on the display screen 101S has ended (step S135).
  • step S135 When it is determined in step S135 that the display of the indicator 130 has not ended (step S135: No), the process returns to step S131, and the processes from step S131 to step S134 are performed.
  • step S135 When it is determined in step S135 that the display of the indicator 130 has ended (step S135: Yes), the evaluation unit 218 includes the first graphic CA1 defined by the relative positions of the plurality of indicators 130 and the plurality of indicators Each of the second figure CA2 defined by the relative position of the corneal reflection center 113C is calculated (step S136).
  • FIG. 30 is a diagram schematically illustrating an example of the indicator 130 displayed on the display device 101 according to the present embodiment.
  • the display control unit 208 displays the indicator 130 at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S of the display device 101.
  • the display device 101 sequentially displays the indicator 130 at each of the position PD1, the position PD2, the position PD3, the position PD4, and the position PD5 of the display screen 101S.
  • the indicator 130 displayed at the position PD2 and the indicator 130 displayed at the position PD3 are adjacent to each other.
  • the indicator 130 displayed at the position PD3 is adjacent to the indicator 130 displayed at the position PD4.
  • the indicator 130 displayed at the position PD4 and the indicator 130 displayed at the position PD5 are adjacent to each other.
  • the indicator 130 displayed at the position PD5 and the indicator 130 displayed at the position PD2 are adjacent to each other.
  • the relative position of the index 130 displayed at the position PD2, the index 130 displayed at the position PD3, the index 130 displayed at the position PD4, and the index 130 displayed at the position PD5, A square is defined as the first graphic CA1.
  • the distance Va between the position PD2 and the position PD3, the distance Vb between the position PD3 and the position PD4, the distance Vc between the position PD4 and the position PD5, and the distance Vd between the position PD5 and the position PD2 are equal.
  • the display control unit 208 displays the indicator 130 at the position PD1, then moves the indicator 130 from the position PD1 to the position PD2, moves the indicator 130 moved to the position PD2 to the position PD3, and moves to the position PD3.
  • the index 130 moved to the position PD4 is moved, and the index 130 moved to the position PD4 is moved to the position PD5. That is, in the present embodiment, the display control unit 208 displays the indicator 130 on the display screen 101S so that the indicator 130 at the position PD1 sequentially passes through the position PD2, the position PD3, and the position PD4 and moves to the position PD5. .
  • the display control unit 208 causes the display device 101 to display the indicator 130 so that the indicator 130 stops and moves on the display screen 101S.
  • the display control unit 208 stops the indicator 130 at the position PD1 for 2 seconds, and moves the indicator 130 from the position PD1 to the position PD2 in 1 second.
  • the display control unit 208 stops the index 130 at each of the positions PD2, PD3, and PD4 for 2 seconds, moves the index 130 from the position PD2 to the position PD3 in 1 second, and then moves from the position PD3 to the position PD4 for 1 second.
  • the index 130 is moved by moving the position 130 from position PD4 to position PD5 in one second.
  • the display control unit 208 stops the display of the index 130 after the index 130 is stopped at the position PD5 for 2 seconds.
  • the indicator 130 starts to move from the position PD1, and is continuously displayed on the display device 101 until reaching the position PD5 via the position PD2, the position PD3, and the position PD4.
  • the indicator 130 may be displayed intermittently on the display device 101. For example, in at least a part of the movement section from position PD1 to position PD2, the movement section from position PD2 to position PD3, the movement section from position PD3 to position PD4, and the movement section from position PD4 to position PD5, index 130 May not be displayed on the display device 101.
  • the indicator 130 may be displayed sequentially at each of the plurality of positions PD1, position PD2, position PD3, position PD4, and position PD5 on the display screen 101S.
  • FIG. 31 is a diagram schematically illustrating an example of image data acquired by the image data acquisition unit 202 according to the present embodiment.
  • FIG. 31 schematically shows image data of the corneal reflection image 113 when the index 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S is shown to the subject.
  • the position calculation unit 212 is within the XY plane when the index 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S is shown to the subject. Position data of the corneal reflection center 113Cr of the right eye 111R is calculated. In addition, the position calculation unit 212 uses the image data of the left eye 111L to display the XY when the index 130 displayed on each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S is shown to the subject. Position data of the corneal reflection center 113Cl of the left eye 111L in the plane is calculated.
  • the cornea reflection image 113 is formed at the position PE1.
  • the cornea reflection image 113 is formed at the position PE2.
  • the cornea reflection image 113 is formed at the position PE3.
  • the cornea reflection image 113 is formed at the position PE4.
  • the cornea reflection image 113 is formed at the position PE5.
  • the cornea reflection image 113 formed at the position PE2 and the cornea reflection image 113 formed at the position PE3 are adjacent to each other.
  • the cornea reflection image 113 formed at the position PE3 and the cornea reflection image 113 formed at the position PE4 are adjacent to each other.
  • the cornea reflection image 113 formed at the position PE4 and the cornea reflection image 113 formed at the position PE5 are adjacent to each other.
  • the cornea reflection image 113 formed at the position PE5 and the cornea reflection image 113 formed at the position PE2 are adjacent to each other.
  • the corneal reflection center 113C formed at the position PE2 the corneal reflection center 113C formed at the position PE3, the corneal reflection center 113C formed at the position PE4, and the corneal reflection formed at the position PE5.
  • a quadrangle is defined as the second graphic CA2 by the relative position with respect to the center 113C.
  • the position PE2 and the position PE3 are separated by a distance Wa.
  • the position PE3 and the position PE4 are separated by a distance Wb.
  • the position PE4 and the position PE5 are separated by a distance Wc.
  • the position PE5 and the position PE2 are separated by a distance Wd.
  • the evaluation unit 218 determines whether or not the first graphic CA1 and the second graphic CA2 are similar (step S137).
  • the evaluation unit 218 determines the similarity between the first graphic CA1 and the second graphic CA2 by comparing the distance between the adjacent corneal reflection images 113 and the threshold value SQ. In the present embodiment, the evaluation unit 218 determines whether or not the expressions (3A) and (3B) are established.
  • FIG. 31 is a diagram schematically showing an example of image data of the eye 111 of the subject who does not have a tendency to squint.
  • FIG. 32 is a diagram schematically illustrating an example of image data of the eye 111 of the subject who has a tendency to squint in the left eye 111L.
  • the corneal reflection center 113C formed at the position PE2 when the subject does not tend to be squint, the corneal reflection center 113C formed at the position PE2, the corneal reflection center 113C formed at the position PE3, and the corneal reflection center 113C formed at the position PE4.
  • the second figure CA2 defined by the corneal reflection center 113C formed at the position PE5 is substantially square. That is, when the subject has no tendency to squint, the first graphic CA1 and the second graphic CA2 are similar. In this case, equations (3A) and (3B) are established.
  • the corneal reflection center 113C formed at the position PE2 when the subject's left eye 111L has a perspective tendency, the corneal reflection center 113C formed at the position PE2, the corneal reflection center 113C formed at the position PE3, and the position PE4 are formed.
  • the second figure CA2 defined by the corneal reflection center 113C formed and the corneal reflection center 113C formed at the position PE5 does not become a square. That is, when the subject has a tendency to squint, the first graphic CA1 and the second graphic CA2 are not similar. In this case, at least one of the expressions (3A) and (3B) is not established.
  • the evaluation unit 218 determines that the first graphic CA1 and the second graphic CA2 are similar. When at least one of the expressions (3A) and (3B) is not satisfied, the evaluation unit 218 determines that the first graphic CA1 and the second graphic CA2 are not similar.
  • step S137 when it is determined that the first graphic CA1 and the second graphic CA2 are not similar (step S137: No), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is abnormal.
  • Step S138 That is, when at least one of the expressions (3A) and (3B) is not established, the evaluation unit 218 determines that the subject has a tendency to squint, and outputs evaluation data indicating that the subject has a tendency to squint. .
  • step S137 When it is determined in step S137 that the first graphic CA1 and the second graphic CA2 are similar (step S137: Yes), the evaluation unit 218 outputs evaluation data indicating that the visual function of the subject is not abnormal (step S137). S139). That is, when both the formulas (3A) and (3B) are established, the evaluation unit 218 determines that the subject does not have a tendency to squint, and outputs evaluation data indicating that the subject has no tendency to squint.
  • the threshold value SQ is statistically or empirically derived based on data acquired from a plurality of subjects having a tendency to strabismus and stored in the storage unit 220.
  • the first graphic CA1 and the second graphic CA2 for the right eye 111R are compared. Further, the first graphic CA1 and the second graphic CA2 for the left eye 111L are compared. In the present embodiment, it is possible to evaluate whether or not the right eye 111R has a perspective tendency and whether or not the left eye 111L has a perspective tendency.
  • the output control unit 222 causes the display device 101 or the output device 50 to output evaluation data indicating that there is a tendency to squint or evaluation data indicating that there is no tendency to squint.
  • the visual function of the subject is determined based on the relative positions of the plurality of indices 130 and the relative positions of the plurality of cornea reflection images 113 when the plurality of indices are shown. Evaluation data is output. Also in this embodiment, even if the relative position of the light source 103 and the subject fluctuates in the perspective inspection, a decrease in inspection accuracy is suppressed.
  • Evaluation data is output. Thereby, the load of the arithmetic processing in a perspective inspection is reduced, and the inspection accuracy is improved.
  • the first graphic CA1 and the second graphic CA2 for the right eye 111R are compared. Further, the first graphic CA1 and the second graphic CA2 for the left eye 111L are compared. Therefore, it is possible to accurately inspect whether the right eye 111R or the left eye 111L has a perspective tendency.
  • step S300 since it is possible to accurately inspect which of the right eye 111R and the left eye 111L has a perspective tendency, it is possible to suppress a decrease in the detection accuracy of the line-of-sight detection process (step S300).
  • the perspective inspection process (step S100) when it is determined that the left eye 111L has a perspective tendency and the right eye 111R does not have a perspective tendency, in the line-of-sight detection process (step S300). Can suppress a decrease in the detection accuracy of the gaze detection process by performing the gaze detection process on the right eye 111R.
  • This embodiment is an application example of the above-described sixth embodiment.
  • 33, 34, 35, and 36 are diagrams each showing an example of image data of the eye 111 of the subject according to the present embodiment.
  • 33, FIG. 34, FIG. 35, and FIG. 36 show the indicators 130 displayed at each of the plurality of positions PD1, PD2, PD3, PD4, and PD5 on the display screen 101S described in the sixth embodiment.
  • FIG. 33 is image data showing the position of the corneal reflection center 113Cr of the right eye 111R and the position of the corneal reflection center 113Cl of the left eye 111L when the display screen 101S is shown to a subject who does not tend to have strabismus.
  • the position data of the corneal reflection center 113C is acquired, for example, 50 times per second.
  • the position PE1r of the corneal reflection center 113Cr of the right eye 111R when the subject views the index 130 displayed at the position PD1 of the display screen 101S is determined based on the density of the corneal reflection center 113Cr.
  • the positions PE2r, PE3r, PE4r, and PE5r of the corneal reflection center 113Cr of the right eye 111R when the subject views the index 130 displayed on each of the positions PD2, PD3, PD4, and PD5 on the display screen 101S are the corneas. It is determined based on the density of the reflection center 113Cr.
  • the position PE11 of the corneal reflection center 113Cl of the left eye 111L when the subject views the index 130 displayed at the position PD1 on the display screen 101S is determined based on the density of the corneal reflection center 113Cl.
  • the positions PE2l, PE3l, PE4l, and PE5l of the corneal reflection center 113Cl of the left eye 111L when the subject looks at the indicators 130 displayed on the positions PD2, PD3, PD4, and PD5 of the display screen 101S are the corneas. It is determined based on the density of the reflection center 113Cl.
  • FIG. 34 shows image data obtained by combining the positions PE1r, PE2r, PE3r, PE4r, and PE5r for the right eye 111R of the subject who does not have a tendency to squint and the positions PE1l, PE2l, PE3l, PE4l, and PE5l for the left eye 111L. is there.
  • FIG. 34 shows image data when the position of the pupil center 112Cr of the right eye 111R and the position of the pupil center 112Cl of the left eye 111L are matched in the XY plane.
  • the position PE1r and the position PE1l substantially coincide with each other for subjects who do not have a tendency to squint.
  • position PE2r and position PE2l substantially match, position PE3r and position PE3l substantially match, and position PE4r and position PE4l substantially match.
  • position PE5r and the position PE5l substantially coincide with each other.
  • FIG. 35 is image data showing the position of the corneal reflection center 113Cr of the right eye 111R and the position of the corneal reflection center 113Cl of the left eye 111L when the display screen 101S is shown to a subject who has a tendency to squint.
  • FIG. 36 shows image data obtained by combining the positions PE1r, PE2r, PE3r, PE4r, and PE5r for the right eye 111R of the subject who has a tendency to squint and the positions PE1l, PE2l, PE3l, PE4l, and PE5l for the left eye 111L. is there. As shown in FIG. 36, for a subject having a tendency to squint, for example, the position PE5r and the position PE5l are shifted.
  • This embodiment is an application example of the above-described sixth embodiment or seventh embodiment.
  • the first vector Yd from one of the adjacent indicators 130 to the other on the display screen 101S and the first vector Yd from one of the adjacent corneal reflection images 113 formed when the indicators 130 are viewed.
  • An example will be described in which the two vectors Ye are compared to determine the similarity between the first graphic CA1 and the second graphic CA2.
  • FIG. 37, 38, and 39 are schematic views for explaining an example of the perspective inspection method according to the present embodiment.
  • FIG. 37 shows a first vector Yd from one of the adjacent indicators 130 on the display screen 101S to the other.
  • FIG. 38 shows a second vector Ye from one of the adjacent corneal reflection centers 113 ⁇ / b> C formed when a subject who does not have a tendency to squint looks at the index 130 shown in FIG. 37.
  • FIG. 39 shows a second vector Ye from one of the adjacent corneal reflection centers 113 ⁇ / b> C formed when a subject who has a tendency to squint looks at the index 130 shown in FIG. 37.
  • the indicator 130 is sequentially displayed at the position PDa and the position PDb of the display screen 101S.
  • the indicator 130 displayed at the position PDa and the indicator 130 displayed at the position PDb are adjacent to each other.
  • a first vector Yd from the index 130 displayed at the position PDa to the index 130 displayed at the position PDb is defined.
  • the corneal reflection center 113C is formed at the position PEa.
  • the corneal reflection center 113C is formed at the position PEb.
  • the corneal reflection center 113C formed at the position PEa and the corneal reflection center 113C formed at the position PEb are adjacent to each other.
  • a second vector Ye from the corneal reflection center 113C formed at the position PEa to the corneal reflection center 113C formed at the position PEb is defined.
  • the second vector Ye for a subject who does not have a tendency to squint is substantially parallel to the first vector Yd.
  • the corneal reflection center 113C is formed at the position PEc.
  • the corneal reflection center 113C is formed at the position PEd.
  • the corneal reflection center 113C formed at the position PEc and the corneal reflection center 113C formed at the position PEd are adjacent to each other.
  • a second vector Ye from the corneal reflection center 113C formed at the position PEc to the corneal reflection center 113C formed at the position PEd is defined.
  • the second vector Ye for a subject with a tendency to squint is highly likely to be non-parallel to the first vector Yd.
  • the evaluation unit 218 can determine the degree of similarity between the first graphic CA1 and the second graphic CA2 by comparing the first vector Yd and the second vector Ye.
  • the evaluation unit 218 determines whether the angle ⁇ formed by the first vector Yd and the second vector Ye is equal to or greater than a threshold value. When it is determined that the angle ⁇ is equal to or greater than the threshold, the evaluation unit 218 determines that the subject has a tendency to squint, and outputs evaluation data indicating that the subject has a tendency to squint. On the other hand, when it is determined that the angle ⁇ is not greater than or equal to the threshold value, the evaluation unit 218 determines that the subject does not have a tendency to squint, and outputs evaluation data indicating that the subject has no tendency to squint.
  • the threshold value for the angle ⁇ is statistically or empirically derived based on data acquired from a plurality of subjects having a tendency to strabismus and stored in the storage unit 220.
  • the threshold for the angle ⁇ is set to, for example, 15 [°] or more and 45 [°] or less. In the present embodiment, the threshold value for the angle ⁇ is set to 20 [°].
  • the visual function of the subject may be evaluated based on the first vector Yd and the second vector Ye. According to the present embodiment, it is possible to suppress the load of the arithmetic processing for the squint inspection.
  • the first graphic CA1 may not be a square, a rectangle, a parallelogram, or a trapezoid.
  • the first graphic CA1 may not be a quadrangle, may be a triangle, may be a pentagon or more polygon, a circle, or an ellipse.
  • This embodiment is suitable for conducting a test of a subject's visual function.
  • Corneal curvature radius, 110 Center of corneal curvature, 111 ... Eye, 111L ... Left eye, 111R ... Right eye, 112 ... Pupil, 112L ... Pupil, 112R ... Pupil, 112C ... Pupil Center, 112Cl ... pupil center, 112Cr ... pupil center, 113 ... cornea reflection image, 113L ... cornea reflection image 113R ... Cornea reflection image, 113C ... Corneal reflection center, 113Cl ... Corneal reflection center, 113Cr ... Corneal reflection center, 121 ... Corneal reflection center, 122 ... Corneal reflection center, 123 ... Straight line, 124 ...
  • Corneal reflection center 126 ... Distance, 130 ... index, 131 ... straight line, 132 ... straight line, 165 ... gaze point, 166 ... gaze point, 173 ... straight line, 177 ... gaze, 178 ... gaze, 202 ... image data acquisition unit, 204 ... input data acquisition unit, 206 ... Image processing unit 208 ... Display control unit 210 ... Light source control unit 211 ... Camera control unit 212 ... Position calculation unit 214 ... Center of curvature calculation unit 216 ... Gaze detection unit 218 ... Evaluation unit 220 ... Storage unit , 222 ... output control unit, 302 ... input / output unit, 402 ... display device drive unit, 404A ...

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

視機能検査装置は、光源から射出された検出光が照射される被験者の右眼の画像データ及び左眼の画像データを取得する画像データ取得部と、右眼の画像データに基づいて、右眼の瞳孔と角膜反射像との相対位置を示す第1相対位置データを算出し、左眼の画像データに基づいて、左眼の瞳孔と角膜反射像との相対位置を示す第2相対位置データを算出する位置算出部と、第1相対位置データと第2相対位置データとに基づいて、被験者の視機能の評価データを出力する評価部と、を備える。

Description

視機能検査装置、視機能検査方法、及びコンピュータプログラム
 本発明は、視機能検査装置、視機能検査方法、及びコンピュータプログラムに関する。
 眼位検査又は屈折検査のような視機能検査において視機能検査装置が使用される。視機能検査装置は、斜視又は弱視のような視機能の異常を検査する。眼位検査方法の一つとしてヒルシュベルグ(Hirschberg)法が知られている。ヒルシュベルグ法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像の位置を検出して、被験者の眼位を検査する方法である。
特表2015-525597号公報
 ヒルシュベルグ法に基づいて眼位検査する場合、光源と被験者との相対位置が変動すると、検査精度が低下する可能性がある。光源と被験者との相対位置の変動を抑制するために、例えば被験者の頭部を固定する必要が生じる。光源と被験者との相対位置が変動しても、検査精度の低下を抑制できる技術が要望される。
 本発明の態様は、光源と被験者との相対位置が変動しても、視機能の検査精度の低下を抑制することを目的とする。
 本発明の態様に従えば、光源から射出された検出光が照射される被験者の右眼の画像データ及び左眼の画像データを取得する画像データ取得部と、前記右眼の画像データに基づいて、前記右眼の瞳孔と角膜反射像との相対位置を示す第1相対位置データを算出し、前記左眼の画像データに基づいて、前記左眼の瞳孔と角膜反射像との相対位置を示す第2相対位置データを算出する位置算出部と、前記第1相対位置データと前記第2相対位置データとに基づいて、前記被験者の視機能の評価データを出力する評価部と、を備える視機能検査装置が提供される。
 本発明の態様によれば、光源と被験者との相対位置が変動しても、視機能の検査精度の低下を抑制することができる。
図1は、第1実施形態に係る視機能検査装置の一例を模式的に示す斜視図である。 図2は、第1実施形態に係る表示装置とステレオカメラ装置と光源と被験者の眼との位置関係を模式的に示す図である。 図3は、第1実施形態に係る視機能検査装置のハードウェア構成の一例を示す図である。 図4は、第1実施形態に係る視機能検査装置の一例を示す機能ブロック図である。 図5は、第1実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図6は、第1実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図7は、第1実施形態に係る視機能検査方法の一例を示すフローチャートである。 図8は、第1実施形態に係る斜視検査方法の一例を示すフローチャートである。 図9は、第1実施形態に係る検出光が照射された被験者の一例を模式的に示す図である。 図10は、斜視の傾向がない被験者の眼の画像データの一例を模式的に示す図である。 図11は、斜視の傾向がない被験者が表示装置の表示画面の中心に表示されている指標を見つめているときの視線を模式的に示す図である。 図12は、斜視の傾向がある被験者の眼の画像データの一例を模式的に示す図である。 図13は、斜視の傾向がある被験者が表示装置の表示画面の中心に表示されている指標を見つめているときの視線を模式的に示す図である。 図14は、第1実施形態に係るキャリブレーション処理の一例を説明するための模式図である。 図15は、第1実施形態に係るキャリブレーション処理の一例を示すフローチャートである。 図16は、第1実施形態に係る視線検出処理の一例を説明するための模式図である。 図17は、第1実施形態に係る視線検出処理の一例を示すフローチャートである。 図18は、第2実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。 図19は、第2実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。 図20は、第3実施形態における右眼の画像データと左眼の画像データとを画像処理した結果の一例を模式的に示す図である。 図21は、第4実施形態に係る斜視検査方法の一例を示すフローチャートである。 図22は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。 図23は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。 図24は、第4実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。 図25は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。 図26は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。 図27は、第4実施形態に係る記憶部に記憶されている距離の時系列データの一例を模式的に示す図である。 図28は、第5実施形態に係る分割時間を決定する方法の一例を模式的に示す図である。 図29は、第6実施形態に係る斜視検査方法の一例を示すフローチャートである。 図30は、第6実施形態に係る表示装置に表示される指標の一例を模式的に示す図である。 図31は、斜視の傾向がない被験者の眼の画像データの一例を模式的に示す図である。 図32は、斜視の傾向がある被験者の眼の画像データの一例を模式的に示す図である。 図33は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。 図34は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。 図35は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。 図36は、第7実施形態に係る被験者の眼の画像データの一例を示す図である。 図37は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。 図38は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。 図39は、第8実施形態に係る斜視検査方法の一例を説明するための模式図である。
 以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
 以下の説明においては、3次元のグローバル座標系を設定して各部の位置関係について説明する。所定面内のX軸と平行な方向をX軸方向とし、X軸と直交する所定面内のY軸と平行な方向をY軸方向とし、X軸及びY軸のそれぞれと直交するZ軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
第1実施形態.
 第1実施形態について説明する。図1は、本実施形態に係る視機能検査装置100の一例を模式的に示す斜視図である。視機能検査装置100は、被験者の視機能の異常を検査する。視機能の異常は、斜視又は弱視を含む。以下の説明においては、視機能検査装置100により被験者の斜視が検査される例について説明する。
[視機能検査装置の概要]
 図1に示すように、視機能検査装置100は、表示装置101と、ステレオカメラ装置102と、光源103とを備える。
 表示装置101は、液晶ディスプレイ(LCD:liquid crystal display)又は有機ELディスプレイ(OELD:organic electroluminescence display)のようなフラットパネルディスプレイを含む。
 本実施形態において、表示装置101の表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
 ステレオカメラ装置102は、被験者を撮影して被験者の画像データを取得する。ステレオカメラ装置102は、異なる位置に配置された第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも-X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、近赤外光を受光可能な撮像素子とを有する。
 光源103は、検出光を射出する。光源103は、異なる位置に配置された第1光源103A及び第2光源103Bを含む。光源103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも-X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
 図2は、本実施形態に係る表示装置101とステレオカメラ装置102と光源103と被験者の眼111との位置関係を模式的に示す図である。被験者の眼111は、被験者の右眼111R及び左眼111Lを含む。
 光源103は、検出光である赤外光を射出して、被験者の眼111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼111に照射されたときに第2カメラ102Bで眼111を撮影し、第2光源103Bから射出された検出光が眼111に照射されたときに第1カメラ102Aで眼111を撮影する。
 第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼111に照射されたときに、眼111の画像データを取得する。
 眼111に検出光が照射されると、検出光の一部は瞳孔112で反射する。瞳孔112で反射した光は、ステレオカメラ装置102に入射する。また、眼111に検出光が照射されると、角膜反射像113が眼111に形成される。角膜反射像113は、角膜表面における光源103の反射像である。角膜反射像113からの光は、ステレオカメラ装置102に入射する。
 第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
[ハードウェア構成]
 図3は、本実施形態に係る視機能検査装置100のハードウェア構成の一例を示す図である。図3に示すように、視機能検査装置100は、表示装置101と、ステレオカメラ装置102と、光源103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。コンピュータプログラム20Cが記憶装置20Bに記憶されている。
 コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。
 演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)のような不揮発性メモリ又はRAM(random access memory)のような揮発性メモリを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
 駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び光源103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
 出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。音声出力装置70は、スピーカを含み、例えば被験者に注意を促すための音声を出力する。
 本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視機能検査装置100がタブレット型パーソナルコンピュータを含む場合、タブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
 図4は、本実施形態に係る視機能検査装置100の一例を示す機能ブロック図である。図4に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
 コンピュータシステム20は、視機能検査装置100を制御する。コンピュータシステム20は、画像データ取得部202と、入力データ取得部204と、画像処理部206と、表示制御部208と、光源制御部210と、カメラ制御部211と、位置算出部212と、曲率中心算出部214と、視線検出部216と、評価部218と、記憶部220と、出力制御部222とを有する。コンピュータシステム20の機能は、演算処理装置20A、記憶装置20B、及び記憶装置20Bに記憶されているコンピュータプログラム20Cによって発揮される。
 画像データ取得部202は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の画像データを、入出力部302を介してステレオカメラ装置102から取得する。画像データは、ディジタルデータである。被験者の画像データは、被験者の眼111の画像データを含む。被験者の眼111の画像データは、被験者の右眼111Rの画像データ及び左眼111Lの画像データを含む。ステレオカメラ装置102は、光源103から射出された検出光が照射される被験者の眼111を撮影する。画像データ取得部202は、光源103から射出された検出光が照射される被験者の眼111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
 入力データ取得部204は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
 画像処理部206は、画像データ取得部202で取得された画像データを画像処理する。
 表示制御部208は、特定の表示データを表示装置101に表示させる。本実施形態において、表示制御部208は、表示データとして、被験者に注視させるための指標130を表示装置101に表示させる。指標130は、光点でもよいし、イラストレーションでもよい。表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させることができる。また、表示制御部208は、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させることができる。
 光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部210は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。また、光源制御部210は、第1光源103Aから射出される検出光の光量、及び第2光源103Bから射出される検出光の光量を制御する。
 カメラ制御部211は、第1カメラ入出力部404A及び第2カメラ入出力部404Bを制御して、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102の作動状態を制御する。
 位置算出部212は、画像データ取得部202で取得された眼111の画像データに基づいて、瞳孔112の位置データを算出する。また、位置算出部212は、画像データ取得部202で取得された眼111の画像データに基づいて、角膜反射像113の位置データを算出する。位置算出部212は、表示装置101に表示された指標130を被験者に見せたときの眼111の画像データに基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを算出する。
 位置算出部212は、被験者の右眼111R及び左眼111Lのそれぞれについて、瞳孔112の位置データ及び角膜反射像113の位置データを算出する。位置算出部212は、右眼111Rの画像データに基づいて、右眼111Rの瞳孔112Rと右眼111Rの角膜反射像113Rとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、左眼111Lの瞳孔112Lと左眼111Lの角膜反射像113Lとの相対位置を示す第2相対位置データを算出する。
 本実施形態において、位置算出部212は、瞳孔112の位置データとして、XY平面内における瞳孔中心112Cの位置データを算出する。また、位置算出部212は、角膜反射像113の位置データとして、XY平面内における角膜反射中心113Cの位置データを算出する。瞳孔中心112Cとは、瞳孔112の中心をいう。角膜反射中心113Cとは、角膜反射像113の中心をいう。
 曲率中心算出部214は、画像データ取得部202で取得された眼111の画像データに基づいて、眼111の角膜曲率中心110の位置データを算出する。
 視線検出部216は、画像データ取得部202で取得された眼111の画像データに基づいて、被験者の視線を検出する。被験者の視線は、被験者が見ている視線方向を示す視線ベクトルを含む。視線検出部216は、表示装置101に表示された指標130を被験者に見せたときの眼111の画像データに基づいて、被験者の視線を検出する。視線検出部216は、眼111の画像データから取得された瞳孔中心112Cの位置データ及び角膜曲率中心110の位置データに基づいて、被験者の右眼111Rの視線ベクトル及び左眼111Lの視線ベクトルのそれぞれを検出する。
 また、視線検出部216は、検出した視線ベクトルに基づいて、被験者の注視点の位置データを検出する。本実施形態において、被験者の注視点は、被験者の視線ベクトルと表示装置101の表示画面101Sとの交点を含む。本実施形態において、注視点の位置データとは、グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。
 評価部218は、位置算出部212で算出された位置データに基づいて、被験者の視機能の評価データを出力する。被験者の視機能の評価データは、被験者の斜視の評価データを含む。斜視の評価データは、被験者が斜視であるか否かを示す評価データ、及び斜視の角度を示す評価データを含む。
 記憶部220は、コンピュータプログラム20C及び各種のデータを記憶する。
 出力制御部222は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部222は、少なくとも被験者の視機能の評価データを表示装置101又は出力装置50に表示させる。
[視線検出の原理]
 次に、本実施形態に係る視線検出の原理について説明する。以下の説明では、主に曲率中心算出部214の処理の概要について説明する。曲率中心算出部214は、眼111の画像データに基づいて、眼111の角膜曲率中心110の位置データを算出する。
 図5及び図6は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図5は、1つの光源103Cで眼111が照明される例を示す。図6は、第1光源103A及び第2光源103Bで眼111が照明される例を示す。
 まず、図5に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。図5において、瞳孔中心112Cは、眼111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼111が1つの光源103Cで照明されたときの角膜反射中心を示す。
 角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。
 角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部214は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部220に記憶されている。
 次に、図6に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。
 角膜反射中心121は、第2カメラ102Bで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。
 角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定されるローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の3次元のローカル座標系を3次元のグローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部220に記憶されている。
 曲率中心算出部214は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、グローバル座標系における位置データに変換する。曲率中心算出部214は、グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、グローバル座標系における角膜反射中心124の位置データを算出する。
 角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部214は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部220に記憶されている。
 図6を参照して説明したように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
 角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
 このように、本実施形態においては、グローバル座標系における角膜曲率中心110の位置データ、瞳孔中心112Cの位置データ、及び角膜反射中心113Cの位置データが算出される。
 視線検出部216は、瞳孔中心112Cの位置データ及び角膜曲率中心110の位置データに基づいて、被験者の視線ベクトルを検出することができる。
[視機能検査方法]
 次に、本実施形態に係る視機能検査方法の一例について説明する。図7は、本実施形態に係る視機能検査方法の一例を示すフローチャートである。本実施形態においては、被験者の斜視を検査する斜視検査処理(ステップS100)と、角膜曲率中心110の位置データの算出処理及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS200)と、視線検出処理(ステップS300)が実施される。
(斜視検査処理)
 斜視検査処理について説明する。本実施形態において、視機能検査装置100は、光源103から射出された検出光を被験者に照射し、検出光が照射された被験者の眼111をステレオカメラ装置102で撮影し、角膜表面における光源103の反射像である角膜反射像113の位置データに基づいて、被験者の斜視の状態を検査する。
 図8は、本実施形態に係る斜視検査処理(ステップS100)の一例を示すフローチャートである。図8に示すように、斜視検査処理(ステップS100)は、被験者に注視させる指標130を表示装置101に表示させる工程(ステップS101)と、光源103から検出光を射出して被験者に照射する工程(ステップS102)と、光源103から射出された検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データを取得する工程(ステップS103)と、右眼111Rの画像データに基づいて右眼111Rの瞳孔112Rと右眼111Rの角膜反射像113Rとの相対位置を示す第1相対位置データを算出し、左眼111Lの画像データに基づいて左眼111Lの瞳孔112Lと左眼111Lの角膜反射像113Lとの相対位置を示す第2相対位置データを算出する工程(ステップS104)と、第1相対位置データと第2相対位置データとに基づいて、被験者の視機能を評価して評価データを出力する工程(ステップS105,ステップS106,ステップS107)とを含む。
 表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS101)。表示制御部208は、例えば表示画面101Sの中心に指標130を表示させる。本実施形態において、表示制御部208は、表示画面101Sにおいて静止する指標130を表示装置101に表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。
 光源103から検出光が射出される(ステップS102)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。被験者の眼111の画像データは、第1カメラ102A及び第2カメラ102Bの少なくとも一方によって取得される。本実施形態においては、被験者の眼111の画像データが第1カメラ102Aによって取得される。なお、被験者の眼111の画像データが第2カメラ102Bによって取得されてもよい。なお、第1カメラ102Aで取得された画像データ及び第2カメラ102Bで取得された画像データの両方が使用されてもよい。
 図9は、本実施形態に係る検出光が照射された被験者の一例を模式的に示す図である。図9に示すように、被験者の右眼111R及び左眼111Lのそれぞれに検出光が形成されることにより、右眼111Rに角膜反射像113Rが形成され、左眼111Lに角膜反射像113Lが形成される。
 画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS103)。
 図10は、本実施形態に係る画像データ取得部202に取得された画像データの一例を模式的に示す図である。図10に示すように、画像データは、右眼111Rの瞳孔112Rの画像データ、右眼111Rの角膜反射像113Rの画像データ、左眼111Lの瞳孔112Lの画像データ、及び左眼111Lの角膜反射像113Lの画像データを含む。
 位置算出部212は、右眼111Rの画像データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。
 位置算出部212は、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置を示す第2相対位置データを算出する(ステップS104)。
 図10に示すように、本実施形態において、第1相対位置データは、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryとを含む。第2相対位置データは、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyとを含む。
 評価部218は、距離Rxと距離Lxとの差Δxと、距離Ryと距離Lyとの差Δyとを算出する。
 評価部218は、距離Rxと距離Lxとの差Δxが閾値SHx以上か否かを判定する。また、評価部218は、距離Ryと距離Lyとの差Δyが閾値SHy以上か否かを判定する(ステップS105)。すなわち、評価部218は、(1A)式及び(1B)式が成立するか否かを判定する。
Figure JPOXMLDOC01-appb-M000001
 図10は、斜視の傾向がない被験者の眼111の画像データの一例を模式的に示す図である。図11は、斜視の傾向がない被験者が表示装置101の表示画面101Sの中心に表示されている指標130を見つめているときの視線を模式的に示す図である。図12は、斜視の傾向がある被験者の眼111の画像データの一例を模式的に示す図である。図13は、斜視の傾向がある被験者が表示装置101の表示画面101Sの中心に表示されている指標130を見つめているときの視線を模式的に示す図である。
 図11に示すように、被験者に斜視の傾向がない場合、右眼111Rの視線及び左眼111Lの視線は、指標130に向かう。一方、図13に示すように、被験者に斜視の傾向がある場合、右眼111Rの視線及び左眼111Lの少なくとも一方の視線は、指標130から外れる。図13は、被験者の左眼111Lに斜視の傾向がある状態を示す。図10に示すように、被験者に斜視の傾向がない場合、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyは小さい。一方、図12に示すように、被験者に斜視の傾向がある場合、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyの少なくとも一方は大きい。
 ステップS105において、差Δxが閾値SHx以上である又は差Δyが閾値SHy以上であると判定されたとき(ステップS105:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS106)。すなわち、(1A)式及び(1B)式の少なくとも一方が成立しないとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。
 ステップS105において、差Δxが閾値SHx以上でない及び差Δyが閾値SHy以上でないと判定されたとき(ステップS105:No)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS107)。すなわち、(1A)式及び(1B)式の両方が成立するとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。
 なお、閾値SHx及び閾値SHyは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。本実施形態において、閾値SHx及び閾値SHyは、瞳孔112の直径の3[%]以上7[%]以下の値に定められる。閾値SHx及び閾値SHyは、例えば、0.07[mm]以上0.13[mm]以下の値に定められてもよい。
 本実施形態においては、差Δxが閾値SHx以上である場合、被験者に内斜視又は外斜視の傾向があると評価される。差Δyが閾値SHy以上である場合、被験者に上斜視又は下斜視の傾向があると評価される。
 出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。
 以上により、斜視検査処理が終了する。
(キャリブレーション処理)
 次に、キャリブレーション処理について説明する。本実施形態においては、斜視検査処理(ステップS100)が実施された後、角膜曲率中心110の位置データの算出処理、及び瞳孔中心112Cと角膜曲率中心110との距離データの算出処理を含むキャリブレーション処理(ステップS200)が実施される。
 図14は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理は、角膜曲率中心110の位置データを算出すること、及び瞳孔中心112Cと角膜曲率中心110との距離126を算出することを含む。
 表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる。指標130は、グローバル座標系において規定される。本実施形態において、指標130は、例えば表示装置101の表示画面101Sの中心に表示される。なお、指標130は、表示画面101Sの端部に表示されてもよい。
 直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、指標130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部214は、仮想光源103Vの位置データと、指標130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
 図15は、本実施形態に係るキャリブレーション処理(ステップS200)の一例を示すフローチャートである。出力制御部222は、表示装置101の表示画面101Sに指標130を表示させる(ステップS201)。被験者は、指標130を注視することができる。
 次に、光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち一方の光源から検出光を射出させる(ステップS202)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼111を撮影する(ステップS203)。
 次に、光源制御部210は、光源駆動部406を制御して、第1光源103A及び第2光源103Bのうち他方の光源から検出光を射出させる(ステップS204)。ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bのうち検出光を射出した光源からの距離が長い方のカメラで被験者の眼111を撮影する(ステップS205)。
 瞳孔112は、暗い部分としてステレオカメラ装置102に検出され、角膜反射像113は、明るい部分としてステレオカメラ装置102に検出される。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。位置算出部212は、取得される画像の輝度に基づいて、瞳孔112の位置データ及び角膜反射像113の位置データを検出することができる。また、位置算出部212は、瞳孔112の画像データに基づいて、瞳孔中心112Cの位置データを算出する。また、位置算出部212は、角膜反射像113の画像データに基づいて、角膜反射中心113Cの位置データを算出する(ステップS206)。
 ステレオカメラ装置102によって検出された位置データは、ローカル座標系で規定される位置データである。位置算出部212は、記憶部220に記憶されている変換パラメータを使用して、ステレオカメラ装置102で検出された瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを座標変換して、グローバル座標系で規定される瞳孔中心112Cの位置データ及び角膜反射中心113Cの位置データを算出する(ステップS207)。
 曲率中心算出部214は、グローバル座標系で規定される角膜反射中心113Cと仮想光源103Vとを結ぶ直線131を算出する(ステップS208)。
 次に、曲率中心算出部214は、表示装置101の表示画面101Sに表示される指標130と瞳孔中心112Cとを結ぶ直線132を算出する(ステップS209)。曲率中心算出部214は、ステップS208で算出した直線131とステップS209で算出した直線132との交点を求め、この交点を角膜曲率中心110とする(ステップS210)。
 曲率中心算出部214は、瞳孔中心112Cと角膜曲率中心110との距離126を算出して、記憶部220に記憶する(ステップS211)。記憶された距離は、ステップS300の視線検出処理において、角膜曲率中心110を算出するために使用される。
(視線検出処理)
 次に、視線検出処理について説明する。視線検出処理は、キャリブレーション処理の後に実施される。視線検出部216は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。
 図16は、本実施形態に係る視線検出処理の一例を説明するための模式図である。視線検出処理は、キャリブレーション処理(ステップS200)で求めた瞳孔中心112Cと角膜曲率中心110との距離126を用いて、角膜曲率中心110の位置を補正すること、及び補正された角膜曲率中心110の位置データを使って注視点を算出することを含む。
 図16において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心110から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心110から求めた注視点を示す。
 瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。
 直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。
 距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。
 角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。
 角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
 図17は、本実施形態に係る視線検出処理(ステップS300)の一例を示すフローチャートである。なお、図17に示すステップS301からステップS307までの処理は、図15に示したステップS202からステップS208までの処理と同様であるため説明を省略する。
 曲率中心算出部214は、ステップS307で算出した直線173上であって、瞳孔中心112Cからの距離がキャリブレーション処理によって求めた距離126と等しい位置を角膜曲率中心110Hとして算出する(ステップS308)。
 視線検出部216は、瞳孔中心112Cと角膜曲率中心110Hとを結ぶ視線ベクトルを算出する(ステップS309)。視線ベクトルは、被験者が見ている視線方向を示す。視線検出部216は、視線ベクトルと表示装置101の表示画面101Sとの交点の位置データを算出する(ステップS310)。視線ベクトルと表示装置101の表示画面101Sとの交点の位置データが、グローバル座標系で規定される表示画面101Sにおける被験者の注視点の位置データである。
 視線検出部216は、グローバル座標系で規定される注視点の位置データを、二次元座標系で規定される表示装置101の表示画面101Sにおける位置データに変換する(ステップS311)。これにより、被験者が見つめる表示装置101の表示画面101S上の注視点の位置データが算出される。
[作用及び効果]
 以上説明したように、本実施形態によれば、右眼111Rの画像データ及び左眼111Lの画像データが取得され、右眼111Rの画像データに基づいて、右眼111Rの瞳孔中心112Crと角膜反射中心113Crとの相対位置を示す第1相対位置データが算出され、左眼111Lの画像データに基づいて、左眼111Lの瞳孔中心112Clと角膜反射中心113Clとの相対位置を示す第2相対位置データが算出される。第1相対位置データ及び第2相対位置データが算出された後、第1相対位置データと第2相対位置データとに基づいて、被験者の視機能の評価データが出力される。右眼111Rについての第1相対位置データ及び左眼111Lについての第2相対位置データに基づいて、被験者の斜視の状態が評価されるため、斜視の検査において、光源103と被験者との相対位置が変動しても、検査精度の低下が抑制される。すなわち、斜視の検査において、被験者の頭部が動いても、右眼111Rと左眼111Lとは相対位置を維持したまま移動する。被験者の頭部が動いても、右眼111Rと左眼111Lとの相対位置が維持されるため、それら右眼111Rについての第1相対位置データ及び左眼111Lについての第2相対位置データに基づいて、被験者の斜視の状態を精度良く検査することができる。
 また、本実施形態においては、第1相対位置データとして、距離Rx及び距離Ryが算出され、第2相対位置データとして、距離Lx及び距離Lyが算出される。評価部218は、距離Rxと距離Lxとの差Δx及び距離Ryと距離Lyとの差Δyに基づいて、評価データを出力する。これにより、被験者に内斜視又は外斜視の傾向があるか否か、及び被験者に上斜視又は下斜視の傾向があるか否かを評価することができる。例えば、差Δxが閾値SHx以上である場合、被験者に内斜視又は外斜視の傾向があると評価することができる。差Δyが閾値SHy以上である場合、被験者に上斜視又は下斜視の傾向があると評価することができる。
第2実施形態.
 第2実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 本実施形態においては、斜視検出処理(ステップS100)において、第1相対位置データ及び第2相対位置データに基づいて、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dが算出される例について説明する。
 図18は、本実施形態における右眼111Rの画像データと左眼111Lの画像データとを画像処理した結果の一例を模式的に示す図である。画像処理部206は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とが一致するように、画像データ取得部202で取得された右眼111Rの画像データと左眼111Lの画像データとを合成する。
 位置算出部212は、画像処理部206で合成された画像データにおいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、画像処理部206で合成された画像データにおいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。
 また、位置算出部212は、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryとを算出する。また、位置算出部212は、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyとを算出する。
 図18に示すように、位置算出部212は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dを算出する。すなわち、位置算出部212は、(2)式の演算を実施する。
Figure JPOXMLDOC01-appb-M000002
 評価部218は、距離Dに基づいて、被験者の視機能の評価データを出力する。
 図18は、斜視の傾向がない被験者の右眼111Rの画像データと左眼111Lの画像データとを合成した画像データの一例を模式的に示す図である。図19は、斜視の傾向がある被験者の右眼111Rの画像データと左眼111Lの画像データとを合成した画像データの一例を模式的に示す図である。図18に示すように、被験者に斜視の傾向がない場合、距離Dは小さい。一方、図19に示すように、被験者に斜視の傾向がある場合、距離Dは大きい。
 本実施形態において、評価部218は、距離Dが閾値SH以上であるとき、被験者の視機能が異常であることを示す評価データを出力する。すなわち、距離Dが閾値SH以上であるとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。
 一方、評価部218は、距離Dが閾値SH以上でないとき、被験者の視機能が正常であることを示す評価データを出力する。すなわち、距離Dが閾値SH未満であるとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。
 なお、閾値SHは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。本実施形態において、閾値SHは、瞳孔112の直径の5[%]以上10[%]以下の値に定められる。閾値SHは、例えば、0.07[mm]以上0.13[mm]以下の値に定められてもよい。
 出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。
 以上説明したように、本実施形態によれば、右眼111Rの画像データと左眼111Lの画像データとが合成され、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dが算出される。スカラー値である距離Dに基づいて、被験者の斜視の状態が評価されるため、演算処理の負担を軽減することができる。
 本実施形態においては、被験者に注視させるための指標130は、表示画面101Sの中心に表示されてもよいし、表示画面101Sの端部に表示されてもよい。表示画面101Sにおける指標130の位置が距離Dの算出に及ぼす影響は小さい。
第3実施形態.
 第3実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 図20は、本実施形態における右眼111Rの画像データと左眼111Lの画像データとを画像処理した結果の一例を模式的に示す図である。本実施形態は、上述の第2実施形態の応用例である。
 図20に示すように、本実施形態において、位置算出部212は、距離DのX軸方向の成分である距離Dxと、距離DのY軸方向の成分である距離Dyとを算出する。距離Dxは、X軸方向における右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離である。距離Dyは、Y軸方向における右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離である。
 評価部218は、距離Dxに基づいて、被験者に内斜視又は外斜視の傾向があるか否かを評価することができる。また、評価部218は、距離Dyに基づいて、被験者に上斜視又は下斜視の傾向があるか否かを評価することができる。
 例えば、距離Dxが予め定められている閾値以上である場合、被験者に内斜視又は外斜視の傾向があると評価される。距離Dyが予め定められている閾値以上である場合、被験者に上斜視又は下斜視の傾向があると評価される。
第4実施形態.
 第4実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 本実施形態においては、第1相対位置データが、規定時間PTにおける右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置の時系列データを含み、第2相対位置データが、規定時間PTにおける左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置の時系列データを含む例について説明する。
 図21は、本実施形態に係る斜視検査方法の一例を示すフローチャートである。表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS111)。表示制御部208は、指標130を表示装置101の表示画面101Sの中心に表示させてもよいし表示画面101Sの端部に表示させてもよい。また、表示制御部208は、表示画面101Sにおいて静止する指標130を表示装置101に表示させてもよいし、表示画面101Sにおいて移動する指標130を表示装置101に表示させてもよい。
 本実施形態において、表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。
 光源103から検出光が射出される(ステップS112)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。
 画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS113)。
 位置算出部212は、右眼111Rの画像データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データを算出する。
 位置算出部212は、XY平面内における右眼111Rの瞳孔中心112Crの位置データ及び右眼111Rの角膜反射中心113Crの位置データに基づいて、XY平面内における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置を示す第1相対位置データを算出する。また、位置算出部212は、XY平面内における左眼111Lの瞳孔中心112Clの位置データ及び左眼111Lの角膜反射中心113Clの位置データに基づいて、XY平面内における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置を示す第2相対位置データを算出する(ステップS114)。
 上述の実施形態と同様、位置算出部212は、第1相対位置データとして、X軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Rxと、Y軸方向における右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの距離Ryを算出する。また、位置算出部212は、第2相対位置データとして、X軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lxと、Y軸方向における左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの距離Lyを算出する。
 また、上述の実施形態と同様、画像処理部206は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とが一致するように、右眼111Rの画像データと左眼111Lの画像データとを合成する。位置算出部212は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dを算出する(ステップS115)。
 記憶部220は、ステップS115で算出された距離Dを記憶する(ステップS116)。
 視機能検査装置100は、ステップS111からステップS116までの処理を規定の周期で実施する。本実施形態において、ステップS111からステップS116までの処理は、1秒間に50回実施される。ステップS111からステップS116までの処理は、予め定められた規定時間PTだけ実施される。本実施形態において、規定時間PTは30秒である。なお、規定時間PTは任意に定められる。
 すなわち、本実施形態において、位置算出部212は、規定時間PTにおける第1相対位置データ及び第2相対位置データに基づいて、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの右眼111Rの角膜反射中心113Crと左眼111Lの角膜反射中心113Clとの距離Dの時系列データを規定の周期で算出する。算出された距離Dの時系列データは、記憶部220に順次記憶される。
 評価部218は、ステップS111からステップS116までの処理が開始されてからの経過時間が規定時間PTを超えたか否かを判定する(ステップS117)。
 ステップS117において、経過時間が規定時間PTを超えていないと判定されたとき(ステップS117:No)、ステップS111に戻り、ステップS111からステップS116までの処理が実施される。
 ステップS117において、経過時間が規定時間PTを超えたと判定されたとき(ステップS117:Yes)、評価部218は、記憶部220に記憶されている複数の距離Dを示すデータに基づいて、規定時間PTにおける距離Dの平均値を算出する。本実施形態においては、距離Dが1秒間に50回算出され、規定時間PTは30秒である。したがって、記憶部220には、1500のサンプル数の距離Dを示すデータが記憶されている。評価部218は、1500のサンプル数の距離Dの平均値を算出する。
 評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、規定時間PTにおける距離Dの平均値が予め定められている閾値SK以上か否かを判定する(ステップS118)。
 ステップS118において、規定時間PTにおける距離Dの平均値が閾値SK以上であると判定されたとき(ステップS118:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS119)。すなわち、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。
 ステップS118において、規定時間PTにおける距離Dの平均値が閾値SK以上でないと判定されたとき(ステップS118:No)、評価部218は、記憶部220に記憶されている複数の距離Dを示すデータに基づいて、規定時間PTを複数に分割した分割時間DTのそれぞれにおける距離Dの平均値を算出する。分割時間DTは、規定時間PTよりも短い。規定時間PTが30秒である場合、分割時間DTは、例えば1秒以上10秒以下に定められる。
 評価部218は、複数の分割時間DTのそれぞれにおける距離Dの平均値に基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、分割時間DTにおける距離Dの平均値が予め定められている閾値SK以上か否かを判定する(ステップS120)。
 ステップS120において、分割時間DTにおける距離Dの平均値が閾値SK以上であると判定されたとき(ステップS120:Yes)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS121)。本実施形態において、評価部218は、被験者に間欠性斜視の傾向があると判定し、被験者に間欠性斜視の傾向があることを示す評価データを出力する。
 間欠性斜視とは、斜視が出現するとき及び出現しないときの2つの状態を併せ持つ斜視をいう。
 ステップS120において、分割時間DTにおける距離Dの平均値が閾値SK以上でないと判定されたとき(ステップS120:No)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS122)。すなわち、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。
 図22、図23、及び図24は、本実施形態に係る表示装置101に表示される指標130の一例を模式的に示す図である。上述したように、本実施形態において、表示制御部208は、表示装置101の表示画面101Sにおいて静止及び移動する指標130を表示装置101に表示させる。
 図22に示すように、表示制御部208は、表示装置101の表示画面101Sの第1位置PJ1において静止する指標130を表示装置101に表示させる。本実施形態において、第1位置PJ1は、表示画面101Sの+X方向及び+Y方向の端部に規定される。なお、第1位置PJ1は、表示画面101Sの任意の位置に定めることができる。
 本実施形態において、表示制御部208は、表示画面101Sの第1位置PJ1において指標130を11秒間静止させる。
 第1位置PJ1において指標130を11秒間静止させた後、表示制御部208は、表示画面101Sにおいて指標130を移動させる。図23に示すように、表示制御部208は、表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130を移動させる。本実施形態において、第2位置PJ2は、表示画面101Sの-X方向及び-Y方向の端部に規定される。なお、第2位置PJ2は、表示画面101Sの任意の位置に定めることができる。
 第1位置PJ1から第2位置PJ2までの指標130の移動軌跡は、直線状でもよいし、曲線状でもよいし、複数の曲折部を含むジグザグ(zigzag)状でもよい。
 本実施形態において、表示制御部208は、指標130を第1位置PJ1から第2位置PJ2まで6秒間で移動させる。
 図24に示すように、表示制御部208は、表示装置101の表示画面101Sの第2位置PJ2において静止する指標130を表示装置101に表示させる。
 本実施形態において、表示制御部208は、表示画面101Sの第2位置PJ2において指標130を13秒間静止させる。
 分割時間DTは、表示画面101Sにおける指標130の移動条件に基づいて決定される。分割時間DTは、表示画面101Sにおいて指標130が静止している静止時間に基づいて決定される。また、分割時間DTは、表示画面101Sにおいて指標130が移動している移動時間に基づいて決定される。
 本実施形態においては、表示画面101Sの第1位置PJ1において指標130が静止している静止時間に基づいて、第1分割時間DT1が決定される。表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130が移動する移動時間に基づいて、第2分割時間DT2が決定される。表示画面101Sの第2位置PJ2において指標130が静止している静止時間に基づいて、第3分割時間DT3が決定される。
 図25、図26、及び図27は、本実施形態に係る記憶部220に記憶されている距離Dの時系列データの一例を模式的に示す図である。
 図25に示すように、規定時間PTの全期間において距離Dが閾値SK未満であるとき、被験者に斜視の傾向はない可能性が高い。規定時間PTの全期間において距離Dが閾値SK未満であるとき、規定時間PTにおける距離Dの平均値は閾値SK未満となる。図25に示すような距離Dの時系列データが取得された場合、ステップS122で説明したように、評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者に斜視の傾向がないことを示す評価データを出力する。
 図26に示すように、規定時間PTの全期間において距離Dが閾値SK以上であるとき、被験者に斜視の傾向がある可能性が高い。規定時間PTの全期間において距離Dが閾値SK以上であるとき、規定時間PTにおける距離Dの平均値は閾値SK以上となる。図26に示すような距離Dの時系列データが取得された場合、ステップS119で説明したように、評価部218は、規定時間PTにおける距離Dの平均値に基づいて、被験者に斜視の傾向があることを示す評価データを出力する。
 図27に示すように、規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、被験者に間欠性斜視の傾向がある可能性が高い。規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、規定時間PTにおける距離Dの平均値が閾値SK未満になる可能性がある。すなわち、規定時間PTの一部の期間において距離Dが閾値SK以上となり、規定時間PTの一部の期間において距離Dが閾値SK未満となる場合、被験者に間欠性斜視の傾向があるにもかかわらず、規定時間PTにおける距離Dの平均値は閾値SK未満になる可能性がある。被験者に間欠性斜視の傾向があるにもかかわらず、規定時間PTにおける距離Dの平均値が閾値SK未満になると、評価部218は、被験者に斜視の傾向がないことを示す誤った評価データを出力してしまう可能性がある。
 本実施形態においては、ステップS118及びステップS120で説明したように、規定時間PTにおける距離Dの平均値が閾値SK以上でないと判定されたとき、評価部218は、規定時間PTを複数に分割した分割時間DTのそれぞれにおける距離Dの平均値を算出する。図27に示すように、本実施形態において、規定時間PTは、第1分割時間DT1、第2分割時間DT2、及び第3分割時間DT3に分割される。複数の分割時間DTのそれぞれにおける距離Dの平均値が算出されることにより、評価部218は、規定時間DTにおいて距離Dが閾値SK以上になる期間があるか否かを判定することができる。これにより、規定時間PTにおける距離Dの平均値が閾値SK未満である場合において、被験者に間欠性斜視の傾向がある場合、被験者に斜視の傾向がないことを示す誤った評価データが出力されてしまうことが抑制される。
 上述のように、本実施形態において、第1分割時間DT1、第2分割時間DT2、及び第3分割時間DT3を含む分割時間DTは、表示画面101Sにおける指標130の移動条件に基づいて決定される。本実施形態において、第1分割時間DT1は、表示画面101Sの第1位置PJ1において指標130が静止している静止時間(本実施形態においては11秒間)に設定される。第2分割時間DT2は、表示画面101Sの第1位置PJ1から第2位置PJ2まで指標130が移動する移動時間(本実施形態においては6秒間)に設定される。第3分割時間DT3は、表示画面101Sの第2位置PJ2において指標130が静止している静止時間(本実施形態においては13秒間)に設定される。
 位置算出部212は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの右眼111Rの画像データ及び左眼111Lの画像データに基づいて、規定時間PTにおける距離Dの時系列データを算出する。評価部218は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの距離Dの時系列データに基づいて、被験者の視機能の評価データを出力する。本実施形態において、評価部218は、表示画面101Sにおいて静止及び移動する指標130を被験者に見せたときの被験者の視線の移動状態と、被験者の斜視の状態との関係を示す評価データを出力する。
 表示画面101Sにおいて静止している指標130を間欠性斜視の傾向がある被験者に見せたとき、間欠性斜視は出現しない可能性がある。一方、表示画面101Sにおいて移動する指標130を間欠性斜視の傾向がある被験者に見せたとき、間欠性斜視が顕著に出現する可能性が高い。
 本実施形態においては、第2分割時間DT2は、表示画面101Sにおいて指標130が移動する移動期間に設定されている。したがって、第2分割時間DT2における距離Dの平均値が算出されることにより、被験者に間欠性斜視の傾向があるか否かを精度良く検査することができる。
 以上説明したように、本実施形態によれば、評価部218は、規定時間PTにおける距離Dの変化量に基づいて、被験者の視機能の評価データを出力する。図25に示したように、規定時間PTにおける距離Dの変化量が小さく、規定時間PTにおける距離Dの平均値が閾値SKよりも小さい場合、評価部218は、被験者に斜視の傾向がないことを示す評価データを出力することができる。図26に示したように、規定時間PTにおける距離Dの変化量が小さく、規定時間PTにおける距離Dの平均値が閾値SKよりも大きい場合、評価部218は、被験者に斜視の傾向があることを示す評価データを出力することができる。図27に示したように、規定時間PTにおける距離Dの変化量が大きい場合、評価部218は、被験者に間欠性斜視の傾向があることを示す評価データを出力することができる。
 なお、本実施形態においては、距離Dの平均値に基づいて評価データが出力されることとした。距離Dの平均値に限らず、中央値、最頻値、及び四分位数等、複数の距離Dを代表する他の統計値(代表値)を用いてもよい。
 なお、本実施形態において、規定時間PTにおける距離Rxと距離Lxとの差Δxの時系列データ、及び規定時間PTにおける距離Ryと距離Lyとの差Δyの時系列データが算出されてもよい。評価部218は、規定時間PTにおける差Δxの変化量及び規定時間PTにおける差Δyの変化量の少なくとも一方に基づいて、被験者の視機能の評価データを出力することができる。すなわち、本実施形態において、評価部218は、規定時間PTにおける右眼111Rの瞳孔中心112Crと右眼111Rの角膜反射中心113Crとの相対位置の変化量、及び左眼111Lの瞳孔中心112Clと左眼111Lの角膜反射中心113Clとの相対位置の変化量の少なくとも一方に基づいて、被験者の視機能の評価データを出力することができる。
第5実施形態.
 第5実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 上述の第4実施形態においては、分割時間DTが表示画面101Sにおける指標130の移動条件に基づいて決定されることとした。分割時間DTは、指標130の移動条件に基づかずに任意に決定されてもよい。取得された距離Dの時系列データにおける距離Dの変化量に基づいて、分割時間DTが決定されてもよい。
 図28は、本実施形態に係る分割時間DTを決定する方法の一例を模式的に示す図である。図28のラインLaで示すような、距離Dの時系列データ(生データ)が取得された場合、例えば画像処理部206は、距離Dの時系列データについてローパスフィルタ処理を実施する。これにより、図28のラインLbで示すように、ノイズの影響が低減された距離Dの時系列データが生成される。ローパスフィルタ処理における時定数は、第2分割時間DT2に基づいて定めることが好ましい。
 また、画像処理部206は、ラインLbで示す距離Dの時系列データを1次微分して、図28のラインLcで示すような1次微分値を抽出する。これにより、距離Dが急激に変化する時点が抽出される。距離Dが急激に増加する時点と距離Dが急激に低下する時点との間が分割時間DTに決定される。
第6実施形態.
 第6実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 本実施形態においては、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させ、複数の指標130のそれぞれを被験者に見せたときの被験者の眼111の画像データに基づいて角膜反射像113の位置データを算出し、複数の指標130の相対位置と複数の角膜反射像113の相対位置とに基づいて、被験者の視機能の評価データを出力する例について説明する。
 図29は、本実施形態に係る斜視検査方法の一例を示すフローチャートである。表示制御部208は、被験者に注視させるための指標130を表示装置101に表示させる(ステップS131)。
 本実施形態において、表示制御部208は、表示装置101の表示画面101Sの複数の位置のそれぞれに指標130を表示させる。被験者に対して、表示装置101に表示された指標130を見つめるように指示がなされる。
 光源103から検出光が射出される(ステップS132)。検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データがステレオカメラ装置102によって取得される。
 画像データ取得部202は、検出光が照射された被験者の右眼111Rの画像データ及び左眼111Lの画像データをステレオカメラ装置102から取得する(ステップS133)。
 位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sに表示された指標130を見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sに表示された指標130を見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する(ステップS134)。
 視機能検査装置100は、ステップS131からステップS134までの処理を規定の周期で実施する。ステップS131からステップS134までの処理は、表示画面101Sの複数の位置のそれぞれに指標130が表示されることが終了するまで実施される。
 すなわち、本実施形態において、位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sの複数の位置に表示された複数の指標130のそれぞれを見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sの複数の位置に表示された複数の指標130のそれぞれを見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する。
 評価部218は、表示画面101Sの複数の位置のそれぞれに指標130が表示されることが終了したか否かを判定する(ステップS135)。
 ステップS135において、指標130が表示されることが終了していないと判定されたとき(ステップS135:No)、ステップS131に戻り、ステップS131からステップS134までの処理が実施される。
 ステップS135において、指標130が表示されることが終了したと判定されたとき(ステップS135:Yes)、評価部218は、複数の指標130の相対位置によって規定される第1図形CA1と、複数の角膜反射中心113Cの相対位置によって規定される第2図形CA2とのそれぞれを算出する(ステップS136)。
 図30は、本実施形態に係る表示装置101に表示される指標130の一例を模式的に示す図である。図30に示すように、表示制御部208は、表示装置101の表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに指標130を表示させる。本実施形態において、表示装置101は、表示画面101Sの位置PD1、位置PD2、位置PD3、位置PD4、及び位置PD5のそれぞれに指標130を順次表示させる。
 位置PD2に表示される指標130と位置PD3に表示される指標130とは、隣接する。位置PD3に表示される指標130と位置PD4に表示される指標130とは隣接する。位置PD4に表示される指標130と位置PD5に表示される指標130とは隣接する。位置PD5に表示される指標130と位置PD2に表示される指標130とは隣接する。
 本実施形態においては、位置PD2に表示される指標130と、位置PD3に表示される指標130と、位置PD4に表示される指標130と、位置PD5に表示される指標130との相対位置によって、第1図形CA1として正方形が規定される。位置PD2と位置PD3との距離Vaと、位置PD3と位置PD4との距離Vbと、位置PD4と位置PD5との距離Vcと、位置PD5と位置PD2との距離Vdとは、等しい。
 本実施形態において、表示制御部208は、指標130を位置PD1に表示させた後、位置PD1から位置PD2まで移動させ、位置PD2に移動させた指標130を位置PD3まで移動させ、位置PD3に移動させた指標130を位置PD4まで移動させ、位置PD4に移動させた指標130を位置PD5まで移動させる。すなわち、本実施形態において、表示制御部208は、位置PD1の指標130が位置PD2、位置PD3、及び位置PD4を順次通過して位置PD5まで移動するように、表示画面101Sに指標130を表示させる。
 本実施形態においては、表示制御部208は、表示画面101Sにおいて指標130が静止及び移動するように、指標130を表示装置101に表示させる。本実施形態において、表示制御部208は、指標130を位置PD1において2秒間静止させ、位置PD1から位置PD2まで1秒間で指標130を移動させる。同様に、表示制御部208は、指標130を位置PD2,PD3,PD4のそれぞれにおいて2秒間ずつ静止させ、位置PD2から位置PD3まで1秒間で指標130を移動させ、位置PD3から位置PD4まで1秒間で指標130を移動させ、位置PD4から位置PD5まで1秒間で指標130を移動させる。表示制御部208は、指標130を位置PD5において2秒間静止させた後、指標130の表示を停止する。
 本実施形態においては、指標130は、位置PD1から移動を開始し、位置PD2、位置PD3、及び位置PD4を経由して位置PD5に到達するまで、表示装置101に連続的に表示される。なお、指標130は、表示装置101に間欠的に表示されてもよい。例えば、位置PD1から位置PD2までの移動区間、位置PD2から位置PD3までの移動区間、位置PD3から位置PD4までの移動区間、及び位置PD4から位置PD5までの移動区間の少なくとも一部において、指標130は表示装置101に表示されなくてもよい。指標130は、表示画面101Sの複数の位置PD1、位置PD2、位置PD3、位置PD4、及び位置PD5のそれぞれにおいて順次表示されればよい。
 図31は、本実施形態に係る画像データ取得部202に取得された画像データの一例を模式的に示す図である。図31は、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときの角膜反射像113の画像データを模式的に示す。
 位置算出部212は、右眼111Rの画像データに基づいて、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときのXY平面内における右眼111Rの角膜反射中心113Crの位置データを算出する。また、位置算出部212は、左眼111Lの画像データに基づいて、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときのXY平面内における左眼111Lの角膜反射中心113Clの位置データを算出する。
 図31に示すように、被験者が表示画面101Sの位置PD1に表示された指標130を見たとき、角膜反射像113は、位置PE1に形成される。被験者が表示画面101Sの位置PD2に表示された指標130を見たとき、角膜反射像113は、位置PE2に形成される。被験者が表示画面101Sの位置PD3に表示された指標130を見たとき、角膜反射像113は、位置PE3に形成される。被験者が表示画面101Sの位置PD4に表示された指標130を見たとき、角膜反射像113は、位置PE4に形成される。被験者が表示画面101Sの位置PD5に表示された指標130を見たとき、角膜反射像113は、位置PE5に形成される。
 位置PE2に形成される角膜反射像113と位置PE3に形成される角膜反射像113とは、隣接する。位置PE3に形成される角膜反射像113と位置PE4に形成される角膜反射像113とは隣接する。位置PE4に形成される角膜反射像113と位置PE5に形成される角膜反射像113とは隣接する。位置PE5に形成される角膜反射像113と位置PE2に形成される角膜反射像113とは隣接する。
 本実施形態においては、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとの相対位置によって、第2図形CA2として四角形が規定される。位置PE2と位置PE3とは距離Waだけ離れている。位置PE3と位置PE4とは距離Wbだけ離れている。位置PE4と位置PE5とは距離Wcだけ離れている。位置PE5と位置PE2とは距離Wdだけ離れている。
 評価部218は、第1図形CA1と第2図形CA2とが類似しているか否かを判定する(ステップS137)。
 本実施形態において、評価部218は、隣接する角膜反射像113の距離と閾値SQとを比較して、第1図形CA1と第2図形CA2との類似度を判定する。本実施形態において、評価部218は、(3A)式及び(3B)式が成立するか否かを判定する。
Figure JPOXMLDOC01-appb-M000003
 図31は、斜視の傾向がない被験者の眼111の画像データの一例を模式的に示す図である。図32は、左眼111Lに斜視の傾向がある被験者の眼111の画像データの一例を模式的に示す図である。
 図31に示すように、被験者に斜視の傾向がない場合、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとによって規定される第2図形CA2は、実質的に正方形となる。すなわち、被験者に斜視の傾向がない場合、第1図形CA1と第2図形CA2とは相似する。この場合、(3A)式及び(3B)式が成立する。
 一方、図32に示すように、被験者の左眼111Lに斜視の傾向がある場合、位置PE2に形成される角膜反射中心113Cと、位置PE3に形成される角膜反射中心113Cと、位置PE4に形成される角膜反射中心113Cと、位置PE5に形成される角膜反射中心113Cとによって規定される第2図形CA2は、正方形にならない。すなわち、被験者に斜視の傾向がある場合、第1図形CA1と第2図形CA2とは相似しない。この場合、(3A)式及び(3B)式の少なくとも一方が成立しない。
 このように、本実施形態においては、(3A)式及び(3B)式が成立するとき、評価部218は、第1図形CA1と第2図形CA2とは類似すると判定する。(3A)式及び(3B)式の少なくとも一方が成立しないとき、評価部218は、第1図形CA1と第2図形CA2とは類似しないと判定する。
 ステップS137において、第1図形CA1と第2図形CA2とが類似しないと判定されたとき(ステップS137:No)、評価部218は、被験者の視機能が異常であることを示す評価データを出力する(ステップS138)。すなわち、(3A)式及び(3B)式の少なくとも一方が成立しないとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。
 ステップS137において、第1図形CA1と第2図形CA2とが類似すると判定されたとき(ステップS137:Yes)、評価部218は、被験者の視機能が異常でないことを示す評価データを出力する(ステップS139)。すなわち、(3A)式及び(3B)式の両方が成立するとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。
 なお、閾値SQは、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。
 本実施形態においては、第1図形CA1と右眼111Rについての第2図形CA2とが比較される。また、第1図形CA1と左眼111Lについての第2図形CA2とが比較される。本実施形態においては、右眼111Rに斜視の傾向があるか否か、及び左眼111Lに斜視の傾向があるか否かについて、それぞれ評価することができる。
 出力制御部222は、斜視の傾向があることを示す評価データ又は斜視の傾向がないことを示す評価データを、表示装置101又は出力装置50に出力させる。
 以上により、斜視検査処理が終了する。
 以上説明したように、本実施形態によれば、複数の指標130の相対位置と、それら複数の指標を見せたときの複数の角膜反射像113の相対位置とに基づいて、被験者の視機能の評価データが出力される。本実施形態においても、斜視の検査において、光源103と被験者との相対位置が変動しても、検査精度の低下が抑制される。
 また、本実施形態によれば、複数の指標130の相対位置によって規定される第1図形CA1と複数の角膜反射像113の相対位置によって規定される第2図形CA2との類似度に基づいて、評価データが出力される。これにより、斜視の検査における演算処理の負荷が低減され、検査精度は向上する。
 また、本実施形態においては、第1図形CA1と右眼111Rについての第2図形CA2とが比較される。また、第1図形CA1と左眼111Lについての第2図形CA2とが比較される。そのため、右眼111R及び左眼111Lのどちらに斜視の傾向があるか否かを精度良く検査することができる。
 また、右眼111R及び左眼111Lのどちらに斜視の傾向があるか否かを精度良く検査することができるため、視線検出処理(ステップS300)の検出精度の低下を抑制することができる。例えば、本実施形態に係る斜視検査処理(ステップS100)において、左眼111Lに斜視の傾向があり、右眼111Rには斜視の傾向がないと判定されたとき、視線検出処理(ステップS300)においては、右眼111Rについての視線検出処理を実施することにより、視線検出処理の検出精度の低下を抑制することができる。
第7実施形態.
 第7実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 本実施形態は、上述の第6実施形態の応用例である。図33、図34、図35、及び図36はそれぞれ、本実施形態に係る被験者の眼111の画像データの一例を示す図である。図33、図34、図35、及び図36は、上述の第6実施形態で説明した、表示画面101Sの複数の位置PD1,PD2,PD3,PD4,PD5のそれぞれに表示された指標130を被験者に見せたときの角膜反射中心113Cの位置を示す画像データである。
 図33は、斜視の傾向がない被験者に表示画面101Sを見せたときの右眼111Rの角膜反射中心113Crの位置及び左眼111Lの角膜反射中心113Clの位置を示す画像データである。角膜反射中心113Cの位置データは、例えば1秒間に50回取得される。
 被験者が表示画面101Sの位置PD1に表示された指標130を見たときの右眼111Rの角膜反射中心113Crの位置PE1rは、角膜反射中心113Crの密度に基づいて決定される。同様に、被験者が表示画面101Sの位置PD2,PD3,PD4,PD5のそれぞれに表示された指標130を見たときの右眼111Rの角膜反射中心113Crの位置PE2r,PE3r,PE4r,PE5rは、角膜反射中心113Crの密度に基づいて決定される。
 被験者が表示画面101Sの位置PD1に表示された指標130を見たときの左眼111Lの角膜反射中心113Clの位置PE1lは、角膜反射中心113Clの密度に基づいて決定される。同様に、被験者が表示画面101Sの位置PD2,PD3,PD4,PD5のそれぞれに表示された指標130を見たときの左眼111Lの角膜反射中心113Clの位置PE2l,PE3l,PE4l,PE5lは、角膜反射中心113Clの密度に基づいて決定される。
 図34は、斜視の傾向がない被験者の右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データである。図34は、XY平面内において右眼111Rの瞳孔中心112Crの位置と左眼111Lの瞳孔中心112Clの位置とを一致させたときの画像データである。
 図34において、斜視の傾向がない被験者については、位置PE1rと位置PE1lとは実質的に一致する。同様に、斜視の傾向がない被験者については、位置PE2rと位置PE2lとが実質的に一致し、位置PE3rと位置PE3lとが実質的に一致し、位置PE4rと位置PE4lとが実質的に一致し、位置PE5rと位置PE5lとが実質的に一致する。
 図35は、斜視の傾向がある被験者に表示画面101Sを見せたときの右眼111Rの角膜反射中心113Crの位置及び左眼111Lの角膜反射中心113Clの位置を示す画像データである。図36は、斜視の傾向がある被験者の右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データである。図36に示すように、斜視の傾向がある被験者については、例えば位置PE5rと位置PE5lとがずれる。
 以上説明したように、右眼111Rについての位置PE1r,PE2r,PE3r,PE4r,PE5rと、左眼111Lについての位置PE1l,PE2l,PE3l,PE4l,PE5lとを合成した画像データに基づいて、斜視の傾向を評価することができる。
第8実施形態.
 第8実施形態について説明する。以下の説明において、上述の実施形態と同一又は同等の構成要素については同一の符号を付し、その説明を簡略又は省略する。
 本実施形態は、上述の第6実施形態又は第7実施形態の応用例である。本実施形態においては、表示画面101Sにおいて隣接する指標130の一方から他方へ向かう第1ベクトルYdと、それら指標130を見たときに形成される隣接する角膜反射像113の一方から他方へ向かう第2ベクトルYeとを比較して、第1図形CA1と第2図形CA2との類似度を判定する例について説明する。
 図37、図38、及び図39は、本実施形態に係る斜視検査方法の一例を説明するための模式図である。図37は、表示画面101Sにおいて隣接する指標130の一方から他方へ向かう第1ベクトルYdを示す。図38は、斜視の傾向がない被験者が図37に示す指標130を見たときに形成される隣接する角膜反射中心113Cの一方から他方へ向かう第2ベクトルYeを示す。図39は、斜視の傾向がある被験者が図37に示す指標130を見たときに形成される隣接する角膜反射中心113Cの一方から他方へ向かう第2ベクトルYeを示す。
 図37において、指標130は、表示画面101Sの位置PDa及び位置PDbに順次表示される。位置PDaに表示される指標130と位置PDbに表示される指標130とは隣接する。位置PDaに表示される指標130から位置PDbに表示される指標130に向かう第1ベクトルYdが規定される。
 図38に示すように、斜視の傾向がない被験者が位置PDaに表示される指標130を見たとき、角膜反射中心113Cは位置PEaに形成される。斜視の傾向がない被験者が位置PDbに表示される指標130を見たとき、角膜反射中心113Cは位置PEbに形成される。位置PEaに形成される角膜反射中心113Cと位置PEbに形成される角膜反射中心113Cとは隣接する。位置PEaに形成される角膜反射中心113Cから位置PEbに形成される角膜反射中心113Cに向かう第2ベクトルYeが規定される。
 図38に示すように、斜視の傾向がない被験者についての第2ベクトルYeは、第1ベクトルYdと実質的に平行となる。
 図39に示すように、斜視の傾向がある被験者が位置PDaに表示される指標130を見たとき、角膜反射中心113Cは位置PEcに形成される。斜視の傾向がある被験者が位置PDbに表示される指標130を見たとき、角膜反射中心113Cは位置PEdに形成される。位置PEcに形成される角膜反射中心113Cと位置PEdに形成される角膜反射中心113Cとは隣接する。位置PEcに形成される角膜反射中心113Cから位置PEdに形成される角膜反射中心113Cに向かう第2ベクトルYeが規定される。
 図39に示すように、斜視の傾向がある被験者についての第2ベクトルYeは、第1ベクトルYdと非平行になる可能性が高い。
 このように、第1ベクトルYdの向きを基準としたとき、斜視の傾向がない被験者についての第2ベクトルYeの向きと、斜視の傾向がある被験者についての第2ベクトルYeの向きとが異なる可能性が高い。そのため、評価部218は、第1ベクトルYdと第2ベクトルYeとを比較することにより、第1図形CA1と第2図形CA2との類似度を判定することができる。
 本実施形態において、評価部218は、第1ベクトルYdと第2ベクトルYeとがなす角度θが閾値以上か否かを判定する。角度θが閾値以上であると判定されたとき、評価部218は、被験者に斜視の傾向があると判定し、被験者に斜視の傾向があることを示す評価データを出力する。一方、角度θが閾値以上でないと判定されたとき、評価部218は、被験者に斜視の傾向がないと判定し、被験者に斜視の傾向がないことを示す評価データを出力する。
 なお、角度θについての閾値は、斜視の傾向がある複数の被験者から取得したデータに基づいて統計的又は経験的に導出され、記憶部220に記憶されている。角度θについての閾値は、例えば15[°]以上45[°]以下に定められる。本実施形態において、角度θについての閾値は、20[°]に定められる。
 以上説明したように、第1ベクトルYd及び第2ベクトルYeに基づいて、被験者の視機能が評価されてもよい。本実施形態によれば、斜視の検査についての演算処理の負荷を抑制することができる。
 なお、上述の第6実施形態、第7実施形態、及び第8実施形態において、第1図形CA1は、正方形でなくてもよく、長方形でもよいし、平行四辺形でもよいし、台形でもよい。また、第1図形CA1は、四角形でなくてもよく、三角形でもよいし、五角形以上の多角形でもよいし、円でもよいし、楕円でもよい。
 本実施形態は、被験者の視機能の検査の実施に好適である。
 20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視機能検査装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…光源、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110…角膜曲率中心、111…眼、111L…左眼、111R…右眼、112…瞳孔、112L…瞳孔、112R…瞳孔、112C…瞳孔中心、112Cl…瞳孔中心、112Cr…瞳孔中心、113…角膜反射像、113L…角膜反射像、113R…角膜反射像、113C…角膜反射中心、113Cl…角膜反射中心、113Cr…角膜反射中心、121…角膜反射中心、122…角膜反射中心、123…直線、124…角膜反射中心、126…距離、130…指標、131…直線、132…直線、165…注視点、166…注視点、173…直線、177…視線、178…視線、202…画像データ取得部、204…入力データ取得部、206…画像処理部、208…表示制御部、210…光源制御部、211…カメラ制御部、212…位置算出部、214…曲率中心算出部、216…視線検出部、218…評価部、220…記憶部、222…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部、PD1…位置、PD2…位置、PD3…位置、PD4…位置、PD5…位置、PJ1…第1位置、PJ2…第2位置。

Claims (15)

  1.  光源から射出された検出光が照射される被験者の右眼の画像データ及び左眼の画像データを取得する画像データ取得部と、
     前記右眼の画像データに基づいて、前記右眼の瞳孔と角膜反射像との相対位置を示す第1相対位置データを算出し、前記左眼の画像データに基づいて、前記左眼の瞳孔と角膜反射像との相対位置を示す第2相対位置データを算出する位置算出部と、
     前記第1相対位置データと前記第2相対位置データとに基づいて、前記被験者の視機能の評価データを出力する評価部と、
    を備える視機能検査装置。
  2.  前記第1相対位置データは、所定面内の第1軸方向における前記右眼の瞳孔と角膜反射像との距離Rxと、前記第1軸方向と直交する前記所定面内の第2軸方向における前記右眼の瞳孔と前記角膜反射像との距離Ryとを含み、
     前記第2相対位置データは、前記第1軸方向における前記左眼の瞳孔と角膜反射像との距離Lxと、前記第2軸方向における前記左眼の瞳孔と前記角膜反射像との距離Lyとを含み、
     前記評価部は、前記距離Rxと前記距離Lxとの差及び前記距離Ryと前記距離Lyとの差に基づいて、前記評価データを出力する、
    請求項1に記載の視機能検査装置。
  3.  前記評価部は、前記距離Rxと前記距離Lxとの差及び前記距離Ryと前記距離Lyとの差の少なくとも一方が閾値以上であるとき、前記被験者の視機能が異常であることを示す評価データを出力する、
    請求項2に記載の視機能検査装置。
  4.  前記位置算出部は、前記第1相対位置データ及び前記第2相対位置データに基づいて、所定面内において前記右眼の瞳孔の位置と前記左眼の瞳孔の位置とを一致させたときの前記右眼の角膜反射像と前記左眼の角膜反射像との距離Dを算出し、
     前記評価部は、前記距離Dに基づいて、前記評価データを出力する、
    請求項1に記載の視機能検査装置。
  5.  前記評価部は、前記距離Dが閾値以上であるとき、前記被験者の視機能が異常であることを示す評価データを出力する、
    請求項4に記載の視機能検査装置。
  6.  前記距離Dは、前記所定面内の第1軸方向における前記右眼の角膜反射像と前記左眼の角膜反射像との距離Dxと、前記第1軸方向と直交する前記所定面内の第2軸方向における前記右眼の角膜反射像と前記左眼の角膜反射像との距離Dyとを含む、
    請求項4又は請求項5に記載の視機能検査装置。
  7.  前記第1相対位置データは、規定時間における前記右眼の瞳孔と角膜反射像との相対位置の時系列データを含み、
     前記第2相対位置データは、規定時間における前記左眼の瞳孔と角膜反射像との相対位置の時系列データを含み、
     前記評価部は、前記規定時間における前記右眼の瞳孔と角膜反射像との相対位置の変化量及び前記左眼の瞳孔と角膜反射像との相対位置の変化量に基づいて、前記評価データを出力する、
    請求項1に記載の視機能検査装置。
  8.  前記位置算出部は、前記規定時間における前記第1相対位置データ及び前記第2相対位置データに基づいて、所定面内において前記右眼の瞳孔の位置と前記左眼の瞳孔の位置とを一致させたときの前記右眼の角膜反射像と前記左眼の角膜反射像との距離Dの時系列データを算出し、
     前記評価部は、前記規定時間における前記距離Dの代表値に基づいて、前記評価データを出力する、
    請求項7に記載の視機能検査装置。
  9.  前記評価部は、前記距離Dの代表値が閾値以上であるとき、前記被験者の視機能が異常であることを示す評価データを出力する、
    請求項8に記載の視機能検査装置。
  10.  前記評価部は、前記規定時間を複数に分割した分割時間のそれぞれにおける前記距離Dの代表値に基づいて、前記評価データを出力する、
    請求項8又は請求項9に記載の視機能検査装置。
  11.  表示装置の表示画面において静止及び移動する指標を前記表示装置に表示させる表示制御部を備え、
     前記位置算出部は、前記指標を見せたときの前記画像データに基づいて、前記第1相対位置データ及び前記第2相対位置データを算出し、
     前記評価部は、前記第1相対位置データと前記第2相対位置データとに基づいて、前記評価データを出力する、
    請求項10に記載の視機能検査装置。
  12.  前記分割時間は、前記表示画面における前記指標の移動条件に基づいて決定される、
    請求項11に記載の視機能検査装置。
  13.  前記画像データに基づいて前記被験者の視線を検出する視線検出部を備える、
    請求項1から請求項12のいずれか一項に記載の視機能検査装置。
  14.  光源から射出された検出光が照射される被験者の右眼の画像データ及び左眼の画像データを取得することと、
     前記右眼の画像データに基づいて、前記右眼の瞳孔と角膜反射像との相対位置を示す第1相対位置データを算出し、前記左眼の画像データに基づいて、前記左眼の瞳孔と角膜反射像との相対位置を示す第2相対位置データを算出することと、
     前記第1相対位置データと前記第2相対位置データとに基づいて、前記被験者の視機能の評価データを出力することと、
    を含む視機能検査方法。
  15.  コンピュータに、
     光源から射出された検出光が照射される被験者の右眼の画像データ及び左眼の画像データを取得することと、
     前記右眼の画像データに基づいて、前記右眼の瞳孔と角膜反射像との相対位置を示す第1相対位置データを算出し、前記左眼の画像データに基づいて、前記左眼の瞳孔と角膜反射像との相対位置を示す第2相対位置データを算出することと、
     前記第1相対位置データと前記第2相対位置データとに基づいて、前記被験者の視機能の評価データを出力することと、
    を実行させるコンピュータプログラム。
PCT/JP2017/039791 2016-12-28 2017-11-02 視機能検査装置、視機能検査方法、及びコンピュータプログラム WO2018123266A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17887452.5A EP3542705B1 (en) 2016-12-28 2017-11-02 Visual function examination device, visual function examination method, and computer program
US16/409,968 US11019994B2 (en) 2016-12-28 2019-05-13 Visual performance examination device, visual performance examination method, and computer program
US17/242,384 US11653831B2 (en) 2016-12-28 2021-04-28 Visual performance examination device, visual performance examination method, and computer program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-256646 2016-12-28
JP2016256646A JP6766646B2 (ja) 2016-12-28 2016-12-28 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP2016-256645 2016-12-28
JP2016256645A JP6677156B2 (ja) 2016-12-28 2016-12-28 視機能検査装置、視機能検査方法、及びコンピュータプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/409,968 Continuation US11019994B2 (en) 2016-12-28 2019-05-13 Visual performance examination device, visual performance examination method, and computer program

Publications (1)

Publication Number Publication Date
WO2018123266A1 true WO2018123266A1 (ja) 2018-07-05

Family

ID=62708231

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/039791 WO2018123266A1 (ja) 2016-12-28 2017-11-02 視機能検査装置、視機能検査方法、及びコンピュータプログラム

Country Status (3)

Country Link
US (2) US11019994B2 (ja)
EP (1) EP3542705B1 (ja)
WO (1) WO2018123266A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014530730A (ja) * 2011-10-24 2014-11-20 アイリス・メディカル・テクノロジーズ・リミテッド 目の症状を特定するためのシステムおよび方法
JP2015525597A (ja) 2012-07-06 2015-09-07 アイリス・メディカル・テクノロジーズ・リミテッド 斜視検出
US20150265146A1 (en) * 2012-10-02 2015-09-24 University Hospitals Of Cleveland Apparatus and methods for diagnosis of strabismus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006010105A1 (de) * 2006-02-28 2007-08-30 Carl Zeiss Meditec Ag Ophthalmologisches Gerät
DE102011085503B4 (de) * 2011-10-31 2015-04-09 Siemens Aktiengesellschaft Steuerungseinheit sowie medizinische Untersuchungsvorrichtung
US10379610B2 (en) * 2013-09-02 2019-08-13 Sony Corporation Information processing device and information processing method
DK3065624T3 (en) * 2013-11-07 2018-10-15 Ohio State Innovation Foundation AUTOMATED EYE SETTING DETECTION
JP6210023B2 (ja) * 2013-11-28 2017-10-11 株式会社Jvcケンウッド 視線検出支援装置および視線検出支援方法
EP3196791A1 (de) * 2017-05-02 2017-07-26 Siemens Healthcare GmbH Verfahren zur unterstützung von medizinischem personal, unterstützungssystem, computerprogramm und datenträger
JP6972682B2 (ja) * 2017-06-13 2021-11-24 セイコーエプソン株式会社 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014530730A (ja) * 2011-10-24 2014-11-20 アイリス・メディカル・テクノロジーズ・リミテッド 目の症状を特定するためのシステムおよび方法
JP2015525597A (ja) 2012-07-06 2015-09-07 アイリス・メディカル・テクノロジーズ・リミテッド 斜視検出
US20150265146A1 (en) * 2012-10-02 2015-09-24 University Hospitals Of Cleveland Apparatus and methods for diagnosis of strabismus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3542705A4

Also Published As

Publication number Publication date
US20210244270A1 (en) 2021-08-12
EP3542705B1 (en) 2020-07-29
US20190261852A1 (en) 2019-08-29
EP3542705A1 (en) 2019-09-25
US11019994B2 (en) 2021-06-01
US11653831B2 (en) 2023-05-23
EP3542705A4 (en) 2019-12-11

Similar Documents

Publication Publication Date Title
EP3499462B1 (en) Line-of-sight detection device
US9329683B2 (en) Method for detecting point of gaze and device for detecting point of gaze
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
US20110242486A1 (en) Autism diagnosis support apparatus
JP6346525B2 (ja) 視線検出装置
US20150238087A1 (en) Biological information measurement device and input device utilizing same
JP2018140007A (ja) 評価装置、評価方法、及び評価プログラム
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP6766646B2 (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
WO2018123266A1 (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6677156B2 (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム
EP3811852B1 (en) Device, method, and program for detecting gaze
EP3583887B1 (en) Line-of-sight detection device, line-of-sight detection method, and line-of-sight detection program
EP3970624B1 (en) Evaluation device, evaluation method, and evaluation program
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17887452

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017887452

Country of ref document: EP

Effective date: 20190618