WO2018225867A1 - 視機能検査装置、視機能訓練装置及び方法 - Google Patents

視機能検査装置、視機能訓練装置及び方法 Download PDF

Info

Publication number
WO2018225867A1
WO2018225867A1 PCT/JP2018/022115 JP2018022115W WO2018225867A1 WO 2018225867 A1 WO2018225867 A1 WO 2018225867A1 JP 2018022115 W JP2018022115 W JP 2018022115W WO 2018225867 A1 WO2018225867 A1 WO 2018225867A1
Authority
WO
WIPO (PCT)
Prior art keywords
visual
subject
image
inspection
axis
Prior art date
Application number
PCT/JP2018/022115
Other languages
English (en)
French (fr)
Inventor
拓治 東川
徳仁 沼
祥悟 中村
Original Assignee
株式会社ナックイメージテクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ナックイメージテクノロジー filed Critical 株式会社ナックイメージテクノロジー
Priority to EP18814280.6A priority Critical patent/EP3636136B1/en
Priority to US16/620,136 priority patent/US11464405B2/en
Priority to JP2018165668A priority patent/JP6546329B1/ja
Publication of WO2018225867A1 publication Critical patent/WO2018225867A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/02Head
    • A61H2205/022Face
    • A61H2205/024Eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • Embodiments of the present invention relate to a visual function inspection device, a visual function training device, and a method.
  • visual function tests include visual acuity tests (single-eye occlusion test and binocular release test), simultaneous vision test, fusion test, stereoscopic test (near vision test and far vision test), 9-direction eye level test (Hess test). ), Visual field inspection, preferential looking method inspection, unequal image inspection, and the like.
  • the present invention has been made in view of the above, and a visual function that enables an inspector to objectively grasp a gaze state of a subject to perform inspection or training reliably and improve the reliability of the inspection It is an object of the present invention to provide an inspection apparatus and a visual function training apparatus and method capable of improving the reliability of training.
  • the visual function testing device includes a subject display device and an operator display device.
  • the target display unit displays a target image visually recognized by the subject on the subject display device.
  • the visual axis estimation unit estimates the visual axis of the subject when viewing the target image. Accordingly, the position display unit displays the display position of the target image and the viewpoint position corresponding to the estimated visual axis on the operator display device.
  • the display unit displays the eyeball image of the subject on the operator display device.
  • the visual function training device of the embodiment includes a display device for a trainee and a display device for an operator.
  • the target display unit displays a target image for visual recognition of the trainee on the trainee display device.
  • the visual axis estimation unit estimates the visual axis of the trainee at the time of visual recognition of the target image. Accordingly, the position display unit displays the display position of the target image and the viewpoint position corresponding to the estimated visual axis on the operator display device.
  • the display unit displays the trainee's eyeball image on the operator display device.
  • FIG. 1 is a block diagram of a schematic configuration of a visual function testing device according to an embodiment.
  • FIG. 2 is a detailed configuration block diagram of the visual function testing device according to the first embodiment.
  • FIG. 3 is a schematic explanatory diagram of an inspection procedure in the visual function inspection device.
  • FIG. 4 is a process flowchart of preparation before measurement.
  • FIG. 5 is an explanatory diagram of preparation before measurement.
  • FIG. 6 is an explanatory diagram of a display example of the operator display at the time of preparation before measurement.
  • FIG. 7 is an explanatory diagram of the visual axis calibration of the right eye.
  • FIG. 8 is a process flowchart of the visual axis estimation process.
  • FIG. 9 is a diagram illustrating the principle of the optical axis calculation method according to the first embodiment.
  • FIG. 9 is a diagram illustrating the principle of the optical axis calculation method according to the first embodiment.
  • FIG. 10 is a process flowchart of the optical axis calculation process according to the first embodiment.
  • FIG. 11 is an explanatory diagram of the visual axis calibration of the left eye.
  • FIG. 12 is a process flowchart for the nine-direction eye position examination.
  • FIG. 13 is an explanatory diagram (part 1) of an example of a display screen at the time of nine-direction eye position examination on the right eye on the operator display.
  • FIG. 14 is an explanatory diagram (part 2) of an example of a display screen at the time of the nine-azimuth eye position examination of the right eye on the operator display.
  • FIG. 15 is an explanatory diagram (part 1) of a display example of a measurement result graphic.
  • FIG. 11 is an explanatory diagram of the visual axis calibration of the left eye.
  • FIG. 12 is a process flowchart for the nine-direction eye position examination.
  • FIG. 13 is an explanatory diagram (part 1) of an example of a display screen at the time of nine
  • FIG. 16 is an explanatory diagram (part 2) of a display example of a measurement result graphic.
  • FIG. 17 is an explanatory diagram of the visual axis calibration process for the left and right eyes simultaneously.
  • FIG. 18 is a flowchart of the calibration process associated with the stop determination.
  • FIG. 19 is a detailed configuration block diagram of the visual function testing device according to the second embodiment.
  • FIG. 20 is an explanatory diagram of LED arrangement positions in the LED unit of the second embodiment.
  • FIG. 21 is a process flowchart of an optical axis calculation process according to the second embodiment.
  • FIG. 22 is a process flowchart of an average value calculation process of the corneal curvature center according to the second embodiment.
  • FIG. 23 is a diagram for explaining the principle of the corneal curvature center and optical axis calculation method according to the second embodiment.
  • FIG. 24 is an explanatory diagram of LED arrangement positions in an LED unit according to a modification of the second embodiment.
  • FIG. 1 is a schematic configuration block diagram of a visual function testing device according to an embodiment.
  • the visual function testing device 10 is roughly divided into a testing unit 11 for testing a subject and an operator unit 12 used by an operator who performs various operations for testing.
  • the inspection unit 11 is placed on an inspection table 13 whose height can be adjusted.
  • a chin table 14 capable of adjusting the height of the subject's chin, and the eye position of the subject cooperates with the examination table 13 to be an optimum position with respect to the examination unit 11. Can be adjusted.
  • the operator unit 12 is configured as a so-called personal computer.
  • FIG. 2 is a detailed configuration block diagram of the visual function testing device according to the first embodiment.
  • the inspection unit 11 can adjust the viewing angle, the inspection distance, and the like, and inspection light L1 and L2 that are infrared light (IR) (hereinafter referred to as inspection light L when there is no need to distinguish between them).
  • inspection light L when there is no need to distinguish between them.
  • the optical system units 21R and 21L respectively corresponding to the left and right eyes that guide the reflected light of the inspection light L to an eyeball camera described later, and the inspection light L via the optical system unit 21.
  • the examination unit 11 includes a subject display 24 that displays various images for the subject, a multimedia interface (IF) 25 such as HDMI [registered trademark] that performs an interface operation of audio data and video (image) data, A sound / video separation unit 26 that performs sound / video separation of an output signal of the media interface 25, a speaker unit 27 that performs sound output, and a control interface (IF) 28 such as a USB to which a control signal is input.
  • IF multimedia interface
  • HDMI registered trademark
  • a sound / video separation unit 26 that performs sound / video separation of an output signal of the media interface 25
  • speaker unit 27 that performs sound output
  • a control interface (IF) 28 such as a USB to which a control signal is input.
  • the operator unit 12 is also used as an MPU 31 that controls the operator unit 12, a ROM 32 that stores control data including an operating system (OS) in a nonvolatile manner, and a working area of the MPU 31, and temporarily stores various data.
  • a RAM 33 for storing data, a flash memory 34 for storing various data in a nonvolatile and updatable manner, and a multimedia interface (IF) 35 such as HDMI for performing an interface operation of audio data and video (image) data are provided. .
  • the operator unit 12 is connected via a control interface (IF) 36 for performing various interface operations for control, a multimedia interface 35, an operator display 37 for presenting various information to the operator, and various data items.
  • IF control interface
  • a printer 38 that performs printout
  • a mouse 39 that functions as a pointing device and performs various operations
  • a keyboard 40 that performs various operations and inputs various data
  • USB memory for example, an SD card
  • an external storage medium connection unit 41 that connects an external storage medium such as a card [registered trademark] and reads test subject data and records test result data.
  • FIG. 3 is a schematic explanatory diagram of an inspection procedure in the visual function inspection device.
  • the inspection is performed in the visual function inspection device 10.
  • the following procedure is roughly performed.
  • the operator performs equipment installation adjustment in accordance with the subject so that the subject can be in a comfortable posture during the examination (step S11).
  • pre-measurement preparation for the subject is performed (step S12).
  • first visual axis calibration for determining the visual axis of one eye is performed (step S13).
  • step S14 second visual axis calibration for determining the visual axis of the other eye (for example, the left eye) is performed (step S14).
  • a first visual function test that is a visual function test (in this embodiment, a nine-direction eye position test) of one eye (for example, the right eye) is performed (step S15).
  • a second visual function test that is a visual function test of the other eye (for example, the left eye) is performed (step S16).
  • the inspection result is presented as an operator display or a printout (step S17).
  • the operator operates the mouse 39 or the keyboard 40 to give a pre-measurement preparation instruction.
  • the MPU 31 of the operator unit 12 displays the pre-measurement preparation image on the subject display 24 of the examination unit 11 via the multimedia interface 35 and the multimedia interface 25, and examines the position of the face of the patient who is the subject. Preparation before measurement to obtain an optimal state is performed (step S12).
  • FIG. 4 is a process flowchart of preparation before measurement.
  • FIG. 5 is an explanatory diagram of preparation before measurement.
  • a pre-measurement preparation image GL for the left eye is displayed at the center of the left eye image display area ARL of the display screen 24D of the subject display 24.
  • a pre-measurement preparation image GR for the right eye is displayed in the center of the right eye image display area ARR of the display screen 24D for the subject display.
  • the image display area ARL for the left eye is visible only from the subject's left eye by the optical system unit 21L.
  • the right-eye image display area ARR is visible only from the right eye of the subject by the optical system unit 21R.
  • the operator gives an instruction so that the subject gazes the respective pre-measurement preparation images GL and GR via the optical system units 21L and 21R, and the operator unit performs the pre-measurement preparation using the mouse 39 or the keyboard 40. 12 is instructed (step S23).
  • FIG. 6 is an explanatory diagram of a display example of the operator display at the time of preparation before measurement.
  • the MPU 31 of the operator unit 12 displays the display content of the test subject display 24 on the operator display 37.
  • the MPU 31 displays an image photographed by the left eye eyeball camera 23L in the left eyeball display area EBL.
  • MPU31 displays the image image
  • the position of the eyeball is detected based on the image photographed by the eyeball camera 23L and the image photographed by the right-eye eyeball camera 23R (step S24).
  • the MPU 31 of the operator unit 12 has a position in which the pupil center in the vertical direction is an appropriate position with respect to the optical axis of each camera 23R, 23L (the position where the optical axis of the camera 23R, 23L substantially passes through the pupil center). ) Is determined (step S25).
  • step S25 When the pupil center is located below the center position corresponding to the optical axis of the eyeball camera 23L, 23R in the determination of step S25 (step S25; downward), the MPU 31 controls to control the position shown in FIG. As shown in FIG. 3, the left eyeball image area EBL of the display screen 37D of the operator display 37 displays the eyeball image of the subject's left eye. On the other hand, in the right eyeball display area EBR, an eyeball image of the subject's right eye is displayed, and the height of the chin rest 14 is increased in an amount area between the left eyeball display area EBL and the right eyeball display area EBR. An upward adjustment instruction mark AU for instructing adjustment in the direction is displayed (step S26). Therefore, the operator adjusts the height of the chin rest 14 in the direction of increasing (step S27).
  • the height of the examination table 13 can be adjusted. In this case, since the optical axes of the cameras 23R and 23L are located above the pupil center, the height of the examination table 13 is adjusted to be lowered. Subsequently, the MPU 31 of the operator unit 12 shifts the process to step S24 again and repeats the above-described procedure.
  • step S25 If the pupil center is located above the center position corresponding to the optical axis of the eyeball camera 23L, 23R in the determination in step S25 (step S25; upper), the MPU 31 controls FIG. As shown in B), a downward adjustment instruction mark AD for instructing to adjust the height of the chin rest 14 to be lowered is displayed on the operator display 37 (step S28). Accordingly, the operator adjusts the chin rest 14 in the direction of decreasing the height (step S29). In addition, when adjustment cannot be performed only by adjusting the height of the jaw table 14, the height of the examination table 13 can be adjusted. In this case, since the optical axes of the cameras 23R and 23L are positioned below the pupil center, the height of the examination table 13 is adjusted to be increased. Subsequently, the MPU 31 of the operator unit 12 shifts the process to step S24 again and repeats the above-described procedure.
  • step S25 when the pupil center is located in the vicinity of the center position corresponding to the optical axis of the eyeball camera 23L, 23R in the determination in step S25 (step S25; appropriate), the pre-measurement preparation is performed by controlling the MPU 31. 6C, the “OK” mark MK is displayed on the operator display 37 (step S30), and the process proceeds to the actual inspection procedure.
  • FIG. 7 is an explanatory diagram of the visual axis calibration of the right eye.
  • FIG. 8 is a process flowchart of the visual axis estimation process of the embodiment.
  • the operator prompts the subject to gaze at the gaze image GT, and suppresses fluctuations in the position of the subject's visual axis (line of sight). Accordingly, the MPU 31 of the operator unit 12 calculates the optical axis of the right eye in a state where the change in the visual axis of the right eye is suppressed (step S42).
  • FIG. 9 is a diagram illustrating the principle of the optical axis calculation method according to the first embodiment.
  • a corneal curvature sphere CNRC having the same curvature as the cornea is assumed, the center of the corneal curvature is Ct, the radius of the corneal curvature sphere CNRC is R, and the optical center of the camera is Cm.
  • the first LED and the second LED are regarded as point light sources
  • the position of the IR illumination device LD1 is LED1
  • the position of the IR illumination device LD2 is LED2.
  • the reflected image position of the IR illumination device LD1 in the three-dimensional space is P1
  • the reflected image position of the IR illumination device LD2 in the three-dimensional space is P2.
  • a plane including the position LED1, the reflected image position P1 of the IR illumination device LD1 and the optical center Cm of the camera is PL1
  • a plane including the position LED2 the reflected image position P2 of the IR illumination device LD2 and the optical center Cm of the camera is used.
  • an intersection line CL between the plane PL1 and the plane PL2 passes through the corneal curvature center Ct.
  • a unit vector from the optical center Cm of the camera to the curvature center Ct of the cornea on the intersection line CL is set to v0
  • a unit vector from the optical center Cm of the camera to the reflected image position P1 on the plane PL1 is set to v1
  • the plane PL21 is set.
  • a unit vector from the optical center Cm of the camera to the reflected image position P2 is denoted by v2.
  • f be a vector from the reflected image position P1 to the corneal curvature center Ct on the plane PL1
  • g be a vector from the reflected image position P2 to the corneal curvature center Ct on the plane PL2.
  • a corneal curvature center Ct exists at a position obtained by multiplying the unit vector v0 by a constant t0 (t0 is a positive real number). Therefore, in the following description, the corneal curvature center at the stage where the constant t0 is unknown is set as the first assumed corneal curvature center Ct1.
  • the reflected image position P1 exists at a position obtained by multiplying the unit vector v1 by a constant t1 (t1 is a positive real number).
  • the reflected image position P2 exists at a position obtained by multiplying the unit vector v2 by a constant t2 (t2 is a positive real number).
  • the reflected image position P1 and the reflected image position P2 exist at a position of the corneal curvature radius R from the corneal curvature center Ct.
  • FIG. 10 is a process flowchart of the optical axis calculation process.
  • the MPU 31 of the operator unit 12 controls the IR illumination device LD1 and the IR illumination device LD2 through the control interface 36 and the control interface 28 to irradiate the inspection light L, and further controls the eyeball cameras 23R and 23L.
  • the eyeball is imaged (step S51).
  • the MPU 31 of the operator unit 12 calculates the reflected image position P1 and the reflected image position P2 with the radius R of the corneal curvature sphere CNRC as a predetermined value. Then, the MPU 31 of the operator unit 12 calculates a plane PL1 that includes the position LED1 of the IR illumination device LD1, the reflected image position P1, and the optical center Cm of the camera. Further, the MPU 31 calculates a plane PL2 including the position LED2 of the IR illumination device LD2, the reflected image position P2, and the optical center Cm of the camera (step S52).
  • the MPU 31 of the operator unit 12 calculates an intersecting line between the two planes from the plane PL1 (representing expression) and the plane PL2 (representing expression) (step S53). Further, the MPU 31 of the operator unit 12 calculates the unit vector v1 from the above-described reflected image position P1, and acquires the vector f from the calculated unit vector v1, the reflected image position P1, and the position LED1 of the IR illumination device LD1.
  • the MPU 31 of the operator unit 12 calculates the unit vector v2 from the reflection image position P2 described above, and acquires the vector g from the calculated unit vector v2, the reflection image position P2, and the position LED2 of the IR illumination device LD2.
  • the MPU 31 of the operator unit 12 estimates the position of the corneal curvature center and calculates a constant t0 (step S54).
  • the MPU 31 of the operator unit 12 assumes a first straight line LN1 along the direction of the vector f from the reflected image position P1 and a second straight line LN2 along the direction of the vector g from the reflected image position P2.
  • An intersection of LN1 and straight line LN2 (or a point closest to both of the two straight lines [nearest point]) is calculated, and this is set as a second hypothetical corneal curvature center Ct2.
  • the constant t0 may be calculated so that the following equation is minimized.
  • Ct1-Ct2
  • the constant t0 is calculated according to the above principle.
  • the MPU 31 of the operator unit 12 calculates a unit vector v0 based on the intersection line between the two planes PL1 and PL2.
  • v01 ⁇ (LED1-Cm) ⁇ (PP1-Cm) ⁇ ⁇ ⁇ (LED2-Cm) ⁇ (PP2-Cm) ⁇
  • PP1 is a position on the imaging sensor of the camera at the reflected image position P1
  • PP2 is a position on the imaging sensor of the camera at the reflected image position P2.
  • is the size (scalar) of the vector v01.
  • the MPU 31 of the operator unit 12 calculates the unit vector v1 and the unit vector v2 from the optical center Cm, the position PP1, and the position PP2 of the camera.
  • v1 (Cm-PP1) /
  • v2 (Cm-PP2) /
  • the reflected image position P1 is located at a position obtained by multiplying the unit vector v1 by a constant t1 with the optical center Cm of the camera as a base point, and the reflected image position P2 at a position obtained by multiplying the unit vector v2 by a constant t2 with the optical center Cm of the camera as a base point.
  • the reflected image position P1 and the reflected image position P2 are calculated on the assumption that the reflected image position P1 and the reflected image position P2 are located at a position of the corneal curvature radius R from the corneal curvature center Ct.
  • the positive sign (+) side includes two spheres having a radius R centered on the corneal curvature center Ct and a straight line passing through the optical center Cm of the camera and the reflected image position P1. Since this corresponds to the intersection on the far side when viewed from the camera, the negative ( ⁇ ) side corresponding to the intersection on the near side when viewed from the camera is the constant t1 to be obtained.
  • the positive sign (+) side includes a sphere having a radius R centered on the corneal curvature center Ct and a straight line passing through the optical center Cm of the camera and the reflected image position P2. Since the two intersections correspond to the intersections on the back side as viewed from the camera, the negative ( ⁇ ) side corresponding to the intersections on the near side as viewed from the camera is the constant t2 to be obtained.
  • a vector f and a vector g are obtained. From the relationship between the unit vector v1, the reflected image position P1, and the first LED position LED1, and the relationship between the unit vector v2, the reflected image position P2, and the second LED position LED2, the following equation can be obtained.
  • f v1 + (P1-LED1) /
  • g v2 + (P2-LED2) /
  • the MPU 31 of the operator unit 12 assumes a first straight line LN1 passing through the reflected image position P1 and along the direction of the vector f, and passes through the reflected image position P2 and passes through the second line along the direction of the vector g. Assuming a straight line LN2, an intersection of the straight line LN1 and the straight line LN2 (or a point closest to both of the two straight lines [nearest neighbor point]) is calculated, and this is set as a second assumed corneal curvature center Ct2.
  • the first hypothetical corneal curvature center Ct1 and the second hypothetical corneal curvature center Ct2 should be equal to the corneal curvature center Ct, respectively. Therefore, the difference t between the first assumed corneal curvature center Ct1 and the second assumed corneal curvature center Ct2 is used as the evaluation value X to calculate a constant t0 that minimizes the evaluation value X. That is, a constant t0 that satisfies the following equation is calculated.
  • the MPU 31 of the operator unit 12 obtains the center point of the pupil based on the captured image of the eyeball camera 23R (step S55). Then, the MPU 31 calculates the optical axis of the right eye by connecting the center point of the pupil and the corneal curvature center Ct calculated by the constant t0 and the unit vector v0 (step S56).
  • the processing will be described with reference to FIGS. 7 and 8 again.
  • the gaze image GT for the subject to gaze with the right eye is displayed (step S41).
  • the MPU 31 of the operator unit 12 calculates the optical axis calculated in step S56.
  • the difference between the visual axis and the visual axis are calculated as a correction amount (step S43).
  • the MPU 31 of the operator unit 12 uses the calculated optical axis position and the subject's eye so that the calculated optical axis position matches the visual axis (line of sight) of the subject who is gazing at the gaze image GT.
  • the difference from the visual axis [line of sight] position is calculated as a correction amount. That is, the MPU 31 calculates the calculated optical axis position so that the display position of the visual axis mark image GVA (corresponding to the calculated optical axis position) matches the gaze image GT (corresponding to the visual axis [visual line] position of the subject). And the difference between the visual axis [line of sight] position of the subject and the correction amount.
  • an image after calibration is displayed on the operator display 37. That is, a screen in which the display position of the visual axis mark image GVA matches the display position of the gaze image GT is displayed on the operator display 37.
  • the operator determines whether or not the display position of the visual axis mark image GVA matches the display position of the gaze image GT, and the parameters for calculating the visual axis are not optimized and the visual axis mark image is displayed. If the display position of GVA does not coincide with the display position of the gaze image GT, an instruction is given to perform the same calibration again.
  • the MPU 31 of the operator unit 12 thereafter calculates the optical axis as needed, corrects the calculated optical axis with the correction amount obtained in step S43, and The axis is estimated at any time (step S44).
  • the MPU 31 of the operator unit 12 displays the visual axis mark image GVA at any time on the position corresponding to the estimated visual axis position on the operator display 37 based on the right visual axis estimated at any time.
  • the display position of the visual axis mark image GVA (calculated optical axis position) is determined as the gaze position. Calibration may be performed so as to coincide with the gaze image GT (the subject's visual axis [line of sight]).
  • Second visual axis calibration The display position of the visual axis mark image GVA coincides with the display position of the gaze image GT, and the calibration of the visual axis of the right eye, that is, the calibration of the first visual axis is completed. In such a case, similarly, as the second visual axis calibration, calibration of the visual axis of the left eye as the second visual axis is performed. In the following, description will be given with reference to FIG. 8 again.
  • FIG. 11 is an explanatory diagram of the visual axis calibration of the left eye.
  • the MPU 31 of the operator unit 12 uses the multimedia interface 35, the multimedia interface 25, and the sound / video separation unit 26 for the subject.
  • the left-eye image display area ARL on the display screen of the display 24 as shown in FIG. 11A, a gaze image GT for the subject to gaze with the left eye is displayed (step S41).
  • the operator prompts the subject to gaze at the gaze image GT, and suppresses fluctuations in the position of the subject's visual axis (line of sight). Accordingly, the MPU 31 of the operator unit 12 calculates the optical axis of the left eye in a state where the fluctuation of the visual axis of the left eye is suppressed (step S42).
  • the MPU 31 of the operator unit 12 displays the estimated optical axis position on the display screen 37D of the operator display 37 as the display position of the visual axis mark image GVA.
  • the operator operates the mouse to instruct calibration.
  • the MPU 31 of the operator unit 12 performs calibration so that the visual axis mark image GVA matches the gaze image GT (step S43).
  • the MPU 31 thereafter calculates the optical axis as needed, corrects the calculated optical axis with the correction amount obtained in step S43, and estimates the subject's visual axis as needed. (Step S44).
  • the MPU 31 of the operator unit 12 displays the visual axis mark image GVA as the stop position is a gaze position. Calibration may be performed so that the position (the calculated optical axis position) matches the gaze image GT (the subject's visual axis [line of sight]).
  • FIG. 12 is a process flowchart for the nine-azimuth eye position test. ⁇ 5.1 ⁇ First Visual Function Examination When the right-eye and left-eye visual axis calibration is completed, the operator first instructs the start of the right-eye nine-azimuth eye position examination via the mouse or the keyboard (step S71).
  • FIG. 13 is an explanatory diagram (part 1) of an example of a display screen at the time of nine-direction eye position examination on the right eye on the operator display.
  • the MPU 31 of the operator unit 12 measures the MP1 at the center of the nine-direction eye examination chart (Hess chart) in the left-eye image display area of the subject display 24.
  • the gaze image GT1 is displayed at a position corresponding to, and an arbitrary color is displayed on one surface of the right-eye image display region (step S72).
  • the display screen 24D of the test subject display 24 does not display the 9-azimuth eye position inspection chart but displays only the gaze image GT1. Compared with the case where the measurement point is closely watched, the subject can concentrate on the test without any other attention, and the measurement accuracy can be further improved.
  • the left image display area HCL of the display screen 37 of the operator display 37 displays a 9-azimuth eye position inspection chart, a gaze position specifying image TMP, and a left eye gaze position image MML1, and the right image display area includes 9 directions.
  • a chart for eye position inspection, a gaze position specifying image TMP, and a gaze position image MMR1 of the subject's right eye are displayed.
  • the MPU 31 of the operator unit 12 determines whether or not the center positions of the left eye gaze position image MML1 and the right eye gaze position image MMR1 remain within a predetermined stop time and within a predetermined stop range. If it is determined that the vehicle has stopped, it is acquired as measurement data corresponding to the measurement point MP1, and the same images (or predetermined measurement mark images) as the gaze position images MML1 and MMR1 are displayed as measurement marks. (Step S73).
  • FIG. 14 is an explanatory diagram (part 2) of an example of a display screen at the time of the nine-eye position examination of the right eye on the operator display.
  • a 9-azimuth eye position inspection chart In the left image display area HCL of the display screen 37 of the operator display 37, a 9-azimuth eye position inspection chart, a gaze position specifying image TMP, and a gaze position image MML2 of the left eye are displayed.
  • a nine-azimuth eye position inspection chart, a gaze position specifying image TMP, and a gaze position image MMR2 of the subject's right eye are displayed.
  • the MPU 31 of the operator unit 12 determines whether or not the center positions of the left eye gaze position image MML2 and the right eye gaze position image MMR2 remain within a predetermined stop time and within a predetermined stop range. If it is determined that it has stopped, it is acquired as measurement data corresponding to the measurement point MP2, and the measurement mark MML2 is displayed.
  • the MPU 31 of the operator unit 12 When the acquisition of the measurement data corresponding to the measurement point MP2 is completed, the MPU 31 of the operator unit 12 also acquires the measurement data for the 15 ° measurement points MP3 to MP9 (steps S72 to S74). Then, when the acquisition of the measurement data of the measurement point MP9 is completed, the MPU 31 of the operator unit 12 displays the gaze image GT1 again at the measurement point MP1 and similarly acquires the measurement data.
  • step S74 If it is determined in step S74 that the measurement is completed (step S74; Yes), the MPU 31 of the operator unit 12 determines the measurement point MP1 (first measurement) ⁇ measurement point MP2 ⁇ ... Measurement point MP9 ⁇ A measurement result graphic in which the measurement points MP1 (for the second measurement) are sequentially connected by a straight line is displayed (step S76).
  • the MPU 31 of the operator unit 12 displays on the display screen of the operator display 37 a screen for inquiring whether or not abnormality is sufficiently detected due to mild paralysis, and the abnormality is not sufficiently detected. In this case, the MPU 31 of the operator unit 12 also acquires the same data as the 15 ° measurement points MP1 to MP9 for the 30 ° measurement point.
  • FIG. 15 is an explanatory diagram (part 1) of a display example of a measurement result graphic. If the first measurement at the measurement point MP1 and the second measurement at the measurement point MP1 are within a predetermined threshold difference, the operator unit 12 assumes that the measurement result is reliable.
  • the MPU 31 displays a measurement result graphic in which measurement points MP1 (first measurement) ⁇ measurement point MP2 ⁇ ... Measurement point MP9 ⁇ measurement point MP1 (second measurement) are sequentially connected by a straight line.
  • the left-eye 9-azimuth eye examination result screen HCLR corresponding to the left eye is displayed on the left side of the display screen 37D of the operator display 37.
  • a right-eye 9-azimuth eye position examination result screen HCRR corresponding to the right eye is displayed.
  • FIG. 16 is an explanatory diagram (part 2) of a display example of a measurement result graphic.
  • FIG. 15 it is not easy to visually compare the results of the nine-azimuth eye position inspection for both eyes.
  • FIG. 16 it is possible to easily compare by displaying the nine-azimuth eye position inspection result of both eyes on one binocular nine-azimuth eye position inspection result screen HCRA.
  • the first embodiment it is easy for the operator who is an inspector to grasp which position the subject is actually inspected as the gaze position. Therefore, it is possible to perform inspection while reliably gazing at the gaze position designated by the inspector, and the reliability of the inspection can be easily ensured. As a result, even when testing an infant or the like, it is possible to reliably grasp whether the subject is following the instructions of the operator.
  • FIG. 17 is an explanatory diagram of the visual axis calibration process for the left and right eyes simultaneously.
  • the MPU 31 of the operator unit 12 receives the multimedia interface 35, the multimedia interface 25, and the sound as shown in FIG. / Gaze image GTR for the subject to gaze with the right eye is displayed in the right eye image display area ARR of the display screen 24D of the subject display 24 via the video separation unit 26, and the subject in the left eye image display area ARL. Displays a gaze image GTL for gaze with the left eye.
  • the operator prompts the subject to watch the gaze images GTR and GTL.
  • the MPU 31 of the operator unit 12 performs visual axis estimation of the right eye and the left eye.
  • the MPU 31 of the operator unit 12 displays the position of the visual axis on the operator display 37 as visual axis mark images GVAR and GVAL.
  • the MPU 31 of the operator unit 12 operates the mouse to issue a calibration instruction. Then, as shown in FIG. 17C, calibration is performed so that the visual axis mark image GVAR matches the gaze image GTR.
  • the MPU 31 of the operator unit 12 operates the mouse when the gaze image GTL and the visual axis mark image GVAL do not match as shown in FIG. As shown in FIG. 17C, calibration is performed so that the visual axis mark image GVAL matches the gaze image GTL.
  • the visual axis can be calibrated simultaneously for both eyes, which can contribute to shortening the examination time.
  • the visual axis mark image matches the gaze image by the operator operating the mouse and issuing a calibration instruction. It was configured to be calibrated to do so. However, when the visual axis mark image is stopped within a predetermined range for a predetermined time, the MPU 31 of the operator unit 12 determines that the stopped position is the gaze position and the visual axis mark image matches the gaze image. It is also possible to perform calibration as described above.
  • FIG. 18 is a flowchart of the calibration process associated with the stop determination.
  • the MPU 31 of the operator or the operator unit 12 sets a stop determination condition (step S81).
  • the stop judgment condition includes the size of the stop range, the stop time, and the like.
  • the MPU 31 of the operator unit 12 detects the gaze position of the subject based on the estimated visual axis of the subject (step S82). Subsequently, the MPU 31 of the operator unit 12 detects the stationary state of the gaze position (step S83).
  • the MPU 31 of the operator unit 12 determines whether or not the gaze position has stopped in the stop range set as the stop determination condition for a predetermined stop time or more (step S84). In the determination in step S84, if the gaze position is not stopped in the stop range set in the stop determination condition, or if the gaze position is stopped in the stop range but only within a predetermined stop time (step S84; No), the process again proceeds to step S82, and the above-described process is performed.
  • step S84 when the gaze position stays in the stop range set as the stop determination condition for a predetermined stop time or more (step S84; Yes), an operation according to the detection state, for example, gaze point data is stored. Operations such as acquisition, transition of operation mode, screen transition, and start of voice guidance are performed (step S85).
  • FIG. 19 is a detailed configuration block diagram of a visual function testing device 10A of a second embodiment.
  • the inspection unit 11A of the second embodiment can adjust the viewing angle, the inspection distance, and the like, and the inspection lights L11 to L18 (hereinafter referred to as infrared light (IR)).
  • the optical system units 21R and 21L and the optical system unit 21R corresponding to the left and right eyes, respectively, which guide the reflected light of the inspection light L to an eyeball camera to be described later.
  • a pair of IR illumination unit devices LDUR and LDUL that irradiate the eyeball of the subject who is the subject to be inspected via the optical system unit 21L.
  • the inspection unit 11A includes a pair of eyeball cameras (imaging cameras) 23R and 23L that mainly images the eyeball of the subject, a subject display 24 that displays various images for the subject, and an interface for audio data and video (image) data.
  • a multimedia interface (IF) 25 such as HDMI that operates, a sound / video separation unit 26 that performs sound / video separation of an output signal of the multimedia interface 25, a speaker unit 27 that performs sound output, and a control signal And a control interface (IF) 28 such as an input USB.
  • the operator unit 12 is also used as an MPU 31 for controlling the operator unit 12, a ROM 32 for storing control data including an operating system (OS) in a nonvolatile manner, and a working area for the MPU 31, and temporarily stores various data.
  • RAM 33 for storing data
  • flash memory 34 for storing various data in a nonvolatile manner and updatable
  • multimedia interface (IF) 35 such as HDMI for interface operation of audio data and video (image) data
  • IF control interface
  • the operator unit 12 is connected via a multimedia interface 35 and functions as an operator display 37 that presents various information to the operator, a printer 38 that prints out various data, and a pointing device.
  • a mouse 39 for performing various operations, a keyboard 40 for performing various operations, and an external storage medium such as a USB memory and an IC card (for example, an SD card [registered trademark]) are connected to the subject.
  • an external recording medium connection unit 41 that records the inspection result data.
  • FIG. 20 is an explanatory diagram of LED arrangement positions in the IR illumination unit device of the second embodiment.
  • the IR illumination unit device LDUR and the IR illumination unit device LDUL have the same configuration, the IR illumination unit device LDUR will be described.
  • the IR illumination unit device LDUR of the second embodiment includes eight IR illumination devices LED11 to LED18.
  • the operation of the second embodiment will be described with reference to FIG. 8 again.
  • the MPU 31 of the operator unit 12 displays the subject display via the multimedia interface 35.
  • a gaze image GT for the subject to gaze with the right eye is displayed in the right-eye image display area of the screen (step S41).
  • the operator prompts the subject to gaze at the gaze image GT, and suppresses fluctuations in the position of the subject's visual axis (line of sight). Accordingly, the MPU 31 of the operator unit 12 calculates the optical axis of the right eye in a state where the change in the visual axis of the right eye is suppressed (step S42).
  • FIG. 21 is a process flowchart of an optical axis calculation process according to the second embodiment.
  • the MPU 31 of the operator unit 12 controls the IR illumination devices LED11 to LED18 via the control interface 36 and the control interface 28 to irradiate the inspection light L, respectively, and further controls the eyeball cameras 23R and 23L. Is imaged (step S91).
  • the MPU 31 calculates the average value of the corneal curvature centers using a plurality of sets of IR illumination devices (step S92).
  • FIG. 22 is a process flowchart of an average value calculation process of the corneal curvature center according to the second embodiment.
  • the MPU 31 of the operator unit 12 sets a parameter n for specifying the first IR illumination device to 1 which is an initial value (step S101).
  • the value of the parameter n corresponds to one of the IR illumination devices.
  • the MPU 31 sets a parameter m for specifying the second IR illumination device to an initial value n + 1 (step S102).
  • the value of the parameter m also corresponds to one of the IR illumination devices.
  • the MPU 31 performs determination to exclude from the optical axis calculation when the first IR illumination device and the second IR illumination device satisfy the measurement impossible condition (step S103). Specifically, when the first IR illumination device and the second IR illumination device are arranged at a position of 180 ° with respect to each other, the position of the first IR illumination device, the position of the reflected image, and the optics of the camera.
  • the first plane including the center is theoretically equal to the second plane including the position of the second IR illumination device, the position of the reflected image, and the optical center of the camera, and the intersection line of the two planes can be specified. This is because it is impossible to determine where the corneal curvature center is.
  • an even number of IR illumination devices are provided and spaced apart from each other at an equal angle, so the current parameter m is 1 ⁇ 2 of the number Lnum of IR illumination devices.
  • the first IR illumination device and the second IR illumination device are not arranged at a position of 180 °, a position close to 180 ° (within ⁇ ⁇ ° range), for example, 180 ⁇ If it is arranged at a position within the range of 10 °, the measurement accuracy is lowered. Therefore, it is possible to exclude such a condition.
  • the MPU 31 of the operator unit 12 calculates the corneal curvature center described later using the nth IR illumination device LEDn and the mth IR illumination device LEDm (step S104).
  • FIG. 23 is a diagram for explaining the principle of the corneal curvature center and optical axis calculation method according to the second embodiment.
  • a corneal curvature sphere CNRC having a curvature equal to that of the cornea is assumed, the center of the corneal curvature is Ct, the radius of the corneal curvature sphere CNRC is R, and the optical center of the camera is Cm.
  • the reflection image position of the IR illumination device LEDn in the three-dimensional space is Pn
  • the reflection image position of the IIR illumination device LEDm in the three-dimensional space is Pm.
  • a plane including the position LEDn of the IR illumination device LEDn, the reflection image position Pn, and the optical center Cm of the camera is defined as PLn
  • a plane including the position LEDm of the IR illumination device LEDm, the reflection image position Pm, and the optical center Cm of the camera is defined.
  • an intersection line CLnm between the plane PLn and the plane PLm passes through the corneal curvature center Ct.
  • a unit vector from the optical center Cm of the camera to the center of curvature Ctnm of the cornea on the intersection line CLnm is Vc
  • a unit vector from the optical center Cm of the camera to the reflected image position Pn on the plane PLn is Vn
  • the plane PLm A unit vector from the optical center Cm of the camera to the reflected image position Pm is defined as Vm.
  • f be a vector from the reflection image position Pn to the corneal curvature center Ctnm on the plane PLn
  • g be a vector from the reflection image position P2 to the corneal curvature center Ct on the plane PL2.
  • a corneal curvature center Ct exists at a position obtained by multiplying the unit vector Vc by a constant t0 (t0 is a positive real number). Therefore, in the following description, the corneal curvature center at the stage where the constant t0 is unknown is set as the first assumed corneal curvature center Ct1_nm.
  • the reflected image position Pn exists at a position obtained by multiplying the unit vector Vn by a constant t1 (t1 is a positive real number). In the second embodiment, n is any one of 1 to 8.
  • the reflected image position Pm exists at a position obtained by multiplying the unit vector Vm by a constant t2 (t2 is a positive real number).
  • m 1 to 8 and m ⁇ n. ) (4)
  • the reflected image position Pn and the reflected image position Pm exist at a position of the corneal curvature radius R from the corneal curvature center Ctnm.
  • the MPU 31 of the operator unit 12 calculates the reflected image position P1 and the reflected image position P2 with the radius R of the corneal curvature sphere CNRC as a predetermined value based on the image captured in step S91.
  • the MPU 31 of the operator unit 12 calculates the plane PLn including the position LEDn of the IR illumination device LEDn, the reflected image position Pn, and the optical center Cm of the camera corresponding to the current value of n, and the current value of m.
  • a plane PLm including the position LEDm of the IR illumination device LEDm, the reflected image position Pm, and the optical center Cm of the camera corresponding to is calculated.
  • the MPU 31 of the operator unit 12 calculates an intersection line between the two planes PLn and PLm from the plane PLn (an expression representing) and the plane PLm (an expression representing).
  • the MPU 31 of the operator unit 12 calculates the unit vector Vn from the above-described reflected image position Pn, and acquires the vector f from the calculated unit vector Vn, the reflected image position Pn, and the position LED1 of the IR illumination device LEDn.
  • the MPU 31 of the operator unit 12 calculates the unit vector Vm from the reflection image position Pm described above, and acquires the vector g from the calculated unit vector Vm, the reflection image position Pm, and the position LEDm of the IR illumination device LEDm.
  • the MPU 31 of the operator unit 12 calculates the constant t0 by estimating the position of the corneal curvature center Ct_nm.
  • the MPU 31 of the operator unit 12 assumes a first straight line LNn along the direction of the vector f from the reflected image position Pn and a second straight line LNm along the direction of the vector g from the reflected image position Pm.
  • LNn and straight line LNm or the closest point from both two straight lines [nearest point]) is calculated, and this is set as the second hypothetical corneal curvature center Ct2_nm.
  • the constant t0 may be calculated so that the following equation is minimized.
  • the constant t0 is calculated according to the above principle.
  • the MPU 31 of the operator unit 12 calculates a unit vector Vc based on the intersection line between the two planes PLn and PLm.
  • Vc1 ⁇ (LEDn ⁇ Cm) ⁇ (PPn ⁇ Cm) ⁇ ⁇ ⁇ (LEDm ⁇ Cm) ⁇ (PPm ⁇ Cm) ⁇
  • Vc Vc1 /
  • is the magnitude (scalar) of the vector Vc1.
  • the MPU 31 of the operator unit 12 calculates the unit vector Vn and the unit vector Vm from the optical center Cm, the position PPn, and the position PPm of the camera.
  • Vn (Cm-PPn) /
  • Vm (Cm-PPm) /
  • the reflected image position Pn is located at a position obtained by multiplying the unit vector Vn by a constant t1 with the optical center Cm of the camera as a base point, and the reflected image position Pm at a position obtained by multiplying the unit vector Vm by a constant t2 with the optical center Cm of the camera as a base point.
  • the reflected image position Pn and the reflected image position Pm are calculated on the assumption that the reflected image position Pn and the reflected image position Pm are located at a position of the corneal curvature radius R from the corneal curvature center Ct_nm.
  • the positive sign (+) side includes two spheres having a radius R centered on the corneal curvature center Ct_nm and a straight line passing through the optical center Cm of the camera and the reflected image position Pn. Since this corresponds to the intersection on the far side when viewed from the camera, the negative ( ⁇ ) side corresponding to the intersection on the near side when viewed from the camera is the constant t1 to be obtained.
  • the positive sign (+) side includes a sphere having a radius R centered on the corneal curvature center Ct_nm and a straight line passing through the optical center Cm of the camera and the reflected image position Pm. Since the two intersections correspond to the intersections on the back side as viewed from the camera, the negative ( ⁇ ) side corresponding to the intersections on the near side as viewed from the camera is the constant t2 to be obtained.
  • g Vm + (Pm ⁇ LEDm) /
  • the MPU 31 of the operator unit 12 assumes the first straight line LNn passing through the reflected image position Pn and along the direction of the vector f, and passes through the reflected image position Pm and passes through the second line along the direction of the vector g. Assuming a straight line LNm, an intersection of the straight line LNn and the straight line LNm (or a point closest to both of the two straight lines [nearest neighbor point]) is calculated, and this is set as a second assumed corneal curvature center Ct2_nm.
  • the first assumed corneal curvature center Ct1_nm and the second assumed corneal curvature center Ct2_nm should be equal to the corneal curvature center Ct_nm, respectively, the first assumed corneal curvature center Ct1_nm and the second assumed corneal curvature center Ct2_nm Using the difference as an evaluation value X, a constant t0 that minimizes the evaluation value X is calculated. That is, a constant t0 that satisfies the following equation is calculated.
  • step S106 m ⁇ Lnum + 1 If it is determined that it is (step S106; No), the MPU 31 shifts the process to step S103 again and repeats the above-described process. That is, for one parameter n value, the optical axis and the corneal curvature center are calculated for all the corresponding parameter m values.
  • step S106 Yes
  • step S108 n ⁇ Lnum + 1
  • the MPU 31 shifts the process to step S93 again, and repeats the above-described process. That is, for the new value of parameter n, the optical axis and the corneal curvature center are calculated for all corresponding values of parameter m.
  • the MPU 31 uses, as the corneal curvature center average value, the average value of the corneal curvature centers after removing the outliers from the corneal curvature centers calculated in step S104 (the average value of the corneal curvature center coordinates in the three-dimensional space). Calculate (step S110).
  • the MPU 31 of the operator unit 12 obtains the center point of the pupil based on the captured image of the eyeball camera 23R (step S93). Then, the obtained pupil center point is connected to the corneal curvature center average value Ct_nm calculated from the constant t0 and the unit vector Vc calculated by the above-described processing to calculate the optical axis of the eye (step S94).
  • the MPU 31 calculates the difference between the optical axis and the visual axis calculated in step S94 as a correction amount (optical axis correction amount) (step S43).
  • the MPU 31 makes the calculated optical axis coincide with the visual axis (line of sight) of the subject who is gazing at the gaze image GT, that is, the display position of the visual axis mark image GVA (calculated corneal curvature).
  • the MPU 31 corrects the calculated optical axis with the correction amount obtained in step S43, and estimates the subject's visual axis as needed (step S44).
  • the visual axis estimation accuracy can be improved, and a higher-precision inspection can be performed.
  • FIG. 24 is an explanatory diagram of LED arrangement positions in the LED unit of the first modified example of the second embodiment.
  • the difference between this modification and the second embodiment is that an odd number of IR illumination devices are arranged at the same angle on the circumference of a circle CCL on a plane that intersects the subject's visual axis (axis intersecting the paper surface). It is a point.
  • the optical axis position can be calculated even when any two IR illumination devices are selected.
  • the process of step S103 in FIG. 22 can be omitted and the process can be performed at a higher speed.
  • the first IR illumination device and the second IR illumination device are arranged at positions within a range of 180 ⁇ 10 °, the position and reflection of the first IR illumination device.
  • the first plane including the image position and the optical center of the camera and the second plane including the position of the second IR illumination device, the reflected image position and the optical center of the camera can be specified.
  • this is because the accuracy in specifying the intersecting line between the two planes is lowered, and the measurement accuracy of the corneal curvature center and thus the measurement accuracy of the optical axis is lowered. Therefore, it is possible to configure to exclude even in such a case.
  • a plurality of IR illumination devices are circles on a plane intersecting the visual axis of the subject. Although arranged at the same angle on the circumference, as long as the measurement inability condition or measurement accuracy is satisfied, a plurality of IR illumination devices are arranged at any angle on the circumference of a circle on a plane intersecting the visual axis of the subject. It is also possible to arrange them.
  • the IR illumination devices LED11 to LED18 are on the circumference of a circle on a plane that intersects the visual axis of the subject (the axis that intersects the paper surface). If there are three or more IR illumination devices and the three-dimensional arrangement position of each IR illumination device with respect to the optical center position of the camera is known, the position and reflection of the IR illumination device A plane including the image position and the optical center of the camera can be easily identified.
  • any one of the IR illumination devices has three or more on one plane intersecting the subject's visual axis or on a plurality of planes intersecting the subject's visual axis.
  • the IR illumination device when the orthogonal projection of each IR illumination device is projected on the same plane orthogonal to the visual axis, the IR illumination device may not be on the same circumference.
  • each IR illumination device when an orthogonal projection of each IR illumination device is projected on the same plane orthogonal to the visual axis, it is not necessary to arrange them at the same angle on the plane intersecting the visual axis.
  • each IR illumination device it is preferable to disperse and arrange so as to surround the visual axis when an orthogonal projection of each IR illumination device is projected on the same plane orthogonal to the visual axis.
  • one IR illumination device is arranged in each quadrant.
  • the visual function testing device has been described as an example as the first embodiment or the second embodiment.
  • the visual function for performing the visual function training using the display on the display for the subject The same applies to the training device.
  • a fusion training device that trains the fusion function, which is a glance, and a stereoscopic training that improves the ability of the eye by stereoscopic viewing (near vision training [so-called crossing method] and far vision training [so-called parallel method])
  • a stereoscopic training device, etc. that perform training, it is easy for the trainee to know which position the trainee actually performs as a gaze position and perform visual function training so that a further visual function training effect can be obtained.
  • Guidance can be performed.
  • the inspector (operator) in the above description may be read as a trainee, the subject as a trainee, the subject display as a trainee display, and the inspection process as appropriate as a training process. .
  • a square (graph paper shape) chart is used as the nine-direction eye position inspection chart.
  • a conventionally well-known curved nine-direction eye position inspection chart for projection is used. It is also possible to do so.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Rehabilitation Therapy (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Eye Examination Apparatus (AREA)
  • Rehabilitation Tools (AREA)

Abstract

実施形態の視機能検査装置は、被験者用表示装置と、オペレータ用表示装置とを、備えており、対象表示部は、被験者用表示装置に被験者の視認の対象画像を表示し、視軸推定部は、対象画像の視認時における被験者の視軸を推定し、位置表示部は、オペレータ用表示装置に検査対象画像の表示位置及び推定した視軸に対応する視点位置を表示するので、検査者が他覚的に被験者の注視状態を把握して確実に検査を行い、検査の信頼性を向上させる。

Description

視機能検査装置、視機能訓練装置及び方法
 本発明の実施形態は、視機能検査装置、視機能訓練装置及び方法に関する。
 従来様々な視機能を検査する検査装置が知られている。
 例えば、視機能検査としては、視力検査(片眼遮蔽検査及び両眼解放検査)、同時視検査、融像検査、立体視検査(近見検査及び遠見検査)、9方向眼位検査(Hess検査)、視野検査、選好注視法(Preferential looking method)検査、不等像検査等が挙げられる。
特許第4824420号公報
 しかしながら、いずれの検査においても、被験者の自覚的応答が必須とされており、検査者において被験者が実際にどの位置を注視位置として検査がなされているのかを把握することは困難であった。
 したがって、検査者が指示した注視位置を注視せずに検査が行われている可能性があり、検査の信頼性が確保できない虞があった。
 特に幼児等の検査を行う場合には、検査者の指示に従っているのかを確実に把握することは困難であった。
 また、視機能を訓練する視機能訓練装置においても被訓練者の自覚的応答が必須とされ、訓練者において被訓練者が実際にどの位置を注視位置として訓練を行っているのかを把握できず、有効な指導が行えないなど、同様の不具合があった。
 本発明は、上記に鑑みてなされたものであり、検査者が他覚的に被験者の注視状態を把握して確実に検査あるいは訓練を行い、検査の信頼性を向上させることが可能な視機能検査装置、訓練の信頼性を向上させることが可能な視機能訓練装置及び方法を提供することを目的としている。
 実施形態の視機能検査装置は、被験者用表示装置と、オペレータ用表示装置とを、備えている。
 対象表示部は、被験者用表示装置に被験者の視認の対象画像を表示する。
 視軸推定部は、対象画像の視認時における被験者の視軸を推定する。
 これにより、位置表示部は、オペレータ用表示装置に対象画像の表示位置及び推定した視軸に対応する視点位置を表示する。
 また、表示部は、前記オペレータ用表示装置に前記被験者の眼球映像を表示する。
 また、実施形態の視機能訓練装置は、被訓練者用表示装置と、オペレータ用表示装置とを、備えている。
 対象表示部は、被訓練者用表示装置に被訓練者の視認の対象画像を表示する。
 視軸推定部は、対象画像の視認時における被訓練者の視軸を推定する。
 これにより、位置表示部は、オペレータ用表示装置に対象画像の表示位置及び推定した前記視軸に対応する視点位置を表示する。
 表示部は、オペレータ用表示装置に被訓練者の眼球映像を表示する。
図1は、実施形態の視機能検査装置の概要構成ブロック図である。 図2は、第1実施形態の視機能検査装置の詳細構成ブロック図である。 図3は、視機能検査装置における検査手順の概要説明図である。 図4は、測定前準備の処理フローチャートである。 図5は、測定前準備の説明図である。 図6は、測定前準備時のオペレータ用ディスプレイの表示例の説明図である。 図7は、右目の視軸キャリブレーションの説明図である。 図8は、視軸推定処理の処理フローチャートである。 図9は、第1実施形態の光軸算出方法の原理説明図である。 図10は、第1実施形態の光軸算出処理の処理フローチャートである。 図11は、左目の視軸キャリブレーションの説明図である。 図12は、9方向眼位検査時の処理フローチャートである。 図13は、オペレータ用ディスプレイにおける右目の9方向眼位検査時の表示画面の一例の説明図(その1)である。 図14は、オペレータ用ディスプレイにおける右目の9方位眼位検査時の表示画面の一例の説明図(その2)である。 図15は、測定結果図形の表示例の説明図(その1)である。 図16は、測定結果図形の表示例の説明図(その2)である。 図17は、左右眼同時の視軸キャリブレーション処理の説明図である。 図18は、停留判定に伴うキャリブレーションの処理フローチャートである。 図19は、第2実施形態の視機能検査装置の詳細構成ブロック図である。 図20は、第2実施形態のLEDユニットにおけるLEDの配置位置の説明図である。 図21は、第2実施形態の光軸算出処理の処理フローチャートである。 図22は、第2実施形態の角膜曲率中心の平均値の算出処理の処理フローチャートである。 図23は、第2実施形態の角膜曲率中心及び光軸算出方法の原理説明図である。 図24は、第2実施形態の変形例のLEDユニットにおけるLEDの配置位置の説明図である。
 次に図面を参照して、好適な実施形態について説明する。
[1]第1実施形態
 図1は、実施形態の視機能検査装置の概要構成ブロック図である。
 視機能検査装置10は、大別すると被験者の検査を行うための検査ユニット11と、検査を行うための各種操作を行うオペレータが用いるオペレータ用ユニット12と、を備えている。
 検査ユニット11は、高さ調整可能な検査台13上に載置されている。この検査台13上には、被験者の顎を乗せる高さ調整可能な顎台14が設けられており、被験者の目の位置を検査台13と協働して検査ユニット11に対して最適な位置に調整可能となっている。
 オペレータ用ユニット12は、いわゆるパーソナルコンピュータとして構成されている。
 図2は、第1実施形態の視機能検査装置の詳細構成ブロック図である。
 検査ユニット11は、視野角、検査距離などを調整可能であるとともに、赤外光(IR)である検査光L1、L2(以下、両者を区別する必要が無い場合には、検査光Lと表記する)をそれぞれ所定の照射位置まで導くとともに、検査光Lの反射光を後述の眼球カメラに導く左右の眼それぞれに対応する光学系ユニット21R、21Lと、光学系ユニット21を介して検査光Lを検査対象者である被験者の眼球に照射する一対のIR照明装置LD1、LD2と、被験者の眼球を主として撮像する一対の眼球カメラ(撮像カメラ)23R、23Lと、を備えている。
 さらに検査ユニット11は、被験者用の各種画像を表示する被験者用ディスプレイ24と、音声データ及び映像(画像)データのインタフェース動作を行うHDMI[登録商標]等のマルチメディアインタフェース(IF)25と、マルチメディアインタフェース25の出力信号の音/映像の分離を行う音/映像分離部26と、音響出力を行うスピーカ部27と、制御用信号が入力されるUSB等の制御インタフェース(IF)28と、を備えている。
 オペレータ用ユニット12は、オペレータ用ユニット12を制御するMPU31と、オペレーティングシステム(OS)を含む制御用データを不揮発的に格納したROM32と、MPU31のワーキングエリアとしても用いられ、各種データを一時的に格納するRAM33と、各種データを不揮発的かつ更新可能に格納するフラッシュメモリ34と、音声データ及び映像(画像)データのインタフェース動作を行うHDMI等のマルチメディアインタフェース(IF)35と、を備えている。
 さらにオペレータユニット12は、制御用の各種インタフェース動作を行う制御インタフェース(IF)36と、マルチメディアインタフェース35を介して接続され、オペレータに対し様々な情報を提示するオペレータ用ディスプレイ37と、各種データのプリントアウトを行うプリンタ38と、ポインティングデバイスとして機能し、各種操作を行うためのマウス39と、各種操作を行うとともに、各種データを入力するためのキーボード40と、USBメモリ、ICカード(例えば、SDカード[登録商標])等の外部記憶媒体を接続し、被験者のデータを読み込んだり、検査結果データの記録を行う外部記録媒体接続部41と、を備えている。
 次に実施形態の視機能検査装置10における検査の大まかな流れについて説明する。
 以下の説明においては、視機能検査装置を9方向眼位検査装置として構成した場合を例として説明する。
 図3は、視機能検査装置における検査手順の概要説明図である。
 視機能検査装置10において検査を行う場合には、おおまかに以下のような手順で行う。
 まず、オペレータは、被験者が検査中に楽な姿勢でいられるように被験者に合わせて機材の設置調整を行う(ステップS11)。
 次に被験者に対する測定前準備を行う(ステップS12)。
 続いて、一方の眼(例えば、右目)の視軸を決定する第1視軸キャリブレーションを行う(ステップS13)。
 次に他方の眼(例えば、左目)の視軸を決定する第2視軸キャリブレーションを行う(ステップS14)。
 続いて、一方の眼(例えば、右目)の視機能検査(本実施形態では、9方向眼位検査)である第1視機能検査を行う(ステップS15)。
 さらに他方の眼(例えば、左目)の視機能検査である第2視機能検査を行う(ステップS16)。
 検査結果をオペレータ用ディスプレイあるいはプリントアウトとして提示する(ステップS17)。
 以下、各処理について詳細に説明する。
{1}設置調整
 まず、オペレータは、被験者である患者が検査中に無理のない姿勢を採れるように、顎台14及び検査台13の高さを大まかに調整する(ステップS11)。
{2}測定前準備
 次にオペレータは、マウス39あるいはキーボード40を操作し、測定前準備指示を行う。
 これによりオペレータ用ユニット12のMPU31は、マルチメディアインタフェース35及びマルチメディアインタフェース25を介して、検査ユニット11の被験者用ディスプレイ24に測定前準備画像を表示し、被験者である患者の顔の位置を検査に最適な状態とするための測定前準備を行う(ステップS12)。
 ここで、測定前準備について詳細に説明する。
 図4は、測定前準備の処理フローチャートである。
 図5は、測定前準備の説明図である。
 オペレータがマウス39を操作して測定前準備への移行の指示を行うと(ステップS21)、検査ユニット11の被験者用ディスプレイ24の表示画面24Dに左目用及び右目用の測定前準備画像(図形、文字を含む)GL、GRを表示する(ステップS22)。
 具体的には、図5に示すように、被験者用ディスプレイ24の表示画面24Dの左目用画像表示領域ARLの中央部には左目用の測定前準備画像GLが表示される。また、被験者用ディスプレイの表示画面24Dの右目用画像表示領域ARRの中央部には右目用の測定前準備画像GRが表示される。
 この場合において、左目用画像表示領域ARLは光学系ユニット21Lにより被験者の左目からのみ視認可能とされる。同様に、右目用画像表示領域ARRは光学系ユニット21Rにより被験者の右目からのみ視認可能とされている。
 そして、オペレータは、被験者が光学系ユニット21L、21Rを介してそれぞれの測定前準備画像GL、GRを注視するように指示をだすとともに、測定前準備の実行をマウス39あるいはキーボード40によりオペレータ用ユニット12に指示をする(ステップS23)。
 図6は、測定前準備時のオペレータ用ディスプレイの表示例の説明図である。
 この結果、オペレータ用ユニット12のMPU31は、オペレータ用ディスプレイ37に被験者用ディスプレイ24の表示内容を表示する。また、MPU31は、被験者の左目を左目用の眼球カメラ23Lで撮影した画像を左眼球表示領域EBLに表示する。同様にMPU31は、被験者の右目を右目用の眼球カメラ23Rで撮影した画像を右眼球表示領域EBRに表示する。
 そして、眼球カメラ23Lで撮影した画像及び右目用の眼球カメラ23Rで撮影した画像に基づいて、眼球の位置を検出する(ステップS24)。
 これにより、オペレータ用ユニット12のMPU31は、瞳孔中心の上下方向の位置が各カメラ23R、23Lの光軸に対して適正な位置(カメラ23R、23Lの光軸がほぼ瞳孔中心を通っている位置)にあるか否かを判別する(ステップS25)。
 ステップS25の判別において、瞳孔中心が眼球カメラ23L、23Rの光軸に対応する中心位置よりも下方に位置している場合には(ステップS25;下方)、MPU31の制御により、図6(A)に示すように、オペレータ用ディスプレイ37の表示画面37Dの左眼球表示領域EBLには、被験者の左目の眼球画像が表示される。一方、右眼球表示領域EBRには、被験者の右目の眼球画像が表示され、さらに左眼球表示領域EBLと右眼球表示領域EBRとの間の量域には、顎台14の高さを高くする方向に調整することを指示する上方向調整指示マークAUが表示される(ステップS26)。
 したがって、オペレータは、顎台14の高さを高くする方向に調整することとなる(ステップS27)。
 なお、顎台14の高さ調整だけでは、調整ができない場合には、検査台13の高さを調整するようにすることも可能である。この場合において、瞳孔中心に対してカメラ23R、23Lの光軸が上に位置しているので、検査台13の高さは低くする方向に調整することとなる。
 続いて、オペレータ用ユニット12のMPU31は、再び処理をステップS24に移行し、以下、上述した手順を繰り返す。
 また、ステップS25の判別において、瞳孔中心が眼球カメラ23L、23Rの光軸に対応する中心位置よりも上方に位置している場合には(ステップS25;上方)、MPU31の制御により、図6(B)に示すように、顎台14の高さを低くする方向に調整することを指示する下方向調整指示マークADがオペレータ用ディスプレイ37に表示される(ステップS28)。
 したがって、オペレータは、顎台14の高さを低くする方向に調整することとなる(ステップS29)。
 なお、顎台14の高さ調整だけでは、調整ができない場合には、検査台13の高さを調整するようにすることも可能である。この場合において、瞳孔中心に対してカメラ23R、23Lの光軸が下に位置しているので、検査台13の高さは高くする方向に調整することとなる。
 続いて、オペレータ用ユニット12のMPU31は、再び処理をステップS24に移行し、以下、上述した手順を繰り返す。
 これらに対し、ステップS25の判別において、瞳孔中心が眼球カメラ23L、23Rの光軸に対応する中心位置付近に位置している場合には(ステップS25;適正)、MPU31の制御により、測定前準備が完了したことを示す画像、図6(C)の場合、「OK」マークMKがオペレータ用ディスプレイ37に表示されるので(ステップS30)、実際の検査手順に移行する。
{3}第1視軸キャリブレーション
 以下の説明においては、第1視軸キャリブレーションとして、右目の視軸キャリブレーションを行うものとする。
 図7は、右目の視軸キャリブレーションの説明図である。
 図8は、実施形態の視軸推定処理の処理フローチャートである。
 オペレータがキーボードあるいはマウスを操作することにより、右目の視軸のキャリブレーションを指示すると、オペレータ用ユニット12のMPU31は、マルチメディアインタフェース35を介して被験者用ディスプレイの表示画面の右目用画像表示領域に、図7(A)に示すように、被験者が右目で注視するための注視用画像GTを表示する(ステップS41)。
 このとき、オペレータは、被験者に注視用画像GTを注視するように促し、被験者の視軸(視線)の位置の変動を抑制する。
 これに伴い、オペレータ用ユニット12のMPU31は、右目の視軸の変動が抑制された状態で右目の光軸算出を行う(ステップS42)。
 ここで、図面を参照して第1実施形態の光軸算出方法について詳細に説明する。
 図9は、第1実施形態の光軸算出方法の原理説明図である。
 図9において、角膜と等しい曲率を有する角膜曲率球CNRCを仮定し、その角膜曲率中心をCtとし、角膜曲率球CNRCの半径をRとし、カメラの光学中心をCmとする。
 また、第1のLED及び第2のLEDをそれぞれ点光源と見なして、IR照明装置LD1の位置をLED1とし、IR照明装置LD2の位置をLED2とする。
 さらにIR照明装置LD1の三次元空間上の反射像位置をP1とし、IR照明装置LD2の三次元空間上の反射像位置をP2とする。
 このとき、IR照明装置LD1の位置LED1、反射像位置P1及びカメラの光学中心Cmを含む平面をPL1とし、IR照明装置LD2の位置LED2、反射像位置P2及びカメラの光学中心Cmを含む平面をPL2とした場合、平面PL1と平面PL2の交線CLは、角膜曲率中心Ctを通る。
 そこで、交線CL上においてカメラの光学中心Cmから角膜の曲率中心Ctへ向かう単位ベクトルをv0とし、平面PL1上でカメラの光学中心Cmから反射像位置P1へ向かう単位ベクトルをv1とし、平面PL21上でカメラの光学中心Cmから反射像位置P2へ向かう単位ベクトルをv2とする。
 さらに平面PL1上で反射像位置P1から角膜曲率中心Ctに向かうベクトルをf、平面PL2上で反射像位置P2から角膜曲率中心Ctに向かうベクトルをgとする。
 上記条件から次のことが成立する。
(1) 単位ベクトルv0を定数t0(t0は、正の実数)倍した位置に角膜曲率中心Ctが存在する。そこで、以下の説明においては、定数t0が不明な段階における角膜曲率中心を第1仮定角膜曲率中心Ct1とする。
(2) 単位ベクトルv1を定数t1(t1は、正の実数)倍した位置に反射像位置P1が存在する。
(3) 単位ベクトルv2を定数t2(t2は、正の実数)倍した位置に反射像位置P2が存在する。
(4) 反射像位置P1及び反射像位置P2は、角膜曲率中心Ctから角膜曲率半径Rの位置に存在する。
 図10は、光軸算出処理の処理フローチャートである。
 まず、オペレータ用ユニット12のMPU31は、制御インタフェース36及び制御インタフェース28を介してIR照明装置LD1及びIR照明装置LD2を制御して、検査光Lをそれぞれ照射させ、さらに眼球カメラ23R、23Lを制御して眼球の撮像を行う(ステップS51)。
 続いてオペレータ用ユニット12のMPU31は、角膜曲率球CNRCの半径Rを所定値とし、反射像位置P1及び反射像位置P2を算出する。
 そして、オペレータ用ユニット12のMPU31は、IR照明装置LD1の位置LED1、反射像位置P1及びカメラの光学中心Cmを含む平面PL1を算出する。さらにMPU31は、IR照明装置LD2の位置LED2、反射像位置P2及びカメラの光学中心Cmを含む平面PL2を算出する(ステップS52)。
 続いてオペレータ用ユニット12のMPU31は、平面PL1(を表す式)及び平面PL2(を表す式)から、二つの平面の交線を算出する(ステップS53)。
 さらにオペレータ用ユニット12のMPU31は、上述した反射像位置P1から単位ベクトルv1を算出し、算出した単位ベクトルv1と、反射像位置P1及びIR照明装置LD1の位置LED1からベクトルfを取得する。
 さらにまたオペレータ用ユニット12のMPU31は、上述した反射像位置P2から単位ベクトルv2を算出し、算出した単位ベクトルv2と、反射像位置P2及びIR照明装置LD2の位置LED2からベクトルgを取得する。
 次にオペレータ用ユニット12のMPU31は、角膜曲率中心の位置を推定して定数t0を算出する(ステップS54)。
 まず、オペレータ用ユニット12のMPU31は、反射像位置P1からベクトルfの向きに沿った第1の直線LN1及び反射像位置P2からベクトルgの向きに沿った第2の直線LN2を仮定し、直線LN1と直線LN2の交点(もしくは、2直線の双方から最も近い点[最近傍点])を算出し、これを第2仮定角膜曲率中心Ct2とする。
 この場合において、第1仮定角膜曲率中心Ct1と、第2仮定角膜曲率中心Ct2は、実際は等しいはずであるので、次式が最小となるように、定数t0を算出すればよい。
    |Ct1-Ct2|
 以下、上記原理に沿って、定数t0を算出する。
 まず、オペレータ用ユニット12のMPU31は、二つの平面PL1、PL2の交線に基づいて、単位ベクトルv0を算出する。
 具体的には、単位ベクトルv0と同じ向きのベクトルv01を仮定すると、次式が成り立つ。
    v01={(LED1-Cm)×(PP1-Cm)}
            ×{(LED2-Cm)×(PP2-Cm)}
 ここで、PP1は、反射像位置P1のカメラの撮像センサ上の位置であり、PP2は、反射像位置P2のカメラの撮像センサ上の位置である。
 そして、単位ベクトルv0は、次式で表せる。
    v0=v01/||v01||
 ここで、||v01||は、ベクトルv01の大きさ(スカラー)である。
 次にオペレータ用ユニット12のMPU31は、単位ベクトルv1及び単位ベクトルv2を、カメラの光学中心Cm、位置PP1及び位置PP2から算出する。
    v1=(Cm-PP1)/||Cm-PP1||
    v2=(Cm-PP2)/||Cm-PP2||
 そしてカメラの光学中心Cmを基点として単位ベクトルv0を定数t0倍した位置に角膜曲率中心Ctに対応する第1仮定角膜曲率中心Ct1が位置しているはずであるので、次式が成り立つ。
    Ct1=t0・v0+Cm
 また、カメラの光学中心Cmを基点として単位ベクトルv1を定数t1倍した位置に反射像位置P1が位置し、カメラの光学中心Cmを基点として単位ベクトルv2を定数t2倍した位置に反射像位置P2が位置しており、反射像位置P1及び反射像位置P2は、角膜曲率中心Ctから角膜曲率半径Rの位置に位置しているという前提で反射像位置P1及び反射像位置P2を算出する。
 より詳細には、以下の通りとなる。
    P1=t1・v1+Cm
とすると、
    R=||t0・v0||+||t1・v1||
                  -2・t0・t1・v0・v1
であるから、
   t1=t0・v0・v1±√{(||v0・v1||-1)・t0+R
となる。
 ここで、復号(±)のうち、正号(+)側は、角膜曲率中心Ctを中心とする半径Rの球と、カメラの光学中心Cm及び反射像位置P1を通る直線と、の二つの交点のうちカメラから見て奥側の交点に相当するので、カメラから見て手前側の交点に相当する負号(-)側が求める定数t1である。
同様にして、
    P2=t2・v2+Cm
とすると、
    R=||t0・v0||+||t2・v2||
                  -2・t0・t2・v0・v2
であるから、
   t2=t0・v0・v2±√{(||v0・v2||-1)・t0+R
となる。
 この場合においても、復号(±)のうち、正号(+)側は、角膜曲率中心Ctを中心とする半径Rの球と、カメラの光学中心Cm及び反射像位置P2を通る直線と、の二つの交点のうちカメラから見て奥側の交点に相当するので、カメラから見て手前側の交点に相当する負号(-)側が求める定数t2である。
 続いて、ベクトルf及びベクトルgを求める。
 単位ベクトルv1と反射像位置P1及び第1のLED位置LED1との関係、並びに、単位ベクトルv2と反射像位置P2及び第2のLED位置LED2との関係より次の式を得ることができる。
   f=v1+(P1-LED1)/||P1-LED1||
   g=v2+(P2-LED2)/||P2-LED2||
 つづいて、オペレータ用ユニット12のMPU31は、反射像位置P1を通り、ベクトルfの向きに沿った第1直線LN1を仮定するとともに、反射像位置P2を通り、ベクトルgの向きに沿った第2直線LN2を仮定し、直線LN1と直線LN2の交点(もしくは、2直線の双方から最も近い点[最近傍点])を算出し、これを第2仮定角膜曲率中心Ct2とする。
Figure JPOXMLDOC01-appb-M000001
 この場合において、第1仮定角膜曲率中心Ct1及び第2仮定角膜曲率中心Ct2は、それぞれ角膜曲率中心Ctに等しいはずである。したがって、第1仮定角膜曲率中心Ct1と第2仮定角膜曲率中心Ct2との差を評価値Xとして評価値Xが最小となる定数t0を算出する。
 すなわち、次式を満たす定数t0を算出する。
Figure JPOXMLDOC01-appb-M000002
 定数t0が算出されると、オペレータ用ユニット12のMPU31は、眼球カメラ23Rの撮像画像に基づいて瞳孔の中心点を求める(ステップS55)。
 そして、MPU31は、瞳孔の中心点と、定数t0及び単位ベクトルv0により算出される角膜曲率中心Ctと、を結んで右目の光軸として算出する(ステップS56)。
 次に再び図7及び図8を参照して処理を説明する。
 上述したように、被験者が右目で注視するための注視用画像GTを表示し(ステップS41)、右目の光軸算出がなされると、オペレータ用ユニット12のMPU31は、ステップS56で算出した光軸と視軸との差を補正量として算出する(ステップS43)。
 より詳細には、オペレータ用ユニット12のMPU31は、算出した光軸の位置が注視用画像GTを注視している被験者の視軸(視線)と一致するように、算出した光軸位置と被験者の視軸[視線]位置との差を補正量として算出する。すなわち、MPU31は、視軸マーク画像GVAの表示位置(算出した光軸位置に相当)が注視用画像GT(被験者の視軸[視線]位置に相当)と一致するように、算出した光軸位置と被験者の視軸[視線]位置との差を補正量として算出することとなる。
 この結果、図7(C)に示すように、オペレータ用ディスプレイ37には、キャリブレーションがなされた後の画像が表示される。すなわち、オペレータ用ディスプレイ37に視軸マーク画像GVAの表示位置が注視用画像GTの表示位置に一致した画面が表示されることとなる。
 この状態においてオペレータは、視軸マーク画像GVAの表示位置が注視用画像GTの表示位置に一致しているか否かを判別し、視軸算出時のパラメータが最適化されておらず視軸マーク画像GVAの表示位置が注視用画像GTの表示位置に一致していない場合には、再び同様のキャリブレーションを行うように指示をする。
 そして、キャリブレーションが完了すると、これ以降、オペレータ用ユニット12のMPU31は、光軸の算出を随時行うとともに、算出された光軸をステップS43で得られた補正量で補正して、被験者の視軸を随時推定することとなる(ステップS44)。
 したがって、随時推定した右目の視軸に基づいて、オペレータ用ユニット12のMPU31は、オペレータ用ディスプレイ37に推定した視軸の位置に相当する位置に随時、視軸マーク画像GVAを表示することとなる。
 この場合において、視軸マーク画像GVAが所定時間、所定範囲内に停留していた場合には、当該停留位置が注視位置であるとして視軸マーク画像GVAの表示位置(算出した光軸位置)が注視用画像GT(被験者の視軸[視線])に一致するようにキャリブレーションがなされるようにしてもよい。
{4}第2視軸キャリブレーション
 視軸マーク画像GVAの表示位置が注視用画像GTの表示位置に一致しており、右目の視軸のキャリブレーション、すなわち、第1視軸のキャリブレーションが完了した場合には、同様にして、第2視軸キャリブレーションとして、第2視軸としての左目の視軸のキャリブレーションを行う。以下においては、再び図8を参照して説明を行う。
 図11は、左目の視軸キャリブレーションの説明図である。
 オペレータがキーボードあるいはマウスを操作することにより、左目視軸の決定処理を指示すると、オペレータ用ユニット12のMPU31は、マルチメディアインタフェース35及びマルチメディアインタフェース25及び音/映像分離部26を介して被験者用ディスプレイ24の表示画面の左目用画像表示領域ARLに、図11(A)に示すように、被験者が左目で注視するための注視用画像GTを表示する(ステップS41)。
 このとき、オペレータは、被験者に注視用画像GTを注視するように促し、被験者の視軸(視線)の位置の変動を抑制する。
 これに伴い、オペレータ用ユニット12のMPU31は、左目の視軸の変動が抑制された状態で左目の光軸算出を行う(ステップS42)。
 左目の光軸が算出されると、オペレータ用ユニット12のMPU31は、オペレータ用ディスプレイ37の表示画面37Dに推定した光軸の位置を視軸マーク画像GVAの表示位置として表示する。
 そして図11(B)に示すように注視用画像GTと視軸マーク画像GVAとが不一致している場合には、オペレータは、マウスを操作し、キャリブレーションの指示を行う。これにより、オペレータ用ユニット12のMPU31は、視軸マーク画像GVAが注視用画像GTに一致するようにキャリブレーションを実行する(ステップS43)。
 そして、キャリブレーションが完了すると、これ以降、MPU31は、光軸の算出を随時行うとともに、算出された光軸をステップS43で得られた補正量で補正して、被験者の視軸を随時推定することとなる(ステップS44)。
 この場合においても、視軸マーク画像GVAが所定時間、所定範囲内に停留していた場合には、オペレータ用ユニット12のMPU31は、当該停留位置が注視位置であるとして視軸マーク画像GVAの表示位置(算出した光軸位置)が注視用画像GT(被験者の視軸[視線])に一致するようにキャリブレーションを実行するようにしてもよい。
{5}視機能検査
 続いて、視機能検査として9方位眼位検査(Hess検査)を行う場合の処理について説明する。
 図12は、9方位眼位検査時の処理フローチャートである。
{5.1}第1視機能検査
 右目及び左目の視軸キャリブレーションが終了すると、オペレータは、マウスあるいはキーボードを介してまずは右目の9方位眼位検査の開始を指示する(ステップS71)。
 図13は、オペレータ用ディスプレイにおける右目の9方向眼位検査時の表示画面の一例の説明図(その1)である。
 右目の9方位眼位検査の開始が指示されると、オペレータ用ユニット12のMPU31は、被験者用ディスプレイ24の左目画像表示領域の9方向眼位検査用チャート(Hessチャート)の中心の測定点MP1に相当する位置に注視用画像GT1を表示し、右目画像表示領域の一面に任意の色を表示する(ステップS72)。
 このように被験者用ディスプレイ24の表示画面24Dには、9方位眼位検査用チャートが表示されずに注視用画像GT1のみが表示されているので、従来のように9方位眼位検査用チャート上の測定点を注視してもらう場合と比較して被験者は他に注意を引かれることなくテストに集中することができ、より測定精度の向上が図れる。
 この状態でオペレータは、被験者に注視用画像GT1を注視するように指示を行う。
 オペレータ用ディスプレイ37の表示画面37の左画像表示領域HCLには、9方位眼位検査用チャート、注視位置特定画像TMP及び左目の注視位置画像MML1が表示され、右画像表示領域には、9方位眼位検査用チャート、注視位置特定画像TMP及び被験者の右目の注視位置画像MMR1が表示されている。
 さらにオペレータ用ディスプレイ37の表示画面37Dの下部の左眼球表示領域EBL及び右眼球表示領域EBRには、被験者の眼球の撮像画像が表示される。
 これらと並行してオペレータ用ユニット12のMPU31は、左目の注視位置画像MML1及び右目の注視位置画像MMR1の中心位置が所定の停留時間、所定の停留範囲内にとどまっているか否かの停留判定を行い、停留していたと判定された場合には、測定点MP1に相当する測定データとして取得し、測定マークとして、注視位置画像MML1、MMR1と同一の画像(あるいは所定の測定マーク画像)を表示することとなる(ステップS73)。
 測定点MP1に相当する測定データの取得が完了すると、オペレータ用ユニット12のMPU31は、全ての測定点(=MP1[第1回目]~MP9、MP1[第2回目])の測定が完了したか否かを判別する(ステップS74)。
 ステップS74の判別において、現時点では、測定が完了していないので、オペレータ用ユニット12のMPU31は、15°の測定点MP2を次の測定点として設定し、処理を再びステップS72に移行し、同様に測定データを取得する。
 図14は、オペレータ用ディスプレイにおける右目の9方位眼位検査時の表示画面の一例の説明図(その2)である。
 オペレータ用ディスプレイ37の表示画面37の左画像表示領域HCLには、9方位眼位検査用チャート、注視位置特定画像TMP及び左目の注視位置画像MML2が表示されている。また、オペレータ用ディスプレイ37の表示画面37の右画像表示領域には、9方位眼位検査用チャート、注視位置特定画像TMP及び被験者の右目の注視位置画像MMR2が表示されている。
 さらにオペレータ用ディスプレイ37の表示画面37Dの下部の左眼球表示領域EBL及び右眼球表示領域EBRには、被験者の眼球の撮像画像が表示される。
 これらと並行してオペレータ用ユニット12のMPU31は、左目の注視位置画像MML2及び右目の注視位置画像MMR2の中心位置が所定の停留時間、所定の停留範囲内にとどまっているか否かの停留判定を行い、停留していたと判定された場合には、測定点MP2に相当する測定データとして取得し、測定マークMML2を表示することとなる。
 測定点MP2に相当する測定データの取得が完了すると、オペレータ用ユニット12のMPU31は、15°の測定点MP3~MP9についても同様に測定データを取得する(ステップS72~S74)。
 そして、オペレータ用ユニット12のMPU31は、測定点MP9の測定データの取得が完了すると、再び測定点MP1に注視用画像GT1を表示して同様に測定データを取得する。
 そして、ステップS74の判別において、測定が完了したと判別すると(ステップS74;Yes)、オペレータ用ユニット12のMPU31は、測定点MP1(第1回目測定分)→測定点MP2→…測定点MP9→測定点MP1(第2回目測定分)を順次直線で結んだ測定結果図形を表示する(ステップS76)。
 この場合において、測定点MP1の第1回目測定分と、測定点MP1の第2回目測定分と、が所定の閾値差以上異なっている場合には、要再検査として再度検査を行う。
 ここで、オペレータ用ユニット12のMPU31は、オペレータ用ディスプレイ37の表示画面に軽度の麻痺などにより異常が十分に検出されていないか否かを問い合わせる画面を表示し、異常が十分に検出されていないとされた場合には、さらにオペレータ用ユニット12のMPU31は、30°の測定点についても15°の測定点MP1~MP9と同様のデータを取得することとなる。
{5.2}第2視機能検査
 第1視機能検査としての右目の9方位眼位検査が終了すると、オペレータは、第1視機能検査と同様の手順で第2視機能検査としての左目の9方位眼位検査の開始を指示し(ステップS71)、上述したステップS72~ステップS76の手順と同様にして、第2視機能検査としての左目の9方位眼位検査が終了する
{6}検査結果提示
 図15は、測定結果図形の表示例の説明図(その1)である。
 測定点MP1の第1回目測定分と、測定点MP1の第2回目測定分と、が所定の閾値差以内で収まっている場合には、測定結果は信頼性があるものとして、オペレータ用ユニット12のMPU31は、測定点MP1(第1回目測定分)→測定点MP2→…測定点MP9→測定点MP1(第2回目測定分)を順次直線で結んだ測定結果図形を表示する。
 より具体的には、図15の例の場合、オペレータ用ディスプレイ37の表示画面37Dの左側には左目に対応する左目9方位眼位検査結果画面HCLRが表示される。同様に、オペレータ用ディスプレイ37の表示画面37Dの右側には右目に対応する右目9方位眼位検査結果画面HCRRが表示される。
 図15に示す表示例によれば、従来の紙の9方位眼位検査結果と同様の表示がなされており、これをプリンタ38によりプリントアウトすれば、従来と同様のチャートを得ることが可能となる。
 図16は、測定結果図形の表示例の説明図(その2)である。
 図15の場合においては、両眼の9方位眼位検査結果を視覚的に比較するのは容易ではない。しかしながら、図16に示すように、両眼の9方位眼位検査結果を一つの両眼9方位眼位検査結果画面HCRAに表示することにより、容易に比較することが可能となる。
 以上の説明のように、本第1実施形態によれば、検査者であるオペレータが被験者が実際にどの位置を注視位置として検査がなされているのかを把握することが容易となる。したがって、検査者が指示した注視位置を確実に注視させて検査を行うことができ、検査の信頼性を容易に確保できる。
 これらの結果、幼児等の検査を行う場合であっても、被験者がオペレータの指示に従っているのかを確実に把握できる。
[1.1]第1実施形態の変形例
 以上の説明においては、視軸のキャリブレーションを左右の眼で別個に行っていたが、本変形例は、左右眼同時で視軸キャリブレーションを行う場合のものである。
 図17は、左右眼同時の視軸キャリブレーション処理の説明図である。
 オペレータがキーボードあるいはマウスを操作することにより、右目視軸の決定処理を指示すると、オペレータ用ユニット12のMPU31は、図17(A)に示すように、マルチメディアインタフェース35、マルチメディアインタフェース25及び音/映像分離部26を介して被験者用ディスプレイ24の表示画面24Dの右目用画像表示領域ARRに、被験者が右目で注視するための注視用画像GTRを表示し、左目用画像表示領域ARLに、被験者が左目で注視するための注視用画像GTLを表示する。
 このとき、オペレータは、被験者に注視用画像GTR、GTLを注視するように促す。
 これにより、オペレータ用ユニット12のMPU31は、右目及び左目の視軸推定を行う。
 したがって、推定した右目及び左目の視軸に基づいて、オペレータ用ユニット12のMPU31は、オペレータ用ディスプレイ37に視軸の位置を視軸マーク画像GVAR、GVALとして表示することとなる。
 そしてオペレータ用ユニット12のMPU31は、図17(B)に示すように注視用画像GTRと視軸マーク画像GVARとが不一致している場合には、オペレータがマウスを操作し、キャリブレーションの指示を行うと、図17(C)に示すように、視軸マーク画像GVARが注視用画像GTRに一致するようにキャリブレーションがなされる。
 同様にオペレータ用ユニット12のMPU31は、図17(B)に示すように注視用画像GTLと視軸マーク画像GVALとが不一致している場合には、オペレータがマウスを操作し、キャリブレーションの指示を行うと、図17(C)に示すように、視軸マーク画像GVALが注視用画像GTLに一致するようにキャリブレーションがなされる。
 以上の説明のように本変形例によれば、両眼について同時に視軸のキャリブレーションを行うことができ、検査時間の短縮に貢献することができる。
 以上の説明においては、注視用画像と視軸マーク画像とが不一致している場合には、オペレータがマウスを操作し、キャリブレーションの指示を行うことにより、視軸マーク画像が注視用画像に一致するようにキャリブレーションがなされるように構成していた。しかしながら、視軸マーク画像が所定時間、所定範囲内に停留していた場合には、オペレータ用ユニット12のMPU31が、当該停留位置が注視位置であるとして視軸マーク画像が注視用画像に一致するようにキャリブレーションがなされるようにすることも可能である。
 図18は、停留判定に伴うキャリブレーションの処理フローチャートである。
 まずオペレータあるいはオペレータ用ユニット12のMPU31は、停留判定条件を設定する(ステップS81)。
 停留判定条件としては、停留範囲の大きさ、停留時間などが挙げられる。
 停留判定条件が設定されると、オペレータ用ユニット12のMPU31は、推定した被験者の視軸に基づいて被験者の注視位置を検出する(ステップS82)。
 続いてオペレータ用ユニット12のMPU31は、注視位置の停留状態を検出する(ステップS83)。
 次にオペレータ用ユニット12のMPU31は、注視位置が停留判定条件に設定された停留範囲に所定の停留時間以上停留したか否かを判別する(ステップS84)。
 ステップS84の判別において、注視位置が停留判定条件に設定された停留範囲に停留していないか、あるいは、停留範囲に停留したが所定の停留時間未満の停留しかしていない場合には(ステップS84;No)、再び処理をステップS82に移行して、上述した処理を行う。
 ステップS84の判別において、注視位置が停留判定条件に設定された停留範囲に所定の停留時間以上停留した場合には(ステップS84;Yes)、検出状態に応じた動作、例えば、注視点のデータを取得したり、動作モードを遷移させたり、画面遷移を行ったり、音声ガイドなどを開始するなどの動作を行う(ステップS85)。
 したがって、本変形例によれば、オペレータが操作を行わなくても所定の処理を行わせることができ、視機能検査におけるオペレータの負担軽減などをはかることができる。
[2]第2実施形態
 図19は、第2実施形態の視機能検査装置10Aの詳細構成ブロック図である。
 第2実施形態の検査ユニット11Aは、視野角、検査距離などを調整可能であるとともに、赤外光(IR)である検査光L11~L18(以下、これらを区別する必要が無い場合には、検査光Lと表記する)をそれぞれ所定の照射位置まで導くとともに、検査光Lの反射光を後述の眼球カメラに導く左右の眼それぞれに対応する光学系ユニット21R、21Lと、光学系ユニット21Rあるいは光学系ユニット21Lを介して検査光Lを検査対象者である被験者の眼球に照射する一対のIR照明ユニット装置LDUR、LDULと、を備えている。
 さらに検査ユニット11Aは、被験者の眼球を主として撮像する一対の眼球カメラ(撮像カメラ)23R、23Lと、被験者用の各種画像を表示する被験者用ディスプレイ24と、音声データ及び映像(画像)データのインタフェース動作を行うHDMI等のマルチメディアインタフェース(IF)25と、マルチメディアインタフェース25の出力信号の音/映像分離を行う音/映像分離部26と、音響出力を行うスピーカ部27と、制御用信号が入力されるUSB等の制御インタフェース(IF)28と、を備えている。
 また、オペレータ用ユニット12は、オペレータ用ユニット12を制御するMPU31と、オペレーティングシステム(OS)を含む制御用データを不揮発的に格納したROM32と、MPU31のワーキングエリアとしても用いられ、各種データを一時的に格納するRAM33と、各種データを不揮発的かつ更新可能に格納するフラッシュメモリ34と、音声データ及び映像(画像)データのインタフェース動作を行うHDMI等のマルチメディアインタフェース(IF)35と、制御用の各種インタフェース動作を行う制御インタフェース(IF)36と、を備えている。
 さらにオペレータユニット12は、マルチメディアインタフェース35を介して接続され、オペレータに対し様々な情報を提示するオペレータ用ディスプレイ37と、各種データのプリントアウトを行うプリンタ38と、ポインティングデバイスとして機能し、各種操作を行うためのマウス39と、各種操作を行うとともに、各種データを入力するためのキーボード40と、USBメモリ、ICカード(例えば、SDカード[登録商標])等の外部記憶媒体を接続し、被験者のデータを読み込んだり、検査結果データの記録を行う外部記録媒体接続部41と、を備えている。
 図20は、第2実施形態のIR照明ユニット装置におけるLEDの配置位置の説明図である。
 この場合において、IR照明ユニット装置LDURと、IR照明ユニット装置LDULとは、同一構成であるので、IR照明ユニット装置LDURについて説明する。
 第2実施形態のIR照明ユニット装置LDURは、8個のIR照明装置LED11~LED18を備えている。
 この場合において、IR照明装置LED11~LED18は、図20に示すように、被験者の視軸(紙面に交差する軸)に交差する平面上の円CCLの円周上に同一角度毎(図20の例の場合、360°/8=45°毎)に配置されている。従って、IR照明装置LED11とIR光源LED15、IR照明装置LED12とIR照明装置LED16、IR照明装置LED13とIR照明装置LED17、あるいは、IR照明装置LED14とIR照明装置LED18は、互いに180°の位置に位置している。
 ここで、再び図8を参照して第2実施形態の動作を説明する。
 図8に示したように、オペレータがキーボードあるいはマウスを操作することにより、右目の視軸のキャリブレーションを指示すると、オペレータ用ユニット12のMPU31は、マルチメディアインタフェース35を介して被験者用ディスプレイの表示画面の右目用画像表示領域に、図7(A)に示すように、被験者が右目で注視するための注視用画像GTを表示する(ステップS41)。
 このとき、オペレータは、被験者に注視用画像GTを注視するように促し、被験者の視軸(視線)の位置の変動を抑制する。
 これに伴い、オペレータ用ユニット12のMPU31は、右目の視軸の変動が抑制された状態で右目の光軸算出を行う(ステップS42)。
 次に、第2実施形態における光軸算出処理について詳細に説明する。
 図21は、第2実施形態の光軸算出処理の処理フローチャートである。
 まず、オペレータ用ユニット12のMPU31は、制御インタフェース36及び制御インタフェース28を介してIR照明装置LED11~LED18を制御して、検査光Lをそれぞれ照射させ、さらに眼球カメラ23R、23Lを制御して眼球の撮像を行う(ステップS91)。
 続いて、MPU31は、複数組のIR照明装置を用いて、角膜曲率中心の平均値を算出する(ステップS92)。
 ここで、第2実施形態の角膜曲率中心の平均値(角膜曲率中心の代表値)の算出方法についてより詳細に説明する。
 図22は、第2実施形態の角膜曲率中心の平均値の算出処理の処理フローチャートである。
 まず、オペレータ用ユニット12のMPU31は、第1のIR照明装置を特定するためのパラメータnを初期値である1に設定する(ステップS101)。ここで、パラメータnの値は、いずれかのIR照明装置に対応しており、図21の例の場合、例えば、n=1は、IR照明装置LED11を表し、n=2は、IR照明装置LED12を表し、…、n=8=nmaxは、IR照明装置LED18を表す。
 さらにMPU31は、第2のIR照明装置を特定するためのパラメータmを初期値であるn+1に設定する(ステップS102)。ここで、パラメータmの値も、いずれかのIR照明装置に対応しており、図21の例の場合、例えば、n=1の場合、m=2であり、は、IR照明装置LED12を表し、n=2の場合、m=3であり、IR照明装置LED13を表し、…、n=7の場合、m=8であり、IR照明装置LED18を表す。ただし、n=8の場合は、m=9であるが、IR照明装置LED18の次に位置するIR照明装置LED11を表すものとする。
 次にMPU31は、第1のIR照明装置と第2のIR照明装置とが測定不能条件を満たしている場合に、光軸算出から除外するための判別を行う(ステップS103)。
 具体的には、第1のIR照明装置と第2のIR照明装置とが互いに180°の位置に配置されている場合には、第1のIR照明装置の位置、反射像位置及びカメラの光学中心を含む第1の平面と、第2のIR照明装置の位置、反射像位置及びカメラの光学中心を含む第2の平面と、が理論上等しくなって、二つの平面の交線が特定できず、角膜曲率中心がどこにあるか判別することができなくなるからである。
 そして、第1のIR照明装置と第2のIR照明装置とが互いに180°の位置に配置されている場合には、次式を満たすので、その場合に光軸算出から除外するようにしている。
    m=n+(Lnum/2)
 ここで、Lnumは、IR照明装置の個数である。図21の例の場合、Lnum=8である。
 より詳細には、本第2実施形態では、IR照明装置を偶数個設け、互いに均等な角度で離間して配置しているので、現在のパラメータmがIR照明装置の個数Lnumの1/2の値を加えた値である場合には、パラメータnに対応する第1のIR照明装置とパラメータm=n+(Lnum/2)にある第2のIR照明装置とは互いに180°の位置に配置されている場合であるので光軸算出から除外するのである。
 より具体的には、上記例の場合には、n=1及びm=5の組み合わせ、n=2及びm=6の組み合わせ、n=3及びm=7の組み合わせ、並びに、n=4及びm=8の組み合わせが光軸算出から除外されることとなる。
 なお、第1のIR照明装置と第2のIR照明装置とが互いに180°の位置に配置されていない場合であっても、180°に近い位置(±α°範囲内)、例えば、180±10°の範囲内の位置に配置されていれば、測定精度が低下するので、このような条件の場合にも除外するように構成することが可能である。
 これらの処理に伴い、オペレータ用ユニット12のMPU31は、n番目のIR照明装置LEDn及びm番目のIR照明装置LEDmを用いて後述する角膜曲率中心の算出を行う(ステップS104)。
 ここで、角膜曲率中心の算出及び算出した角膜曲率中心に基づく光軸の算出について詳細に説明する。
 図23は、第2実施形態の角膜曲率中心及び光軸算出方法の原理説明図である。
 図23において、角膜と等しい曲率を有する角膜曲率球CNRCを仮定し、その角膜曲率中心をCtとし、角膜曲率球CNRCの半径をRとし、カメラの光学中心をCmとする。
 また、第n番目のIR照明装置LEDn(本第2実施形態においては、n=1~8のいずれか)及び第m番目のIR照明装置LEDm(本第2実施形態においては、m=1~8[但し、m≠n])をそれぞれ点光源と見なすものとする。
 さらにIR照明装置LEDnの三次元空間上の反射像位置をPnとし、IIR照明装置LEDmの三次元空間上の反射像位置をPmとする。
 このとき、IR照明装置LEDnの位置LEDn、反射像位置Pn及びカメラの光学中心Cmを含む平面をPLnとし、IR照明装置LEDmの位置LEDm、反射像位置Pm及びカメラの光学中心Cmを含む平面をPLmとした場合、平面PLnと平面PLmの交線CLnmは、角膜曲率中心Ctを通る。
 そこで、交線CLnm上においてカメラの光学中心Cmから角膜の曲率中心Ctnmへ向かう単位ベクトルをVcとし、平面PLn上でカメラの光学中心Cmから反射像位置Pnへ向かう単位ベクトルをVnとし、平面PLm上でカメラの光学中心Cmから反射像位置Pmへ向かう単位ベクトルをVmとする。
 さらに平面PLn上で反射像位置Pnから角膜曲率中心Ctnmに向かうベクトルをf、平面PL2上で反射像位置P2から角膜曲率中心Ctに向かうベクトルをgとする。
 上記条件から次のことが成立する。
(1) 単位ベクトルVcを定数t0(t0は、正の実数)倍した位置に角膜曲率中心Ctが存在する。そこで、以下の説明においては、定数t0が不明な段階における角膜曲率中心を第1仮定角膜曲率中心Ct1_nmとする。
(2) 単位ベクトルVnを定数t1(t1は、正の実数)倍した位置に反射像位置Pnが存在する。なお、本第2実施形態においては、n=1~8のいずれかである。
(3) 単位ベクトルVmを定数t2(t2は、正の実数)倍した位置に反射像位置Pmが存在する。なお、本第2実施形態においては、m=1~8であり、かつ、m≠nである。)
(4) 反射像位置Pn及び反射像位置Pmは、角膜曲率中心Ctnmから角膜曲率半径Rの位置に存在する。
 オペレータ用ユニット12のMPU31は、ステップS91で撮像した画像に基づいて、角膜曲率球CNRCの半径Rを所定値とし、反射像位置P1及び反射像位置P2を算出する。
 そして、オペレータ用ユニット12のMPU31は、現在のnの値に対応するIR照明装置LEDnの位置LEDn、反射像位置Pn及びカメラの光学中心Cmを含む平面PLnを算出するとともに、現在のmの値に対応するIR照明装置LEDmの位置LEDm、反射像位置Pm及びカメラの光学中心Cmを含む平面PLmを算出する。
 続いてオペレータ用ユニット12のMPU31は、平面PLn(を表す式)及び平面PLm(を表す式)から、二つの平面PLn、PLmの交線を算出する。
 さらにオペレータ用ユニット12のMPU31は、上述した反射像位置Pnから単位ベクトルVnを算出し、算出した単位ベクトルVnと、反射像位置Pn及びIR照明装置LEDnの位置LED1からベクトルfを取得する。
 さらにまたオペレータ用ユニット12のMPU31は、上述した反射像位置Pmから単位ベクトルVmを算出し、算出した単位ベクトルVmと、反射像位置Pm及びIR照明装置LEDmの位置LEDmからベクトルgを取得する。
 次にオペレータ用ユニット12のMPU31は、角膜曲率中心Ct_nmの位置を推定して定数t0を算出する。
 まず、オペレータ用ユニット12のMPU31は、反射像位置Pnからベクトルfの向きに沿った第1の直線LNn及び反射像位置Pmからベクトルgの向きに沿った第2の直線LNmを仮定し、直線LNnと直線LNmの交点(もしくは、2直線の双方から最も近い点[最近傍点])を算出し、これを第2仮定角膜曲率中心Ct2_nmとする。
 この場合において、第1仮定角膜曲率中心Ct1_nmと、第2仮定角膜曲率中心Ct2_nmは、実際は等しいはずであるので、次式が最小となるように、定数t0を算出すればよい。
    |Ct1_nm-Ct2_nm|
 以下、上記原理に沿って、定数t0を算出する。
 まず、オペレータ用ユニット12のMPU31は、二つの平面PLn、PLmの交線に基づいて、単位ベクトルVcを算出する。
 具体的には、単位ベクトルVcと同じ向きのベクトルVc1を仮定すると、次式が成り立つ。
    Vc1={(LEDn-Cm)×(PPn-Cm)}
            ×{(LEDm-Cm)×(PPm-Cm)}
 ここで、PPnは、反射像位置Pnのカメラの撮像センサ上の位置であり、PPmは、反射像位置Pmのカメラの撮像センサ上の位置である。
 そして、単位ベクトルVcは、次式で表せる。
    Vc=Vc1/||Vc1||
 ここで、||Vc1||は、ベクトルVc1の大きさ(スカラー)である。
 次にオペレータ用ユニット12のMPU31は、単位ベクトルVn及び単位ベクトルVmを、カメラの光学中心Cm、位置PPn及び位置PPmから算出する。
    Vn=(Cm-PPn)/||Cm-PPn||
    Vm=(Cm-PPm)/||Cm-PPm||
 そしてカメラの光学中心Cmを基点として単位ベクトルVcを定数t0倍した位置に角膜曲率中心Ct_nmに対応する第1仮定角膜曲率中心Ct1_nmが位置しているはずであるので、次式が成り立つ。
    Ct1_nm=t0・Vc+Cm
 また、カメラの光学中心Cmを基点として単位ベクトルVnを定数t1倍した位置に反射像位置Pnが位置し、カメラの光学中心Cmを基点として単位ベクトルVmを定数t2倍した位置に反射像位置Pmが位置しており、反射像位置Pn及び反射像位置Pmは、角膜曲率中心Ct_nmから角膜曲率半径Rの位置に位置しているという前提で反射像位置Pn及び反射像位置Pmを算出する。
 より詳細には、以下の通りとなる。
    Pn=t1・Vn+Cm
とすると、
    R=||t0・Vc||+||t1・Vn||
                  -2・t0・t1・Vc・Vn
であるから、
   t1=t0・Vc・Vn±√{(||Vc・Vn||-1)・t0+R
となる。
 ここで、復号(±)のうち、正号(+)側は、角膜曲率中心Ct_nmを中心とする半径Rの球と、カメラの光学中心Cm及び反射像位置Pnを通る直線と、の二つの交点のうちカメラから見て奥側の交点に相当するので、カメラから見て手前側の交点に相当する負号(-)側が求める定数t1である。
同様にして、
    Pm=t2・Vm+Cm
とすると、
    R=||t0・Vc||+||t2・v2||
                  -2・t0・t2・Vc・Vm
であるから、
   t2=t0・Vc・v2±√{(||Vc・Vm||-1)・t0+R
となる。
 この場合においても、復号(±)のうち、正号(+)側は、角膜曲率中心Ct_nmを中心とする半径Rの球と、カメラの光学中心Cm及び反射像位置Pmを通る直線と、の二つの交点のうちカメラから見て奥側の交点に相当するので、カメラから見て手前側の交点に相当する負号(-)側が求める定数t2である。
 続いて、ベクトルf及びベクトルgを求める。
 単位ベクトルVnと反射像位置Pn及び第n番目のIR照明装置LEDnとの関係、並びに、単位ベクトルVmと反射像位置Pm及び第m番目のIR照明装置LEDmとの関係より次の式を得ることができる。
   f=Vn+(Pn-LEDn)/||Pn-LEDn||
   g=Vm+(Pm-LEDm)/||Pm-LEDm||
 つづいて、オペレータ用ユニット12のMPU31は、反射像位置Pnを通り、ベクトルfの向きに沿った第1直線LNnを仮定するとともに、反射像位置Pmを通り、ベクトルgの向きに沿った第2直線LNmを仮定し、直線LNnと直線LNmの交点(もしくは、2直線の双方から最も近い点[最近傍点])を算出し、これを第2仮定角膜曲率中心Ct2_nmとする。
Figure JPOXMLDOC01-appb-M000003
 この場合において、第1仮定角膜曲率中心Ct1_nm及び第2仮定角膜曲率中心Ct2_nmは、それぞれ角膜曲率中心Ct_nmに等しいはずであるから、第1仮定角膜曲率中心Ct1_nmと第2仮定角膜曲率中心Ct2_nmとの差を評価値Xとして評価値Xが最小となる定数t0を算出する。
 すなわち、次式を満たす定数t0を算出する。
Figure JPOXMLDOC01-appb-M000004
 次に再び図22を参照して処理を説明する。
 n番目及びm番目のIR照明装置を用いた角膜曲率中心の算出が終了すると(ステップS104)、MPU31は、mの値に1を加算する(ステップS105)。すなわち、
    m=m+1
とする。
 続いてMPU31は、mの値がIR照明装置の個数Lnumに1を加えた値、すなわち、
    m=Lnum+1
となっているか否かを判別する(ステップS106)。
 ステップS106の判別において、
    m<Lnum+1
であると判別された場合には(ステップS106;No)、MPU31は、再び処理をステップS103に処理を移行し、上述した処理を繰り返すこととなる。すなわち、一つのパラメータnの値に対し、対応するパラメータmの値全てに対して、光軸及び角膜曲率中心の算出を行うこととなる。
 ステップS106の判別において、
    m=Lnum+1
であると判別された場合には(ステップS106;Yes)、当該パラメータnの値に対する処理は終了したので、MPU31は、パラメータnの値を新たな値とするために、nの値に1を加算する(ステップS107)。すなわち、
    n=n+1
とする。
 続いてMPU31は、nの値がIR照明装置の個数Lnumに1を加えた値、すなわち、
    n=Lnum+1
となっているか否かを判別する(ステップS108)。
 ステップS108の判別において、
    n<Lnum+1
であると判別された場合には(ステップS108;No)、MPU31は、再び処理をステップS93に処理を移行し、上述した処理を繰り返すこととなる。すなわち、新たなパラメータnの値に対し、対応するパラメータmの値全てに対して、光軸及び角膜曲率中心の算出を行うこととなる。
 ステップS108の判別において、
    n=Lnum+1
であると判別された場合には(ステップS108;Yes)、光軸算出を行う全てのパラメータn及びパラメータmの組み合わせ(上記例の場合には、全24通りの組み合わせ=8個のIR照明装置から異なる2つを選ぶ組み合わせから180°配置の4組を除いた組み合わせ)に対する処理は終了したので、MPU31は、外れ値を除去する処理を行う(ステップS109)。
 外れ値の除去方法としては、例えば、24個の角膜曲率中心算出値のうちデータの最大値と最小値付近の値を平均値の計算から除外する(いわゆる、トリム平均)ことが可能である。
 続いてMPU31は、ステップS104で算出した角膜曲率中心のうち、外れ値を除去した後の角膜曲率中心の平均値(3次元空間上の角膜曲率中心座標の平均値)を角膜曲率中心平均値として算出する(ステップS110)。
 角膜曲率中心平均値が算出されると、オペレータ用ユニット12のMPU31は、眼球カメラ23Rの撮像画像に基づいて瞳孔の中心点を求める(ステップS93)。
 そして、求めた瞳孔の中心点と、上述した処理により算出した定数t0及び単位ベクトルVcにより算出される角膜曲率中心平均値Ct_nmと、を結んで当該目の光軸として算出する(ステップS94)。
 再び図8を参照して光軸算出処理を説明する。
 次にMPU31は、ステップS94で算出した光軸と視軸との差を補正量(光軸補正量)として算出する(ステップS43)。
 より詳細には、MPU31は、算出した光軸が注視用画像GTを注視している被験者の視軸(視線)と一致するように、すなわち、視軸マーク画像GVAの表示位置(算出した角膜曲率中心平均値を通る光軸位置に相当)が注視用画像GT(被験者の視軸[視線]位置に相当)と一致するように、ステップS94で算出した光軸と被験者の視軸[視線]位置との差を補正量(光軸補正量)として算出することとなる。
 そして、MPU31は、算出された光軸をステップS43で得られた補正量で補正して、被験者の視軸を随時推定することとなる(ステップS44)。
 以上の説明のように、本第2実施形態によれば、第1実施形態の効果に加えて、視軸推定精度を向上させることができ、より高精度の検査を行うことができる。
[2.1]第2実施形態の第1変形例
 図24は、第2実施形態の第1変形例のLEDユニットにおけるLEDの配置位置の説明図である。
 本変形例と第2実施形態が異なる点は、奇数個のIR照明装置を被験者の視軸(紙面に交差する軸)に交差する平面上の円CCLの円周上に同一角度毎に配置している点である。
 図24の例の場合、7個のIR照明装置LED21~LED27を被験者の視軸(紙面に交差する軸)に交差する平面上の円CCLの円周上に同一角度毎(図24の例の場合、360°/7=約51.4°毎)に配置し、あるIR照明装置に対して他のIR照明装置が測定不能条件を満たす180°の位置に位置することが無いようにしている。
 したがって、いずれの二つのIR照明装置を選択した場合でも光軸位置を算出することが可能となる。この場合においては、図22におけるステップS103の処理を省略して、より高速に処理を行うことができる。
 この変形例においても、第2実施形態と同様に、第1のIR照明装置と第2のIR照明装置とが互いに180°の位置に配置されていない場合であっても、180°に近い位置(±α°範囲内:測定精度低下条件)、例えば、180±10°の範囲内の位置に配置されているような場合には、光軸の測定精度が低下するので、このような条件の場合にも除外するように構成することが可能である。
 より詳細には、第1のIR照明装置と第2のIR照明装置とが180±10°の範囲内の位置に配置されているような場合には、第1のIR照明装置の位置、反射像位置及びカメラの光学中心を含む第1の平面と、第2のIR照明装置の位置、反射像位置及びカメラの光学中心を含む第2の平面と、を特定はできる。しかしながら、二つの平面の交線の特定する際の精度が低下し、角膜曲率中心の測定精度、ひいては、光軸の測定精度が低下するからである。したがって、このような条件の場合にも除外するように構成することが可能である。
[2.2]第2実施形態の第2変形例
 第2実施形態及び第2実施形態の第1変形例においては、複数のIR照明装置を被験者の視軸に交差する平面上の円の円周上に同一角度毎に配置していたが、測定不能条件あるいは測定精度が満たされる限り、複数のIR照明装置を被験者の視軸に交差する平面上の円の円周上に任意の角度毎に配置するようにすることも可能である。
[2.3]第2実施形態の第3変形例
 以上の説明においては、IR照明装置LED11~LED18は、被験者の視軸(紙面に交差する軸)に交差する平面上の円の円周上に配置するようにしていたが、3個以上のIR照明装置を有し、カメラの光学中心位置に対する各IR照明装置の3次元的な配置位置が既知であれば、IR照明装置の位置、反射像位置及びカメラの光学中心を含む平面を容易に特定できる。
 したがって、3個以上のIR照明装置のうち、いずれかのIR照明装置は、他のIR照明装置と同一平面上に無くても(=被験者の視軸に交差する複数の平面上の位置にあっても)よい。
 また、3個以上のIR照明装置のうち、いずれかのIR照明装置は、被験者の視軸に交差する一の平面上、あるいは、被験者の視軸に交差する複数の平面上に3個以上のIR照明装置を配置している場合には、視軸に直交する同一平面上に各IR照明装置の正射影を投影した場合に、同一円周上に無くても良い。
 また、視軸に直交する同一平面上に各IR照明装置の正射影を投影した場合に、視軸に交差する平面上で、同じ角度毎に配置する必要もない。
 しかしながら、測定精度の確保の観点からは、視軸に直交する同一平面上に各IR照明装置の正射影を投影した場合に、視軸を囲うように分散配置されているのが好ましい。例えば、4個のIR照明装置を配置した場合、視軸に直交する平面上で、視軸を原点として互いに直交するX軸-Y軸で構成される座標平面上で、第1象限~第4象限のそれぞれに一つのIR照明装置が配置されているのが好ましい。
[3]第3実施形態
 以上の説明においては、第1実施形態あるいは第2実施形態として視機能検査装置を例として説明したが、被験者用ディスプレイへの表示を用いて視機能訓練を行う視機能訓練装置について同様に適用することが可能である。
 具体的には、同一の物が二つに見える両眼復視の状態となっている患者(被訓練者)において、左右の網膜に移った像を融合して(一つにまとめて)単一視する働きである融像機能を訓練する融像訓練装置、立体視をすることによって眼の能力を向上させる立体視訓練(近見訓練[いわゆる交差法]及び遠見訓練[いわゆる平行法])を行う立体視訓練装置等においても、訓練者において被訓練者が実際にどの位置を注視位置として視機能訓練を行っているかを容易に把握し、より一層の視機能訓練効果が得られるように指導を行うことが可能となる。
 この場合においては、上記説明における検査者(オペレータ)を訓練者、被験者を被訓練者、被験者用ディスプレイを被訓練者用ディスプレイと読み替えるようにし、検査過程を訓練過程に適宜読み替えるようにすればよい。
[4]実施形態の変形例
 以上の説明においては、視機能検査として、9方位眼位検査の場合を例として説明したが、視力検査(片眼遮蔽検査及び両眼解放検査)、同時視検査、融像検査、立体視検査(近見検査及び遠見検査)、視野検査、選好注視法(Preferential looking method)検査、不等像検査等においても同様に適用が可能である。
 以上の説明においては、9方向眼位検査用チャートとして、正方形状(方眼紙形状)のチャートを用いていたが、従来よく知られている投影用の湾曲した9方向眼位検査用チャートを用いるようにすることも可能である。
 以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態及びその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
 10、10A  視機能検査装置
 11  検査ユニット
 12  オペレータ用ユニット
 13  検査台
 14  顎台
 21  光学系ユニット
 21L 光学系ユニット
 21R 光学系ユニット
 23L 眼球カメラ
 23R 眼球カメラ
 24  被験者用ディスプレイ
 24D 表示画面
 25  マルチメディアインタフェース
 26  音/映像分離部
 27  スピーカ部
 28  制御インタフェース
 31  MPU
 32  ROM
 33  RAM
 34  フラッシュメモリ
 35  マルチメディアインタフェース
 36  制御インタフェース
 37  オペレータ用ディスプレイ
 37D 表示画面
 38  プリンタ
 39  マウス
 40  キーボード
 41  外部記録媒体接続部
 LD1、LD2 IR照明装置
 LDUR、LDUL IR照明ユニット装置
 LED11~LED18、LED21~LED27 IR照明装置
 MML1 注視位置画像
 MML2 注視位置画像
 MMR1 注視位置画像
 MMR2 注視位置画像
 MP1~MP9 測定点

 

Claims (19)

  1.  被験者用表示装置と、オペレータ用表示装置とを、備えた視機能検査装置において、
     前記被験者用表示装置に前記被験者の視認の対象画像を表示する対象表示部と、
     前記対象画像の視認時における前記被験者の視軸を推定する視軸推定部と、
     前記オペレータ用表示装置に前記対象画像の表示位置及び推定した前記視軸に対応する視点位置を表示する位置表示部と、
     前記オペレータ用表示装置に前記被験者の眼球映像を表示する表示部と、
     を備えた視機能検査装置。
  2.  前記視軸推定部は、前記検査対象画像の空間座標及び前記被験者の角膜を想定した角膜曲率中心の空間座標から算出した光軸と、前記光軸算出時に特定した前記被験者の視軸とに基づいて光軸補正量を設定し、所望の前記対象画像の視認時における前記被験者の光軸を前記光軸補正量で補正して前記視軸を推定する、
     請求項1記載の視機能検査装置。
  3.  前記視軸推定部は、実際の検査に先立つキャリブレーションにおいて目毎に前記光軸補正量を設定し、
     実際の検査で行われる全ての前記光軸の補正に際して前記光軸補正量を用いる、
     請求項2記載の視機能検査装置。
  4.  前記対象画像を9方向眼位検査における複数の測定点のいずれかに対応する位置を表す画像として用いる、
     請求項1記載の視機能検査装置。
  5.  前記複数の測定点に対応する視点位置を記憶し、9方向眼位検査終了後に前記複数の視点位置を所定の対応関係で接続した画像を9方位眼位検査用チャート画像上に検査結果画像として表示する検査結果表示部を備える、
     請求項4記載の視機能検査装置。
  6.  前記検査結果表示部は、右目の検査結果画像と左目の検査結果画像とを一つの前記9方位眼位検査用チャート画像上に重畳して表示して前記検査結果画像とする、
     請求項4又は請求項5記載の視機能検査装置。
  7.  検査光を前記被験者の眼球にそれぞれ照射する複数のIR照明装置と、
     前記検査光の前記眼球による反射像を撮像する撮像装置と、を有し、
     前記視軸推定部は、前記複数のIR照明装置のうち、選択した一組あるいは複数組の一対の前記IR照明装置のそれぞれの位置、前記反射像のそれぞれの位置及び前記撮像装置の光学中心に基づいて、前記視軸を推定する、
     請求項1記載の視機能検査装置。
  8.  複数の前記IR照明装置は、被験者の視軸に交差する一又は複数の平面上に配置されている、
     請求項7記載の視機能検査装置。
  9.  前記IR照明装置は、被験者の視軸に交差する一の平面上の円の円周上に所定角度毎に配置されている、
     請求項8記載の視機能検査装置。
  10.  前記視軸推定部は、前記IR照明装置の組を選択するに際し、一の前記IR照明装置に対して、測定不能条件あるいは所定の測定精度低下条件を満たす他の前記IR照明装置との組を除外する、
     請求項9記載の視機能検査装置。
  11.  複数の前記IR照明装置は、前記被験者の視軸を囲うように配置されている、
     請求項8記載の視機能検査装置。
  12.  複数の前記IR照明装置は、カメラの光学中心位置に対して3次元的な配置位置がそれぞれ既知である位置に配置されている、
     請求項7記載の視機能検査装置。
  13.  複数の前記IR照明装置は、前記被験者の視軸を囲うように配置されている、
     請求項12記載の視機能検査装置。
  14.  被訓練者用表示装置と、オペレータ用表示装置とを、備えた視機能訓練装置において、
     前記被訓練者用表示装置に前記被訓練者の視認の対象画像を表示する対象表示部と、
     前記対象画像の視認時における前記被訓練者の視軸を推定する視軸推定部と、
     前記オペレータ用表示装置に前記対象画像の表示位置及び推定した前記視軸に対応する視点位置を表示する位置表示部と、
     前記オペレータ用表示装置に前記被訓練者の眼球映像を表示する表示部と、
     を備えた視機能訓練装置。
  15.  前記視軸推定部は、前記対象画像の空間座標及び前記被験者の角膜を想定した角膜曲率中心の空間座標から算出した光軸と、前記光軸算出時に特定した前記被験者の視軸とに基づいて光軸補正量を設定し、所望の前記対象画像の視認時における前記被訓練者の光軸を前記光軸補正量で補正して前記視軸を推定する、
     請求項14記載の視機能訓練装置。
  16.  前記視軸推定部は、実際の検査に先立つキャリブレーションにおいて目毎に前記光軸補正量を設定し、
     実際の検査で行われる全ての前記光軸の補正に際して前記光軸補正量を用いる、
     請求項15記載の視機能訓練装置。
  17.  被験者用表示装置と、オペレータ用表示装置とを、備えた視機能検査装置において実行される方法であって、
     前記被験者用表示装置に前記被験者の視認の対象画像を表示する過程と、
     前記対象画像の視認時における前記被験者の視軸を推定する過程と、
     前記オペレータ用表示装置に前記対象画像の表示位置及び推定した前記視軸に対応する視点位置を表示する過程と、
     前記オペレータ用表示装置に前記被験者の眼球映像を表示する過程と、
     を備えた方法。
  18.  前記視機能検査装置は、検査光を前記被験者の眼球にそれぞれ照射する複数のIR照明装置と、前記検査光の前記眼球による反射像を撮像する撮像装置と、を有し、
     前記視軸を推定する過程は、前記複数のIR照明装置のうち、選択した一組あるいは複数組の一対の前記IR照明装置のそれぞれの位置、前記反射像のそれぞれの位置及び前記撮像装置の光学中心に基づいて、前記視軸を推定する、
     請求項17記載の方法。
  19.  被訓練者用表示装置と、オペレータ用表示装置とを、備えた視機能訓練装置で実行される方法において、
     前記被訓練者用表示装置に前記被験者の視認の対象画像を表示する過程と、
     前記対象画像の視認時における前記被訓練者の視軸を推定する過程と、
     前記オペレータ用表示装置に前記対象画像の表示位置及び推定した前記視軸に対応する視点位置を表示する過程と、
     前記オペレータ用表示装置に前記被訓練者の眼球映像を表示する過程と、
     を備えた方法。
     
PCT/JP2018/022115 2017-06-08 2018-06-08 視機能検査装置、視機能訓練装置及び方法 WO2018225867A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18814280.6A EP3636136B1 (en) 2017-06-08 2018-06-08 Visual function test device and method
US16/620,136 US11464405B2 (en) 2017-06-08 2018-06-08 Visual function test device, visual function training device, and method thereof
JP2018165668A JP6546329B1 (ja) 2017-06-08 2018-09-05 視線ベクトル検出装置、視機能検査装置、視機能訓練装置及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-113743 2017-06-08
JP2017113743A JP6403836B1 (ja) 2017-06-08 2017-06-08 視機能検査装置、視機能訓練装置及び方法

Publications (1)

Publication Number Publication Date
WO2018225867A1 true WO2018225867A1 (ja) 2018-12-13

Family

ID=63788088

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022115 WO2018225867A1 (ja) 2017-06-08 2018-06-08 視機能検査装置、視機能訓練装置及び方法

Country Status (4)

Country Link
US (1) US11464405B2 (ja)
EP (1) EP3636136B1 (ja)
JP (2) JP6403836B1 (ja)
WO (1) WO2018225867A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881188B2 (ja) * 2017-09-27 2021-06-02 オムロン株式会社 位置検出装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011161122A (ja) * 2010-02-15 2011-08-25 Kansai Univ 視野検査システム
JP2011206105A (ja) * 2010-03-29 2011-10-20 Kowa Co 視野計、及び視野計の制御方法
JP4824420B2 (ja) 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4888579B2 (ja) * 2010-04-21 2012-02-29 パナソニック電工株式会社 視機能検査装置
JP5348188B2 (ja) * 2011-06-20 2013-11-20 株式会社三洋物産 遊技機
JP6324119B2 (ja) * 2014-03-04 2018-05-16 国立大学法人静岡大学 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP6269377B2 (ja) * 2014-07-31 2018-01-31 株式会社Jvcケンウッド 診断支援装置および診断支援方法
US10452137B2 (en) * 2014-12-17 2019-10-22 Sony Corporation Information processing apparatus and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4824420B2 (ja) 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置
JP2011161122A (ja) * 2010-02-15 2011-08-25 Kansai Univ 視野検査システム
JP2011206105A (ja) * 2010-03-29 2011-10-20 Kowa Co 視野計、及び視野計の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3636136A4

Also Published As

Publication number Publication date
EP3636136A4 (en) 2021-03-17
US11464405B2 (en) 2022-10-11
US20200100668A1 (en) 2020-04-02
JP6546329B1 (ja) 2019-07-17
EP3636136A1 (en) 2020-04-15
JP2019209106A (ja) 2019-12-12
JP6403836B1 (ja) 2018-10-10
JP2018202047A (ja) 2018-12-27
EP3636136B1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
US10896324B2 (en) Line-of-sight detection device and method for detecting line of sight
US9004687B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US10499808B2 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
CN108027977B (zh) 视线检测装置以及视线检测方法
US9993154B2 (en) Eye gaze detection supporting device and eye gaze detection supporting method
CN107003752A (zh) 信息处理装置、信息处理方法以及程序
JP5173395B2 (ja) 視機能検査装置
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN109061883A (zh) 一种自动测量瞳距的头戴式显示设备和方法
JP6988787B2 (ja) 表示装置、表示方法、およびプログラム
WO2018225867A1 (ja) 視機能検査装置、視機能訓練装置及び方法
JP5714951B2 (ja) 両眼瞳孔検査装置
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP2016200753A (ja) 画像表示装置
JP2018531706A (ja) 人の視覚挙動パラメータを判断する方法及びこれに関連する検査機器
US20130321608A1 (en) Eye direction detecting apparatus and eye direction detecting method
US11890057B2 (en) Gaze detection apparatus, gaze detection method, and gaze detection program
JP2006105868A (ja) レンズメータ
WO2018173359A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
JP6269177B2 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
JP2023550699A (ja) ヘッドマウントディスプレイにおける視野検査のためのシステムおよび方法
JP2006087751A (ja) 視線測定方法および視線測定装置
CN112869699A (zh) 一种头戴显示装置的屈光度测量设备和测量方法
JP2021117210A (ja) 眼鏡レンズ情報取得装置及び眼鏡レンズ情報取得プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18814280

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018814280

Country of ref document: EP

Effective date: 20200108