WO2017213200A1 - 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置 - Google Patents

視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置 Download PDF

Info

Publication number
WO2017213200A1
WO2017213200A1 PCT/JP2017/021211 JP2017021211W WO2017213200A1 WO 2017213200 A1 WO2017213200 A1 WO 2017213200A1 JP 2017021211 W JP2017021211 W JP 2017021211W WO 2017213200 A1 WO2017213200 A1 WO 2017213200A1
Authority
WO
WIPO (PCT)
Prior art keywords
inspection
image
image data
visual
visual field
Prior art date
Application number
PCT/JP2017/021211
Other languages
English (en)
French (fr)
Inventor
菅原 充
鈴木 誠
欣也 長谷川
Original Assignee
株式会社Qdレーザ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017106337A external-priority patent/JP6255522B2/ja
Application filed by 株式会社Qdレーザ filed Critical 株式会社Qdレーザ
Priority to US16/306,694 priority Critical patent/US11129527B2/en
Priority to CN201780034957.XA priority patent/CN109310315B/zh
Priority to EP17810374.3A priority patent/EP3469979A4/en
Publication of WO2017213200A1 publication Critical patent/WO2017213200A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Definitions

  • the present invention relates to a visual acuity inspection system, a visual acuity inspection apparatus, a visual acuity inspection method, a visual acuity inspection program, and a server device.
  • a visual field inspection apparatus that measures the peripheral visual field of a human is known.
  • a visual target is presented around the fixation point in a state in which the test subject is made to gaze at the fixation point, and the visual field of the subject based on the response from the subject showing whether the visual target was seen.
  • a method is generally used to measure the visual acuity of the subject by keeping the distance between the visual acuity test target and the subject constant and letting the subject answer the shape of the target.
  • a blinking bright point is used as a visual target, and the position at which the visual target is presented is changed from the periphery of the gaze point to the outside of the visual field of the subject.
  • a large case for presenting a bright spot that blinks in a state of covering the visual field of a subject, and a shielded space for conducting an examination are required.
  • the disclosed technology has been made in view of the above-described circumstances, and is a visual field visual inspection system capable of easily performing visual field inspection and visual acuity inspection, visual field visual acuity inspection apparatus, visual field visual acuity inspection method, visual field visual acuity inspection program And providing a server device.
  • the disclosed technology is a visual field vision inspection system having a visual field visual acuity inspection device and a terminal device that communicates with the visual field visual acuity inspection device, wherein the terminal device holds an image data holding unit for inspection image data.
  • an image output processing unit for outputting the inspection image data to the visual field and vision inspection apparatus, a display unit for displaying an image, and a display for generating an inspection image from the inspection image data and displaying it on the display unit.
  • a control unit, the visual-field and vision inspection apparatus comprising: a light source unit for emitting a light beam; an image input unit for inputting inspection image data from the terminal device; and the inspection image data input.
  • Control unit for generating an imaging light beam from the light source unit, a scanning mirror for generating the inspection image light beam by scanning the imaging light beam, and the inspection image light beam for inspection With the image And a projection unit for projecting onto the eyeball of the subject, and the inspection image data is for visual field inspection including visual field image data divided into a plurality of regions each including an identifier, and an image of a visual target And image data.
  • FIG. 1 is a view for explaining an outline of the visual field inspection in the first embodiment.
  • the visual field visual inspection apparatus 200 worn by the subject P directly projects the visual field inspection image G divided into a plurality of areas onto the retina of the subject P to perform visual field inspection
  • the range (visual field) in which the subject P can be seen with eyes is specified.
  • the visual acuity examination apparatus 200 of the present embodiment is a retina projection head mounted display using Maxwell vision.
  • Maxwell vision an imaging light beam based on image data is once converged at the center of the pupil and then projected onto the retina to allow the person to display an image represented by the image data without being influenced by the adjustment function of the human crystalline lens. It is a method to make it visible.
  • the terminal device 300 is, for example, a tablet computer or a smartphone, and transmits image data representing the visual field inspection image G to the visual field visual inspection device 200.
  • the terminal device 300 according to the present embodiment causes the display 308 to display a screen including the visual field inspection image G, and inputs an area where the subject P was seen and an area where the subject P was not seen.
  • the display 308 is an example of a display unit.
  • the visual acuity inspection apparatus 200 projects the visual field test image G at a predetermined position on the subject P's retina by irradiating the image light beam based on the image data transmitted from the terminal device 300 onto the retina of the subject P. .
  • the image projected directly onto the human retina is viewed as the image represented by the image data if the function of the retina is normal. However, when there is a problem in the function of the retina, the optic nerve or the like, the image projected onto the retina is viewed in a mode different from the image represented by the image data.
  • an image projected onto the retina is viewed as an image distorted as distortion of the retina.
  • the image projected onto the retina is visually recognized as an image in which a part of the lost visual field is lost.
  • the image projected onto the retina is not viewed as it is.
  • the abnormality is reflected in the viewed image.
  • the visual field of the subject is specified by specifying the area visually recognized by the subject and the area not visually recognized in the test image projected on the retina of the subject.
  • the visual inspection image G is provided with a gaze point M at the center, and is divided into a plurality of regions, for identifying each region. It is assumed that an identifier (character) is drawn.
  • the region where the drawn character can be read and Input the area that could not be read.
  • the input result in the terminal device 300 is the result of the visual field test of the subject P.
  • the visual field test image G can be directly projected on a predetermined position of the retina, and the subject P is projected on the retina.
  • the visual inspection image can be prevented from moving on the retina even if the line of sight moves a little.
  • the visual field can be identified only by looking at the image G for visual field inspection without changing the presentation position of the bright spot to be a target gradually, so that the inspection time is significantly increased. Shortened to
  • a shielded space, a large casing for covering the visual field of the subject, and the like become unnecessary, and the visual field inspection can be performed at any place.
  • the burden on the subject can be reduced.
  • the visual acuity inspection apparatus 200 has a shape like general glasses, but is not limited to this.
  • it may be shaped like goggles covering both eyes of the subject P.
  • the input may be performed after removing the attached visual field visual acuity inspection apparatus 200, or the terminal with the eye not performing the visual field inspection.
  • the visual field inspection image G displayed on the display 308 of the device 300 may be viewed and input may be performed.
  • the examination assistant may be requested to input to the terminal device 300.
  • the subject P may read the character that has been visually recognized and convey the region in which the character has been read to the test assistant.
  • the terminal device 300 has a voice input unit (such as a microphone) and a voice recognition function, the test result can be directly input by the voice of the subject P by reading out the character that the subject P was able to visually recognize. .
  • FIG. 2 is a view for explaining the visual acuity test of the first embodiment.
  • the terminal device 300 when the visual acuity test is performed, transmits image data representing the image T for visual acuity test to the visual acuity test apparatus 200.
  • the terminal device 300 according to the present embodiment causes the display 308 to display a screen including the vision test image T, and inputs the result of the vision test by the subject P.
  • the visual field visual acuity inspection apparatus 200 irradiates the image light beam based on the image data transmitted from the terminal device 300 to the retina of the subject P to obtain a predetermined position on the retina of the subject P Projects the vision test image T.
  • the vision test image T of the present embodiment is an image in which a gaze point M is provided at the center, and a plurality of Landolt rings are arranged in the vertical direction and the horizontal direction.
  • the vision test image T of the present embodiment includes a plurality of images with different sizes of Landolt's rings.
  • the visual acuity of the subject's retina itself can be measured by directly projecting the field test image T onto the subject's P retina.
  • the visual acuity of the retina itself is different from general visual acuity which changes due to, for example, adjustment of the thickness of the lens by the ciliary muscle, and indicates the function of the macula of the retina.
  • the visual acuity of the retina is lower as the Landolt ring capable of determining the position of the break is larger, and the larger the Landolt ring capable of determining the position of the break is higher.
  • this embodiment it is possible to measure the visual acuity of the retina itself which is not affected by the lens or the like. For this reason, this embodiment can be used, for example, to predict the degree of recovery of visual acuity when a treatment such as a cataract is performed to replace the lens with an artificial lens.
  • the examination assistant inputs the examination result to the terminal device 300 by selecting, on the display 308, the Landolt ring from which the subject P has correctly determined the position of the break among the Landolt rings of the vision test image T. It is good.
  • FIG. 3 is a top view of a visual acuity inspection apparatus.
  • the visual acuity inspection apparatus 200 of the present embodiment includes a projection unit 210 and a control unit 230.
  • the projection unit 210 of this embodiment includes a light source 211, a scanning mirror 212, a mirror 213, a mirror 214, a mirror 215, and a projection unit 216.
  • the light source 211 is disposed on the temple 250 of the eyeglass frame.
  • the light source 211 emits a light beam L of, for example, a single or a plurality of wavelengths under the instruction of the control unit 230.
  • the light ray L is an image light ray for projecting an image on the retina 261 of the eyeball 260 of the user. In the following description, the light ray L is called an image light ray.
  • the light source 211 emits, for example, red laser light (wavelength: about 610 nm to 660 nm), green laser light (wavelength: about 515 nm to 540 nm), and blue laser light (wavelength: about 440 nm to 480 nm). It emits red, green and blue laser light.
  • the light source 211 according to the present embodiment is realized as a light source 211, for example, a light source in which laser diode chips of RGB (red, green, and blue), a three-color combining device, and a microcollimator lens are integrated.
  • the scanning mirror 212 is disposed on the temple 250 of the eyeglass frame.
  • the scanning mirror 212 scans the imaging light beam emitted from the light source 211 in the horizontal direction and the vertical direction.
  • the scanning mirror 212 is, for example, a MEMS (Micro Electro Mechanical System) mirror.
  • the imaging light beam emitted from the light source 211 is reflected by, for example, the mirror 213 and the mirror 214 and enters the scanning mirror 212.
  • the control unit 230 is realized by a processor such as a central processing unit (CPU) and a random access memory (RAM) and a read only memory (ROM).
  • a processor such as a central processing unit (CPU) and a random access memory (RAM) and a read only memory (ROM).
  • the processor and the memory may be mounted, for example, on the same substrate as the substrate on which the scanning mirror 212 (MEMS mirror) is mounted. Further, the processor and the memory may be provided in an external device (for example, the terminal device 300 etc.) connected to the visual acuity inspection apparatus 200.
  • an external device for example, the terminal device 300 etc.
  • the control unit 230 of the present embodiment controls the projection unit 210.
  • the control unit 230 causes the light source 211 to emit an image light beam based on the input image data.
  • the control unit 230 according to the present embodiment vibrates the scanning mirror 212 (MEMS mirror), scans the imaging light beam emitted from the light source 211, and projects the image on the retina 261.
  • MEMS mirror scanning mirror 212
  • each part shown in FIG. 2 may be provided on both the left and the right of the eyeglass-type frame, and each part other than the control unit 230 is both the left and the right
  • the control unit 230 may be common to the left and right.
  • each part shown in FIG. 2 may be provided on either the left or the right of the eyeglass-type frame.
  • the visual field acuity inspection apparatus 200 provided with each part of FIG. 3 on the simulated side may be used.
  • FIG. 4 is an enlarged view of the vicinity of the projection unit of the visual field vision inspection apparatus.
  • the imaging light beam scanned by the scanning mirror 212 is reflected by the mirror 215 toward the lens 251 of the eyeglass frame.
  • the projection unit 210 is disposed on the surface of the lens 251 on the eyeball 260 side, the imaging light beam scanned by the scanning mirror 212 enters the projection unit 216.
  • the projection unit 216 is a half mirror having a free-form surface or a composite structure of a free-form surface and a diffractive surface in an area 216 a where the image light beam is incident. As a result, the imaging light beam incident on the projection unit 216 is converged in the vicinity of the pupil 262 of the eyeball 260 and then projected onto the retina 261.
  • the subject can recognize the image formed by the image light beam and can visually recognize the outside image by the see-through.
  • FIG. 5 is a diagram for explaining the vibration of the first mirror.
  • FIG. 4 shows the case where the scanning mirror 212 vibrates from point A to point B.
  • a method of scanning an image light beam by the scanning mirror 212 and projecting an image on the retina 261 a method of scanning light at high speed from the upper left to the lower right of the region on which the image is projected (eg, raster scan) ).
  • the scanning mirror 212 is larger than a region H (broken line range in FIG. 4) in which the image is projected onto the retina 261 in order to scan the image light beam (light beam L). And vibrate in the horizontal direction (first direction) and in the vertical direction (second direction intersecting the first direction).
  • the vibration of the scanning mirror 212 is indicated by reference numeral 50.
  • the imaging light beam is scanned at a place where the deflection of the scanning mirror 212 is small.
  • FIG. 5 shows the case where the image light beam is scanned in a rectangular shape as an example, the present invention is not limited to this case, and other cases such as trapezoidal shape scanning may be used.
  • the region H where the image is projected be sized to cover the visual field of the subject.
  • the size that covers the subject's field of vision is, for example, a size in which the image projected onto the retina covers approximately 60 degrees on the nose side and upper side, approximately 70 degrees on the lower side, and approximately 90 to 100 degrees on the ear side. is there.
  • the visual field test is also appropriate for a subject who does not have a defect in the visual field or an abnormality in the retina or optic nerve. It can be performed.
  • the region H on which the image is projected is “downward at about 60 degrees on the nose side and upper side with one eye, as described above It may be smaller than “about 70 degrees, about 90 to 100 degrees of covering on the ear side”.
  • FIG. 6 is a diagram for explaining an example of the hardware configuration of the terminal device.
  • the terminal device 300 of the present embodiment includes a display operation device 301, a drive device 302, an auxiliary storage device 303, a memory device 304, an arithmetic processing unit 305, and an interface device 306, which are mutually connected by a bus B.
  • the display operation device 301 is a touch panel or the like, and has a display function of displaying information and an input function of inputting information.
  • the interface device 306 includes a LAN card and the like, and is used to connect to a network.
  • the visual field vision examination program executed in the terminal device 300 is at least a part of various programs for controlling the terminal device 300.
  • the visual acuity test program is provided, for example, by distributing the recording medium 307 or downloading from the network.
  • the recording medium 307 on which the visual field visual acuity inspection program is recorded is a recording medium which records information optically, electrically or magnetically such as a CD-ROM, a flexible disc, a magneto-optical disc etc., a ROM, a flash memory etc.
  • Various types of recording media can be used, such as a semiconductor memory that electrically records information.
  • the visual field visual acuity inspection program is installed in the auxiliary storage device 303 from the recording medium 307 via the drive device 302 when the recording medium 307 recording the visual field visual acuity inspection program is set in the drive device 302.
  • the visual acuity test program downloaded from the network is installed in the auxiliary storage device 303 via the interface device 306.
  • the auxiliary storage device 303 stores the installed visual field vision examination program and also stores necessary files, data, and the like.
  • the memory device 304 reads out and stores the visual field vision examination program from the auxiliary storage device 303 when the computer is started.
  • the arithmetic processing unit 305 implements various processing as described later according to the visual field and vision inspection program stored in the memory unit 304.
  • the terminal device 300 includes the display operation device 301 in the present embodiment, the present invention is not limited to this.
  • the terminal device 300 may be, for example, a desktop computer or a notebook computer. In that case, the terminal device 300 may have an input device such as a mouse or a keyboard used for inputting information, and an output device such as a display for displaying information, instead of the display operation device 301.
  • FIG. 7 is a view for explaining the system configuration of the visual acuity inspection system of the first embodiment.
  • the visual acuity inspection system 100 of the present embodiment includes a visual acuity inspection device 200 and a terminal device 300.
  • the visual acuity inspection device 200 is connected to the terminal device 300 and communicates with the terminal device 300.
  • the visual acuity inspection apparatus 200 and the terminal device 300 communicate by wireless, but the present invention is not limited to this.
  • the visual field vision inspection apparatus 200 and the terminal device 300 may be connected by any method as long as they are connected in a communicable state.
  • the terminal device 300 of the present embodiment includes an inspection processing unit 310, an image output processing unit 320, and an inspection result storage unit 330.
  • the examination processing unit 310 holds examination image data corresponding to the visual field examination image G and examination image data corresponding to the vision examination image T, and these examination image data To the image output processing unit 320.
  • the inspection processing unit 310 of the present embodiment causes the visual field inspection image G or the visual acuity inspection image T to be displayed on the screen of the own machine, receives the test result of the subject, and receives the test result information indicating the test result. It stores in the inspection result storage unit 330. Details of the inspection processing unit 310 will be described later.
  • the image output processing unit 320 outputs the image data received from the inspection processing unit 310 to an external device. Specifically, the image output processing unit 320 of the present embodiment outputs (transmits) the visual field examination image data and the visual acuity examination image data to the visual field and vision examination apparatus 200.
  • the examination result storage unit 330 includes a visual field examination result table 331 and a visual acuity examination result table 332.
  • the visual field inspection result table 331 inspection results of visual field inspection of a subject wearing the visual field visual acuity inspection apparatus 200 are stored.
  • the visual acuity test result table 332 the test results of the visual acuity test of the subject wearing the visual field visual acuity inspection apparatus 200 are stored. Details of the visual field test result table 331 and the visual acuity test result table 332 will be described later.
  • FIG. 8 is a diagram for explaining an inspection processing unit of the first embodiment.
  • Each unit shown in FIG. 7 is realized by the arithmetic processing unit 305 of the terminal device 300 reading out and executing the visual field vision inspection program stored in the memory device 304 or the like.
  • the inspection processing unit 310 of the present embodiment includes an image data holding unit 311, a display control unit 312, an input receiving unit 313, an image data selection unit 314, and an inspection result storage control unit 315.
  • the image data holding unit 311 holds image data for visual field inspection corresponding to the image G for visual field inspection and image data for visual acuity inspection corresponding to the image T for visual acuity inspection.
  • the image data storage unit 311 of the present embodiment receives an inspection start request, the image data storage unit 311 passes image data corresponding to the inspection to be performed to the image output processing unit 320 and the display control unit 312.
  • the image data holding unit 311 holds the inspection image data, but the present invention is not limited to this.
  • the inspection image data may also be held by the control unit 230 of the visual field visual acuity inspection apparatus 200.
  • the display control unit 312 When the display control unit 312 receives the inspection image data, the display control unit 312 causes the display 308 of the terminal device 300 to display an input screen of an inspection result including the inspection image. More specifically, the display control unit 312 displays an input screen of an examination result including the image G for visual field examination and an input screen of an examination result including the image T for visual acuity examination. In addition, the display control unit 312 of the present embodiment may display a selection screen for selecting a visual field test or a visual acuity test in response to a request for performing an examination.
  • the input accepting unit 313 accepts inputs according to various operations performed in the display operation device 301. Specifically, the input receiving unit 313 receives an inspection start request, selection of an inspection to be performed, an input on an input screen of an inspection result, and the like.
  • the image data selection unit 314 selects image data corresponding to the type of examination accepted by the input acceptance unit 313 from the examination image data retained in the image data retention unit 311, and passes the image data to the display control unit 312.
  • the image data selection unit 314 selects the image data corresponding to the visual field examination image G and the visual acuity examination is selected.
  • the image data corresponding to the vision test image T is selected and passed to the display control unit 312.
  • the examination result storage control unit 315 stores the examination result received by the input accepting unit 313 in the examination result storage unit 330 in association with the information indicating the subject and the date and time when the input of the examination result is accepted.
  • FIG. 9 is a diagram showing a first example of the visual field inspection image of the first embodiment
  • FIG. 10 is a diagram showing a second example of the visual field inspection image.
  • the visual field inspection image G shown in FIG. 9 is divided into a plurality of regions in each of the vertical direction and the horizontal direction. In other words, the visual field inspection image G is formed of a set of rectangular areas.
  • Arabic numerals are drawn in each of the areas in the visual field inspection image G as an identifier for identifying each area.
  • the identifier of the area is not limited to Arabic numerals.
  • the identifier of the area may be, for example, another type of number, hiragana or kanji, or characters of alphabets or other languages.
  • a gaze point M is formed in the central portion.
  • the mark indicating the gaze point M is “+”, but the shape of the mark indicating the gaze point is not limited to this.
  • the shape of the mark indicating the fixation point may be any shape as long as it can indicate the point to be focused on the subject P.
  • visual impairments there are types of impairments such as discrimination of images and the like but inability to discriminate characters.
  • the identifier of the area of the present embodiment may not necessarily be a character.
  • an image or the like may be displayed for each area as an area identifier.
  • an image of an apple may be displayed in an area where the identifier is “1”, and an image of a car may be displayed in an area where the identifier is “2”.
  • an image of a star-shaped mark may be displayed in an area where the identifier is “1”
  • an image of a heart-shaped mark may be displayed in an area where the identifier is “2”.
  • the identifier is not a character but is an image as described above, for example, even for a subject who does not have literacy ability, it is possible to distinguish an area where the subject can see and an area where the subject can not see in the test image.
  • the number of regions included in the visual field inspection image G is 100 in FIG. 9, the number of regions is not limited to this.
  • the number of regions in the visual field inspection image G may be determined according to the size of the region onto which the visual field inspection image G is projected. Further, the number of regions in the visual field inspection image G may be such that the region where the subject can see and the region where the subject can not see can be grasped.
  • the number of regions in the visual field inspection image G be such that the region where the subject can not see and the region where the subject can not see can be appropriately grasped without increasing the burden on the subject.
  • the number of the regions may be determined in advance, for example, from the result of repeating the visual field examination using the visual acuity examination system 100 of the present embodiment.
  • region contained in the image G for visual field inspection was made into the rectangle in this embodiment, it is not limited to this.
  • the shape of the area included in the visual field inspection image G may be circular, elliptical, or square.
  • the visual field inspection image G1 shown in FIG. 10 is obtained by increasing the size of the identifier drawn in the area as the area is farther from the fixation point M in the central portion.
  • the identifier of the area near the fixation point is easily visible to the subject P, and the identifier of the area away from the fixation point is It becomes difficult for the subject P to visually recognize.
  • the visibility of the identifiers around the visual field inspection image G1 can be improved by drawing the larger the identifier located in the position away from the fixation point M centering on the fixation point M.
  • the visual field test image G1 can also be used to measure the visual acuity distribution of the retina itself.
  • FIG. 11 is a first diagram showing an example of the vision test image of the first embodiment.
  • Landolt's rings of 11 columns are arranged across 6 rows.
  • coordinates indicating the center of each Landolt ring included in the vision test image T may be associated with the vision test image T.
  • the test subject can not determine a cut for the Landolt rings 121 to 123 in the visual acuity test image T Think about the case.
  • the coordinates of the center points P1, P2, and P3 of the Landolt rings 121 to 123 may be output as information for identifying the Landolt ring where the test subject could not identify the break.
  • FIG. 12 is a second view showing an example of the vision test image of the first embodiment.
  • the vision test image T1 shown in FIG. 12 five rows of Landolt rings are arranged in three rows, and the Landolt ring of the vision test image T1 is the same as the Landolt rings of the vision test image T shown in FIG. It turns out that it is large compared with.
  • the visual acuity examination image corresponding to the visual acuity stage is provided with Landolt's ring of a size corresponding to the visual acuity stage. It was a thing.
  • the size of the Landolt's ring to be projected onto the subject's retina is selected according to the subject's visual acuity, and the vision test image on which the Landolt's ring of the selected size is arranged is placed on the subject's retina. It may be projected.
  • the size of the Landolt's ring to be projected onto the subject's retina may be selected by the subject or may be selected by the test assistant.
  • FIG. 13 is a diagram for explaining a Landolt ring.
  • the Landolt ring is a black ring, and the width of the entire ring, the width of the arc, and the width of the open ring (the width of the cut) are 5: 5: 1.
  • the visual acuity is 1.0. More specifically, the vision has a diameter of 7.5 mm, an arc width of 1.5 mm, and a cut width of 1.5 mm. It may be a vision 1.0.
  • the vision test image T may be projected onto the retina by the visual acuity test apparatus 200, which includes the Landolt's ring having a size as viewed from a distance of 5 m from the Landolt's ring.
  • FIG. 14 is a third diagram showing an example of the vision test image of the first embodiment.
  • the position for displaying the Landolt ring shows a vision test image at different positions.
  • one Landolt ring is arranged at the upper left
  • the vision test image T12 one Landolt ring is arranged at the lower left.
  • one Landolt ring is disposed at the upper right.
  • images for visual acuity examination at different positions where Landolt's rings are arranged are sequentially projected onto the retina of the subject to examine for the presence of visual field defects in addition to visual acuity. be able to.
  • one Landolt ring is arranged for one vision test image, but the present invention is not limited to this.
  • a plurality of Landolt rings may be arranged for one vision test image.
  • the visual acuity examination images different in the position where the Landolt's ring is disposed are sequentially projected onto the retina of the subject, but the present invention is not limited thereto.
  • the vision test image may be projected on the subject's retina as a moving image in which the position of the Landolt ring moves.
  • the visual field of the subject and the visual acuity can be associated.
  • the distribution of visual acuity in the retina of the subject can be grasped.
  • FIG. 15 is a fourth diagram showing an example of the vision test image of the first embodiment.
  • a plurality of Landolt's ring images 151 to 156 having different luminances are arranged.
  • the luminance gradually decreases from the image 151 of the Landolt ring to the image 156 of the Landolt ring.
  • the Landolt ring may be a black image, or may be an image of a color other than black, for example, blue, red, or green.
  • the present embodiment by changing the color of the image of the Landolt's ring, it is possible to examine the presence or absence of a color vision abnormality together with the vision test.
  • FIG. 16 is a fifth diagram illustrating an example of the vision test image of the first embodiment.
  • the visual acuity test may be performed using an image other than the Landolt's ring.
  • the vision test image T16 shown in FIG. 16 includes an ETDRS (Early Treatment of Diabetic Retinopathy Study) chart.
  • the difference between the sizes of targets between rows is 0.1 log MAR unit, and five targets are arranged in one row.
  • the character to be a target is Sloan Letter set (10 characters of C, D, H, K, N, O, R, S, V, Z) of Sloan font.
  • the distance between each target is one target, and the result is not digitized but the numerical value by the targets.
  • the visual acuity test may be performed using a target other than the Landolt ring.
  • the targets other than the Landolt's ring are, for example, a tumbling E chart etc. in addition to the ETDRS chart.
  • FIG. 17 is a diagram showing an example of an image used for examination of contrast sensitivity
  • FIG. 18 is a diagram showing an example of an image used for examination of astigmatism.
  • the vision test image T of the present embodiment may include, for example, a test image of contrast sensitivity shown in FIG.
  • Images 171 and 172 shown in FIG. 17 are images for projecting the gradation of color over the entire field of view.
  • the contrast sensitivity of the subject can be measured by thus projecting the gradation of the color on the visual field of the subject and inputting the color that can be recognized by the subject as the examination result.
  • the image projected on the entire visual field is not an image of gradation of color, but a plurality of images in which the entire visual field has the same color are prepared, and the plurality of images are sequentially projected. It is also possible to realize color gradation.
  • the vision test image T of the present embodiment may include the image 181 and the image 182 for astigmatism examination shown in FIG. 18. By including these images in the vision test image T, it is possible to test whether the subject is astigmatic or not.
  • FIG. 19 is a flowchart for explaining the operation of the terminal device of the first embodiment.
  • the terminal device 300 determines whether the input reception unit 313 has received a start request for visual field inspection (step S1901). If the start request has not been received in step S1901, the inspection processing unit 310 proceeds to step S1911, which will be described later.
  • step S1901 when the start request is received, the inspection processing unit 310 causes the image data selection unit 314 to select and read out visual field inspection image data from the image data held by the image data holding unit 311, and outputs the image.
  • the image data for visual field inspection is passed to the processing unit 320 and the display control unit 312 (step S1902).
  • the image output processing unit 320 transmits the inspection image data to the visual field and vision inspection apparatus 200 (step S1903).
  • the projection unit 210 scans the image light beam based on the test image data onto the retina of the subject, and the visual field test image G Make the subject visually recognize
  • the display control unit 312 causes the display 308 of the terminal device 300 to display an input screen of an inspection result including the visual field inspection image G based on the inspection image data (Step 1 S904). Details of the inspection result input screen will be described later.
  • the inspection processing unit 310 causes the input receiving unit 313 to determine whether the input of the inspection result is received on the input screen (step S1905).
  • the input reception unit 313 proceeds to step S1908 described later.
  • step S1905 when the input of the examination result is accepted, the input accepting unit 313 determines whether or not an instruction to save the examination result is accepted (step S1906). In step S1906, when the storage instruction is not received, the input reception unit 313 proceeds to step S1910 described later.
  • step S1906 when the input of the storage instruction is received, the inspection processing unit 310 causes the inspection result storage control unit 315 to store the input inspection result in the inspection result storage unit 330 (step S1907), and the processing ends.
  • step S1905 when the input of the test result is not received, the input receiving unit 313 determines whether a predetermined time has elapsed (step S1908). In step S1908, when the predetermined time has not elapsed, the input accepting unit 313 returns to step S1905.
  • step S1908 when the predetermined time has elapsed, the inspection processing unit 310 causes the display control unit 312 to display on the terminal device 300 that the execution of the visual field inspection has not been performed normally (step S1909), and the process is ended. Do.
  • step S1910 determines whether a predetermined time has elapsed. In step S1910, when the predetermined time has not elapsed, the input accepting unit 313 returns to step S1906.
  • step S1910 when the predetermined time has elapsed, the inspection processing unit 310 proceeds to step S1909.
  • step S1901 the input reception unit 313 determines whether the start request of the visual acuity inspection is received (step S1911). In step S1911, when the start request for the visual acuity examination is not received, the inspection processing unit 310 returns to step S1901.
  • step S1911 when the start request for the visual acuity examination is received, the inspection processing unit 310 causes the image data selection unit 314 to select and read the visual acuity examination image data from the image data held by the image data holding unit 311. Then, the visual field inspection image data is passed to the image output processing unit 320 and the display control unit 312 (step S1912), and the process proceeds to step S1903.
  • FIG. 20 is a diagram showing an example of an inspection result input screen according to the first embodiment.
  • the input screen 101 shown in FIG. 20 is displayed on the display 308 of the terminal device 300.
  • the input screen 101 includes the visual field inspection image G. Further, the input screen 101 includes a message 102 for selecting a read number in the visual field inspection image G, and a button 103 for instructing storage of the inspection result.
  • the message 102 is "Please touch the number read by the subject", and the content 102 prompts the user to select the number visually recognized by the subject in the visual field test image G.
  • the message 102 may be, for example, content for prompting selection of a number which can not be visually recognized by the subject in the visual field test image G.
  • the content of the message 102 may be set in advance by the administrator of the visual field and vision inspection system 100 or the like. Also, for example, it may be set by the subject whether to select a read number or to select a non-read number.
  • the inspection result storage unit 330 will be described with reference to FIGS.
  • the visual field test result table 331 -P of the subject P will be described with reference to FIGS. 21 to 23.
  • FIG. 21 is a first diagram showing an example of how a subject looks at a visual field test image.
  • FIG. 21A is a diagram showing an example of how the subject P's visual field test image looks
  • FIG. 21B is an example of how the test subject whose appearance shown in FIG. 21A looks at the visual field test image.
  • FIG. 21A is a diagram showing an example of how the subject P's visual field test image looks
  • FIG. 21B is an example of how the test subject whose appearance shown in FIG. 21A looks at the visual field test image.
  • the subject P has the defect areas 112, 113, and 114 in the field of view 111.
  • the defect areas 112, 113, and 114 correspond to positions on the retina of the subject P. That is, the retina of the subject P has some abnormality at the position corresponding to the defect areas 112, 113, and 114 in the field of view 111.
  • the defective areas 112, 113, and 114 shown in FIG. 21A are reflected also in the visual field inspection image G. .
  • the visual field inspection image G is visually recognized by the subject P as an image in which a region (shaded portion) at a position corresponding to the defect regions 112, 113, and 114 is missing. Therefore, the number drawn in the area at the position corresponding to the defect area is not visually recognized by the subject.
  • the area included in the loss area 112 is an area with identifiers 1, 2, 11, 21 and the area included in the loss area 113 is an area with identifiers 9, 10, 20, 30. is there. Therefore, these numbers are numbers that can not be read by the subject P.
  • FIG. 22 is a first diagram illustrating an example of an input screen in a state in which the visual field inspection result is input according to the first embodiment.
  • An input screen 101A illustrated in FIG. 22 illustrates an example in which the result of the visual field test of the subject P is input on the input screen 101.
  • the numbers of the areas included in the respective missing areas 112 to 114 are not selected, and the numbers of the areas other than the missing areas 112 to 114 are selected.
  • the selected area is made to look brighter than the area not selected, but the present invention is not limited to this.
  • the input screen 101A when the input of the result of the visual field inspection is completed and the button 103 is scanned, the inputted inspection result is stored in the visual field inspection result table 331-P.
  • FIG. 23 is a first diagram showing an example of the visual field inspection result table of the first embodiment.
  • the visual field test result table 331-P of the present embodiment has, as items of information, a subject ID, an examination date, an input time, read numbers, and unread numbers.
  • the item "subject ID" is associated with other items.
  • information including the value of each item is referred to as visual field inspection result information.
  • the value of the item "subject ID" is an identifier for identifying a subject.
  • the name or the like of the subject may be used as the information for identifying the subject.
  • the value of the item “examination date” is information indicating the date on which the visual field examination was performed.
  • the item “input time” value is information indicating the time at which the inspection result of the visual field inspection is input in the terminal device 300. That is, the value of the item “input time” is information indicating the time when the visual field examination was performed.
  • the value of the item “read number” indicates the number read by the subject in the visual field test image G.
  • the value of the item “read number” indicates the number drawn in the area selected as the read number in the visual field inspection image G displayed on the inspection result input screen 101.
  • the value of the item “unreadable number” indicates a number that can not be read by the subject in the visual field test image G.
  • the value of the item “unreadable digit” indicates the numeral drawn in the area not selected as the readable digit in the visual field inspection image G displayed on the inspection result input screen 101.
  • FIG. 24 is a second diagram showing an example of how the subject looks at the visual field test image.
  • FIG. 24A is a view showing an example of how the subject Q looks
  • FIG. 24B is a view showing an example of how the test subject who looks in FIG. 24A looks at the visual field test image G.
  • the subject Q has a defect area 142 in the field of view 141.
  • the visual field inspection image G is visually recognized by the subject Q as an image in which a region (shaded portion) at a position corresponding to the defect region 142 is missing. Therefore, the number drawn in the area at the position corresponding to the defect area is not visually recognized by the subject.
  • the numbers drawn in the area included in the missing area 142 are numbers that can not be read by the subject Q.
  • FIG. 25 is a second diagram showing an example of the input screen in the state in which the visual field inspection result in the first embodiment is input.
  • An input screen 101B illustrated in FIG. 25 illustrates an example in which the result of the visual field test of the subject Q is input on the input screen 101.
  • the numbers of the areas included in the loss area 142 are not selected, and the numbers of the areas other than the loss area 142 are selected.
  • the numbers read by the subject Q are selected in the following order: 5-10, 15-20, 25-30, 35-40, 45-50, 55-59. Therefore, it can be understood that the area in which the number selected by the subject Q is drawn is the field of view of the subject Q.
  • the inspection result is stored in the visual field inspection result table 331-Q.
  • FIG. 26 is a second diagram showing an example of the visual field inspection result table of the first embodiment.
  • the visual field test result table 331-Q shown in FIG. 26 is input at 18:00 on April 13, 2016 and the visual field test result that the subject Q with a test subject ID of 002 entered at 10:00 on 2016/4/10. It can be seen that the result of the visual field inspection is stored.
  • each region of the image G for visual inspection Since it corresponds to the position on the retina, it is possible to perform a visual field test at each position on the retina by examining the visible or invisible in each of the areas.
  • the visual field inspection result table 331 stored in the terminal device 300 may be stored, for example, in a server or the like of a medical institution or the like in which the visual field visual inspection system 100 is introduced.
  • the visual field inspection image G is described as having a size that covers the visual field of the subject, but is not limited to this.
  • the visual acuity examination apparatus 200 may be provided with a mechanism for detecting the moving direction of the pupil.
  • a mechanism for detecting the moving direction of the pupil by providing such a mechanism in the visual acuity examination apparatus 200, it is possible to change the irradiation direction of the image light beam from the light source 211 to the moving direction of the pupil in the moving direction of the subject's pupil.
  • the subject can view the same vision test image G both after and before moving the pupil. Therefore, the subject does not need to be in a fixed direction, and can perform visual field examination in a free posture. Also, in this way, the visual field inspection image G can always be visually recognized by the subject during the examination without being influenced by the posture of the subject, etc., and the examination accuracy can be improved.
  • the visual field inspection result table 331 of the present embodiment for example, instead of the value of the item “read numeral” and the value of the item “unreadable numeral”, the area indicated by each identifier in the visual inspection image G Coordinate information indicating the position of may be used. Further, the visual field inspection result table 331 may have, as items of information, for example, coordinate information indicating the position of the area indicated by the value of the item “read number” and the value of the item “unreadable number”. .
  • the coordinate information may be acquired from, for example, inspection image data, or may be acquired from, for example, a table or the like in which an identifier of each area is associated with coordinate information specifying an area corresponding to the identifier. This table may be given to the terminal device 300 in advance.
  • the inspection result information may include the image data of the visual field inspection image G in the state where the region is selected. That is, in the present embodiment, the inspection result information may hold the image data of the visual field inspection image G in which the area is selected as shown in FIG. 12 or 15 as one item of the inspection result information.
  • the brightness (brightness) of the visual field inspection image G may be changed stepwise, and the inspection result may be input each time.
  • the item “brightness of the visual field inspection image G” may be added to the test result storage unit 330, and the value of the item “brightness of the visual field test image G” may be included in the test result information.
  • the visual field corresponding to the brightness of the subject can be specified by inputting the test result for each brightness of the visual field test image G.
  • FIG. 27 is a diagram showing an example of how a subject with the appearance shown in FIG. 24A looks at the vision test image.
  • the subject Q has a defect area 142. Therefore, for the subject Q, as shown in FIG. 27, the vision test image T is visually recognized as an image in which the area (shaded portion) at the position corresponding to the defect area 142 is missing. Therefore, the Landolt ring drawn in the area corresponding to the defect area is not visually recognized by the subject Q. Therefore, in the example of FIG. 27, the Landolt's ring drawn in the area included in the defect area 142 is an area in which the subject Q can not determine the break.
  • FIG. 28 is a diagram showing an example of an input screen in a state where the visual acuity test result is input in the first embodiment.
  • An input screen 101C illustrated in FIG. 28 illustrates an example in which the result of the visual field test of the subject Q is input on the input screen 101.
  • a vision test image T including Landolt rings of different sizes is sequentially projected onto the retina of the subject Q.
  • the subject Q reads out the direction of the break in the Landolt ring projected to an area other than the defect area 142, and the test assistant reads out the direction of the break in the test. select.
  • an identifier or the like for specifying each Landolt ring may be provided at the center or in the vicinity of the Landolt ring.
  • a number serving as an identifier for identifying a Landolt ring may be assigned to the center of each Landolt ring.
  • the Landolt's ring of the region included in the defect region 142 is not selected on the input screen 101C, and the Landolt's ring of the region other than the defect region 142 is selected.
  • the visual acuity test can be performed in this manner to measure the visual acuity of the subject Q. Further, in the present embodiment, simultaneously with the visual acuity examination, a visual field examination as to whether or not a defect area exists in the visual field of the subject Q can also be performed.
  • the result of the vision test is stored in the vision test result table 332-Q.
  • FIG. 29 is a first diagram showing an example of the visual acuity test result table according to the first embodiment.
  • the visual acuity test result table 332-P of the present embodiment has, as items of information, a subject ID, an examination date, an input time, a Landolt's ring which could not be discriminated, and a Landolt's ring which could be discriminated.
  • the item "subject ID" is associated with other items.
  • information including the value of each item is referred to as visual acuity test result information.
  • the value of the item “Landolt ring that could not be determined” indicates the Landolt ring in which the subject could not determine the break in the vision test image T.
  • the value of the item “Landolt ring that could not be determined” is an identifier that specifies the Landolt ring that has not been selected as the Landolt ring whose break has been determined in the visual acuity examination image T displayed on the input screen 101C. .
  • the value of the item “discriminated Landolt ring” indicates the Landolt ring at which the subject can distinguish a break in the vision test image T.
  • the value of the item “discriminated Landolt ring” is an identifier for identifying the Landolt ring selected as the Landolt ring whose break has been discriminated in the visual acuity examination image T displayed on the input screen 101C.
  • the visual acuity test result table 332-Q shown in FIG. 29 indicates that the visual acuity test result in which the subject Q with the subject ID of 002 entered at 10:00 2016/10/10 is stored.
  • each of the values of the item “Landolt ring that could not be determined” and the value of "Landolt ring that could be determined” were used as identifiers for identifying the Landolt ring, but the invention is not limited thereto.
  • the values of the items “undetected Landolt ring” and “judged Landolt ring” may be, for example, the coordinates of the central point of the Landolt ring selected on the input screen 101C.
  • FIG. 30 is a second diagram showing an example of the visual acuity test result table according to the first embodiment.
  • the visual acuity test result table 332A-Q shown in FIG. 30 shows an example of the visual acuity test result when a moving image in which one Landolt ring moves is projected onto the retina of the subject Q.
  • the value of the item "discriminated Landolt ring" is information of coordinates indicating the area in which the Landolt ring whose break has been judged by the subject Q is displayed in the visual acuity test image T. is there.
  • the value of the item “discriminated Landolt ring” is coordinate information indicating a region where the Landolt ring whose break has been determined by the subject Q is displayed in the visual acuity examination image T.
  • the value of the item “Landolt ring that could not be determined” is coordinate information indicating a region in which the Landolt ring for which a break was not determined by the subject Q was displayed in the visual acuity examination image T.
  • the coordinates here are the coordinates of the central point of the Landolt ring.
  • “discrimination of Landolt ring break” refers to visual recognition of the Landolt ring, and the case in which the direction of the break point is correctly determined and the Landolt ring could be recognized, but the direction of the break point is correct. It may include both the case where it is not determined and the case.
  • each region of the visual field inspection image G Since it corresponds to the position on the retina, it is possible to perform a visual field test at each position on the retina by examining the visible or invisible in each of the areas.
  • the vision test image T including the image of the visual target used for the vision test is directly made to a predetermined position on the retina. Therefore, according to the present embodiment, the eyesight of the retina itself can be measured. Furthermore, in the present embodiment, the distribution of visual acuity in the retina can be measured.
  • the second embodiment will be described below with reference to the drawings.
  • the second embodiment is different from the first embodiment in that an image or a character can be visually recognized even by a subject whose visual field is deficient by generating image data based on inspection result data of visual field inspection.
  • image data based on inspection result data of visual field inspection.
  • the first embodiment only the differences between the first embodiment will be described, and components having the same functional configuration as the first embodiment are used in the description of the first embodiment.
  • the same reference numerals as the reference numerals are given and the description thereof is omitted.
  • FIG. 31 is a diagram for explaining the system configuration of a visual acuity inspection system according to the second embodiment.
  • the visual acuity inspection system 100A of the present embodiment includes a visual acuity inspection device 200 and a terminal device 300A.
  • the visual field and vision inspection apparatus 200 of the present embodiment also functions as an image projection apparatus that projects not only the inspection image data but also various image data transmitted from the terminal device 300A onto the retina of the subject.
  • the terminal device 300A of the present embodiment includes an inspection processing unit 310, an image output processing unit 320, an inspection result storage unit 330, and an image generation processing unit 340.
  • the image generation processing unit 340 of the present embodiment refers to the examination result stored in the examination result storage unit 330, and generates image data so that the information to be projected is projected on the visual field of the subject.
  • FIG. 32 is a diagram for explaining the function of the image generation processing unit of the second embodiment.
  • the image generation processing unit 340 of this embodiment includes a projection request receiving unit 341, a projection target acquisition unit 342, an inspection result acquisition unit 343, and an image data generation unit 344.
  • the projection request receiving unit 341 receives a projection request for projection information input in the display operation device 301 or the like.
  • the projection target acquisition unit 342 acquires projection information.
  • the projection information is information that is the source of the image projected onto the retina of the user P by the visual field and vision inspection apparatus 200, and is, for example, content data stored in the auxiliary storage device 33 or the like of the terminal device 300A. Or the like.
  • the projection information may be content data or the like acquired by the terminal device 300A from an external server, a storage device, or the like.
  • the projection information may be text data or image data including a moving image.
  • the examination result acquisition unit 343 acquires, from the visual field examination result table 331 of the examination result storage unit 330, the latest visual field examination result information on the examination date and the input time.
  • the image data generation unit 344 generates image data of an image on which projection information is displayed for the area indicated by the value of the item “read number” from the visual field inspection result information, and generates the generated image data as an image output processing unit Pass to 320.
  • FIG. 33 is a flow chart for explaining the operation of the image generation processing unit of the second embodiment.
  • the image generation processing unit 340 of the present embodiment causes the projection request receiving unit 341 to select the projection information and determines whether the projection request for the projection information has been received (step S3301). In step S3301, when the projection request is not received, the image generation processing unit 340 stands by until the projection request is received.
  • step S3301 when a projection request is received, the image generation processing unit 340 causes the projection target acquisition unit 342 to acquire the selected projection information (step S3302).
  • the image generation processing unit 340 causes the test result acquisition unit 343 to obtain the visual field test result information of the subject who has made the projection request from the visual field test result table 331 of the test result storage unit 330 (step S3304).
  • the image generation processing unit 340 causes the image data generation unit 344 to generate image data to be delivered to the image output processing unit 320 based on the projection information and the visual field inspection result information (step S3305). Specifically, the image data generation unit 344 generates, from the visual field test result information, image data in which the projection information is drawn only in the area in which the item “read number” is drawn.
  • the image data generation unit 344 transfers the generated image data to the image output processing unit 320, and ends the processing.
  • FIG. 34 is a diagram illustrating an example of image data generated by the image generation processing unit.
  • An image 201-P of FIG. 34 shows an example of an image represented by image data generated based on the test result information of the subject P.
  • an image 201-Q in FIG. 34 shows an example of an image represented by image data generated based on the test result information of the subject Q.
  • the newest inspection result information is inspection result information input at 18:00 on Apr. 13, 2016 (see FIG. 23).
  • the image generation processing unit 340 acquires the visual field inspection result information input from 18:00 on Apr. 13, 2016 to the visual field inspection result table 331-P.
  • the value of the item “read number” included in the visual field test result information is 3-8, 12-19, 22-29, 31-89, 91-98.
  • the image generation processing unit 340 generates image data representing the image 201-P in which the projection information is displayed only in the area having these numbers as identifiers.
  • projection information is displayed in a region corresponding to the identifier 12-19, a region corresponding to the identifier 22-29, a region corresponding to the identifier 31-89, or the like.
  • projection information is displayed only in the area 202 which is the field of view of the subject P. Therefore, according to the present embodiment, it is possible to project the projection information for which the subject P has made a projection request onto the retina of the subject P so as to enter the field of view of the subject P.
  • the newest examination result information is examination result information input at 18:00 on April 13, 2016 (see FIG. 26).
  • the image generation processing unit 340 acquires the examination result information input from the examination result storage unit 330-Q at 18:00 on Apr. 13, 2016.
  • the value of the item "Readable Number” included in this inspection result information is 5-10, 14-20, 24-30, 35-40, 44-50, 55-60.
  • the image generation processing unit 340 generates image data representing the image 201-Q in which the projection information is displayed only in the area having these numbers as identifiers.
  • projection information is displayed in a region corresponding to the identifiers 5-10, 14-20, 24-30, 35-40, 44-50, 55-60.
  • the projection information is displayed only in the area 203 which is the field of view of the subject Q. Therefore, according to the present embodiment, the projection information for which the subject Q has made a projection request can be projected onto the retina of the subject Q so as to enter the field of view of the subject Q.
  • the projection information can be projected onto the retina of the subject without loss of vision.
  • the part where the meaning or the like of the term is displayed from the image displaying the search result of the searched term Only the image of can be extracted, and the extracted image can be displayed in the field of view, and even a person with a limited field of view can use the normal electronic dictionary.
  • the image data generated by the image generation processing unit 340 of this embodiment also includes moving image data.
  • the moving image data may be projected so that the text data flows in the field of view of the subject.
  • the image generation processing unit 340 refers to the visual acuity test result information of the user of the visual field visual acuity inspection apparatus 200, and the value of the item “Landolt ring determined” includes a value indicating multiple Landolt rings The size of the Landolt ring may be matched to the size of the characters to be projected.
  • the image data generation unit 344 generates image data of an image in which information is projected only to the field of view of the subject, but the present invention is not limited thereto.
  • the image generation processing unit 340 may transmit, for example, the information indicating the visual field of the subject and the image data for projecting only the projection information to the visual acuity inspection apparatus (image projection apparatus) 200 via the image output processing unit 320.
  • the information indicating the visual field of the subject may be, for example, coordinate information of a region having the value of the item “read number” included in the test result information as an identifier.
  • the visual acuity inspection apparatus (image projection apparatus) 200 receives the information indicating the visual field of the subject and the image data for projecting only the projection information, and controls the vibration of the scanning mirror 212 by the control unit 230 to Only the projection information may be projected within the field of view of.
  • the third embodiment will be described below with reference to the drawings.
  • the third embodiment is different from the second embodiment in that the function of the terminal device of the second embodiment is provided in a server outside the terminal device. Therefore, in the following description of the third embodiment, components having the same functional configuration as the second embodiment are given the same reference numerals as the symbols used in the description of the second embodiment, and the description thereof Omit.
  • FIG. 35 is a diagram for explaining the system configuration of the visual acuity inspection system of the third embodiment.
  • the visual acuity inspection system 100B of the present embodiment includes a visual acuity inspection device (image projection device) 200, a terminal device 300B, and a server 400.
  • the visual acuity inspection apparatus (image projection apparatus) 200 and the terminal apparatus 300B are one, but the visual acuity inspection apparatus (image projection apparatus) 200 and the terminal apparatus 300B included in the visual acuity inspection system 100B.
  • the number of may be any number.
  • the terminal device 300 ⁇ / b> B of the present embodiment receives image data from the server 400, and transmits the received image data to the visual acuity inspection device (image projection device) 200.
  • the terminal device 300B of the present embodiment displays a screen instructed from the server 400, and transmits information input on the screen to the server 400.
  • the server 400 of the present embodiment is connected to the terminal device 300B via a network.
  • the server 400 includes an inspection result database 330A, an inspection processing unit 310A, an image output processing unit 320, and an image generation processing unit 340.
  • the visual field examination result information and the visual acuity examination result information input in the terminal device 300B are stored in association with the subject ID and the information indicating the date when the examination result information was input. It is done. Specifically, when there are a plurality of terminal devices 300B, for example, the inspection result database 330A stores, for each subject ID, the visual field test result information and the visual acuity test result information input in each of the plurality of terminal devices 300B. Be done.
  • the display control unit 312 causes the terminal device 300B to display an input screen of an inspection result including the inspection image data. Further, in the inspection processing unit 310A of the present embodiment, the input receiving unit 313 receives the information input on the input screen of the terminal device 300B.
  • the image generation processing unit 340 of this embodiment outputs the inspection image data and the image data generated by the image generation processing unit 340 to the terminal device 300B.
  • the terminal device 300 ⁇ / b> B transmits the inspection image data and the image data generated by the image generation processing unit 340 to the visual field and vision inspection apparatus 200.
  • the inspection processing unit 310A and the image generation processing unit 340 are provided in the server 400 as described above, the processing load on the terminal device 300B can be reduced.
  • the fourth embodiment will be described below with reference to the drawings.
  • the fourth embodiment is different from the second embodiment in that the server distributes an application including a visual field inspection processor, an image generation processor, and an image output processor to a terminal device. Therefore, in the following description of the fourth embodiment, components having the same functional configuration as the second embodiment are given the same reference numerals as the symbols used in the description of the second embodiment, and the description thereof Omit.
  • FIG. 36 is a diagram for explaining the system configuration of a visual acuity inspection system according to the fourth embodiment.
  • the visual acuity inspection system 100C of the present embodiment includes a visual acuity inspection device (image projection device) 200, a terminal device 300B, and a server 400A.
  • the server 400A of the present embodiment has an application distribution unit 410.
  • the server 400 ⁇ / b> A also includes an application 420 for realizing the functions of the inspection processing unit 310, the image output processing unit 320, and the image generation processing unit 340.
  • the application distribution unit 410 when the application distribution unit 410 receives a distribution request of the application 420 from the terminal device 300C, the application distribution unit 410 distributes the application 420 to the terminal device 300C that has received the distribution request.
  • the terminal device 300C to which the application 420 is distributed is the terminal device 300A including the inspection processing unit 310, the image output processing unit 320, and the image generation processing unit 340. Therefore, in the present embodiment, the terminal device 300C after the application 420 is distributed performs the visual field inspection only with the terminal device 300C as in the second embodiment, and generates the image data generated based on the inspection result. It can be provided to the visual acuity inspection apparatus 200.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

端末は、検査用画像データを保持する画像データ保持部と、検査用画像データを視野視力検査装置へ出力する画像出力処理部と、画像を表示する表示部と、検査用画像データから検査用画像を生成して表示部に表示する表示制御部と、を有し、視野視力検査装置は、光線を出射する光源部と、端末からの検査用画像データを入力する画像入力部と、入力された検査用画像データに基づいた光線を生成して、光源部から画像用光線の出射制御を行う制御部と、画像用光線を走査して検査用画像光線を生成する走査ミラーと、検査用画像光線を検査用画像として被験者の眼球に投影する投影部とを有し、検査用画像データは、それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含む。

Description

視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置
 本発明は、視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置に関する。
 従来から、人間の周辺視野を測定する視野検査装置が知られている。従来の視野検査装置による視野検査では、被験者に注視点を注視させた状態で注視点の周辺に視標を提示し、視標が見えたか否かを示す被験者からの回答に基づき、被験者の視野の範囲を求める方式が一般的である。
 また、従来の視力検査では、視力検査用の視標と被験者との距離を一定に保ち、視標の形状を被験者に回答させることで、被験者の視力を測定する方式が一般的である。
特開2003-542号公報 特開2014-188254号公報
 従来の方式では、点滅する輝点を視標とし、視標を提示する位置を、注視点の周辺から被験者の視野の外まで変更していくため、視野検査にある程度の時間がかかる。また、従来の方式では、被験者の視野を覆った状態で点滅する輝点を提示するための大型の筐体や、検査を行うための遮光された空間が必要となる。
 さらに、従来の視力検査でも、視標と被験者との間で一定の距離を保つことができる空間が必要となる。
 開示の技術は、上述した事情に鑑みて成されたものであり、容易に視野検査と視力検査を行うことが可能な視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置を提供することを目的としている。
 開示の技術は、視野視力検査装置と、前記視野視力検査装置と通信を行う端末装置と、を有する視野視力検査システムであって、前記端末装置は、検査用画像データを保持する画像データ保持部と、前記検査用画像データを前記視野視力検査装置へ出力する画像出力処理部と、画像を表示する表示部と、前記検査用画像データから検査用画像を生成して前記表示部に表示する表示制御部と、を有し、前記視野視力検査装置は、光線を出射する光源部と、前記端末装置からの検査用画像データを入力する画像入力部と、入力された前記検査用画像データに基づいた光線を生成して、前記光源部から画像用光線の出射制御を行う制御部と、前記画像用光線を走査して検査用画像光線を生成する走査ミラーと、前記検査用画像光線を検査用画像として被験者の眼球に投影する投影部とを有し、前記検査用画像データは、それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含む。
 容易に視野検査と視力検査を行うことができる。
第一の実施形態における視野検査の概要を説明する図である。 第一の実施形態の視力検査について説明する図である。 視野視力検査装置の上視図である。 視野視力検査装置の投影部近傍を拡大した図である。 第1ミラーの振動を説明する図である。 端末装置のハードウェア構成の一例を説明する図である。 第一の実施形態の視野視力検査システムのシステム構成を説明する図である。 第一の実施形態の検査処理部を説明する図である。 第一の実施形態の視野検査用画像の第一の例を示す図である。 第一の実施形態の視野検査用画像の第二の例を示す図である。 第一の実施形態の視力検査用画像の例を示す第一の図である。 第一の実施形態の視力検査用画像の例を示す第二の図である。 ランドルト環について説明する図である。 第一の実施形態の視力検査用画像の例を示す第三の図である。 第一の実施形態の視力検査用画像の例を示す第四の図である。 第一の実施形態の視力検査用画像の例を示す第五の図である。 コントラスト感度の検査に用いる画像の一例を示す図である。 乱視の検査に用いる画像の一例を示す図である。 第一の実施形態の端末装置の動作を説明するフローチャートである。 第一の実施形態の視野検査結果の入力画面の一例を示す図である。 被験者Pの視野検査用画像の見え方の一例を示す図である。 図21Aに示す見え方の被験者が視野検査用画像を見た場合の見え方の一例を示す図である。 第一の実施形態における視野検査結果が入力された状態の入力画面の一例を示す第一の図である。 第一の実施形態の視野検査結果テーブルの一例を示す第一の図である。 被験者Qの視野検査用画像の見え方の一例を示す図である。 図24Aに示す見え方の被験者が視野検査用画像を見た場合の見え方の一例を示す図である。 第一の実施形態における視野検査結果が入力された状態の入力画面の一例を示す第二の図である。 第一の実施形態の視野検査結果テーブルの一例を示す第二の図である。 図24Aに示す見え方の被験者が視力検査用画像を見た場合の見え方の一例を示す図である。 第一の実施形態における視力検査結果が入力された状態の入力画面の一例を示す図である。 第一の実施形態の視力検査結果テーブルの一例を示す第一の図である。 第一の実施形態の視力検査結果テーブルの一例を示す第二の図である。 第二の実施形態の視野視力検査システムのシステム構成を説明する図である。 第二の実施形態の画像生成処理部の機能を説明する図である。 第二の実施形態の画像生成処理部の動作を説明するフローチャートである。 画像生成処理部が生成する画像データの例を示す図である。 第三の実施形態の視野視力検査システムのシステム構成を説明する図である。 第四の実施形態の視野視力検査システムのシステム構成を説明する図である。
 (第一の実施形態)
 以下に図面を参照して、第一の実施形態について説明する。本実施形態の視野視力検査システムでは、視野視力検査装置と、端末装置と、を用いて、被験者の視野検査や、網膜視力の検査を行う。始めに、本実施形態における視野検査について説明する。図1は、第一の実施形態における視野検査の概要を説明する図である。
 本実施形態の視野視力検査システム100では、被験者Pが装着した視野視力検査装置200により、被験者Pの網膜に対し、複数の領域に分割された視野検査用画像Gを直接投影させ、視野検査用画像Gにおいて、被験者Pが見えた領域と見えなかった領域とを特定することで、被験者Pが目で見られる範囲(視野)を特定する。
 本実施形態の視野視力検査装置200は、マクスウェル視を利用した網膜投影型ヘッドマウントディスプレイである。マクスウェル視とは、画像データに基づく画像用光線を一旦瞳孔の中心で収束させてから網膜上に投影することで、人の水晶体の調節機能に影響されずに人に、画像データが表す画像を視認させる方法である。
 本実施形態の端末装置300は、例えばタブレット型のコンピュータやスマートフォン等であり、視野検査用画像Gを表す画像データを視野視力検査装置200へ送信する。また、本実施形態の端末装置300は、視野検査用画像Gを含む画面をディスプレイ308に表示させ、被験者Pが見えた領域と見えなかった領域とを入力させる。尚、ディスプレイ308は、表示部の一例である。
 視野視力検査装置200は、端末装置300から送信された画像データに基づく画像用光線を被験者Pの網膜に照射することで、被験者Pの網膜上の所定の位置に視野検査用画像Gを投影させる。
 人の網膜に直接投影された画像は、網膜の機能が正常であれば、画像データにより表される画像の通りに視認される。しかし、網膜の機能や視神経等に問題がある場合には、網膜に投影された画像は、画像データにより表される画像とは異なる態様で視認される。
 例えば、網膜が歪んでいる場合には、網膜に投影された画像は、網膜の歪み通りに歪んだ画像として視認される。また、例えば視野が欠損している場合には、網膜に投影された画像は、欠損した視野の部分が欠落した画像として視認される。
 このように、網膜や視神経等に何らかの異常がある場合には、網膜に投影された画像がその通りに視認されない。言い換えれば、見え方に何らかの異常がある場合には、網膜に投影された画像を視認した際に、視認された画像にその異常が反映される。
 本実施形態では、この点に着目し、被験者の網膜に投影された検査用画像において、被験者によって視認された領域と、視認されなかった領域とを特定することで、被験者の視野を特定する。
 より具体的には、本実施形態の視野視力検査システム100では、視野検査用画像Gは、中央に注視点Mが設けられており、且つ複数の領域に分割され、各領域を識別するための識別子(文字)が描かれた画像とする。
 そして、本実施形態では、被験者Pに、端末装置300のディスプレイ308に表示させた視野検査用画像Gにおいて、注視点Mを注視するように促した上で、描かれた文字を読めた領域と読めなかった領域とを入力させる。
 つまり、本実施形態では、端末装置300における入力結果が、被験者Pの視野検査の結果となる。
 したがって、本実施形態によれば、マクスウェル視を利用しているため、視野検査用画像Gを網膜の所定の位置に直接投影させることができ、被験者Pは網膜に投影された視野検査用画像Gを視認するだけでよく、視線が多少移動しても、検査用画像が網膜上で移動してしまうことを回避できる。さらには、本実施形態によれば、視標となる輝点の提示位置を徐々に変更しているといったこともなく、視野検査用画像Gを見るだけで視野を特定できるため、検査時間が大幅に短縮される。
 また、本実施形態によれば、遮光された空間や、被験者の視野を覆うための大型の筐体等が不要となり、任意の場所で視野検査を行うことができる。
 以上のように、本実施形態によれば、被験者の負担を軽減できる。また、本実施形態によれば、従来のような大型な筐体は必要がなく、簡素な構成で簡単に視野検査を行うことができる。
 尚、図1の例では、視野視力検査装置200は、一般的な眼鏡のような形状としたが、これに限定されない。例えば被験者Pの両眼を覆うゴーグルのような形状であっても良い。
 また、被験者Pが端末装置300において視野検査の結果を入力する場合には、装着した視野視力検査装置200を外してから入力を行っても良いし、視野検査を行っていないほうの目で端末装置300のディスプレイ308に表示された視野検査用画像Gを見て、入力を行っても良い。
 また、視野視力検査装置200を装着した状態で、端末装置300に検査結果を入力することが困難である場合には、端末装置300への入力を検査補助者に依頼しても良い。この場合には、例えば、被験者Pは、視認できた文字を読み上げる等して、文字が読めた領域を検査補助者に伝えれば良い。さらに、端末装置300が音声入力部(マイク等)と、音声認識機能を有する場合には、被験者Pが視認できた文字を読み上げることで、被験者Pの音声により直接検査結果を入力することができる。
 次に、本実施形態の視力検査について説明する。図2は、第一の実施形態の視力検査について説明する図である。
 本実施形態の視野視力検査システム100では、視力検査を行う場合、端末装置300は、視力検査用画像Tを表す画像データを視野視力検査装置200へ送信する。また、本実施形態の端末装置300は、視力検査用画像Tを含む画面をディスプレイ308に表示させ、被験者Pによる視力検査の結果を入力させる。
 本実施形態の視野視力検査装置200は、視力検査においても、端末装置300から送信された画像データに基づく画像用光線を被験者Pの網膜に照射することで、被験者Pの網膜上の所定の位置に視力検査用画像Tを投影させる。
 本実施形態の視力検査用画像Tは、図2に示すように、中央に注視点Mが設けられており、縦方向と横方向に複数のランドルト環が配置された画像である。尚、本実施形態の視力検査用画像Tは、ランドルト環の大きさがことなる複数の画像を含む。
 本実施形態では、図2に示すように、視野検査用画像Tを被験者Pの網膜に直接投影することで、被験者の網膜そのものの視力を測定することができる。
 網膜そのものの視力とは、例えば、毛様体筋による水晶体の厚さの調整等によって変化する一般的な視力とはことなり、網膜の黄斑部の働きを示すものである。
 例えば、網膜の視力は、視力検査用画像Tにおいて、切れ目の位置を判別できるランドルト環が大きいほど低く、切れ目の位置を判別できるランドルト環が大きいほど高い。
 このように、本実施形態では、水晶体等に影響されない網膜そのものの視力を測定することが可能となる。このため、本実施形態は、例えば、白内障等の疾患によって水晶体を人工レンズに交換する処置を行った場合の視力の回復の程度の予測等に用いることができる。
 本実施形態の視野視力検査システム100による視力検査では、例えば、被験者Pが、視野視力検査装置200を装着した状態で、網膜に投影された視力検査用画像Tのランドルト環の切れ目の位置を検査補助者に伝えても良い。そして、検査補助者は、視力検査用画像Tのランドルト環のうち、被験者Pが切れ目の位置を正しく判別できたランドルト環を、ディスプレイ308において選択することで、検査結果を端末装置300に入力しても良い。
 次に、図3乃至図6を参照して、本実施形態の視野視力検査システム100の有する各装置について説明する。
 図3は、視野視力検査装置の上視図である。本実施形態の視野視力検査装置200は、投影部210、制御部230を備える。
 本実施形態の投影部210は、光源211、走査ミラー212、ミラー213、ミラー214、ミラー215、投射部216を備える。
 光源211は、メガネ型フレームのツル250に配置されている。光源211は、制御部230の指示の下、例えば単一又は複数の波長の光線Lを出射する。この光線Lは、ユーザの眼球260の網膜261に画像を投影するための画像用光線である。以下の説明では、光線Lを画像用光線と呼ぶ。
 光源211は、例えば赤色レーザ光(波長:610nm~660nm程度)、緑色レーザ光(波長:515nm~540nm程度)、及び青色レーザ光(波長:440nm~480nm程度)を出射する。赤色、緑色、及び青色レーザ光を出射する。本実施形態の光源211は、光源211として、例えばRGB(赤・緑・青)それぞれのレーザダイオードチップと3色合成デバイスとマイクロコリメートレンズと、が集積された光源等により実現される。
 走査ミラー212は、メガネ型フレームのツル250に配置されている。走査ミラー212は、光源211から出射された画像用光線を、水平方向及び垂直方向に走査する。走査ミラー212は、例えばMEMS(Micro Electro Mechanical System)ミラーである。なお、光源211から出射された画像用光線は、例えばミラー213及びミラー214で反射されて、走査ミラー212に入射する。
 本実施形態の制御部230は、CPU(CentralProcessing Unit)等のプロセッサ並びにRAM(Random Access Memory)及びROM(Read Only Memory)等により実現される。
 プロセッサ及びメモリは、例えば走査ミラー212(MEMSミラー)が実装された基板と同じ基板に実装されていても良い。また、プロセッサ及びメモリは、視野視力検査装置200と接続された外部装置(例えば端末装置300等)に設けられたものであっても良い。
 本実施形態の制御部230は、投影部210を制御する。制御部230は、入力された画像データに基づく画像用光線を光源211から出射させる。また、本実施形態の制御部230は、走査ミラー212(MEMSミラー)を振動させて、光源211から出射された画像用光線を走査し、網膜261に画像を投影させる。
 尚、本実施形態の視野視力検査装置200では、メガネ型フレームの左右の両方に、図2に示す各部が設けられていても良いし、制御部230以外の各部がメガネ型フレームの左右の両方に設けられており、制御部230を左右共通のものとしても良い。また、本実施形態では、図2に示す各部がメガネ型フレームの左右の何れか一方に設けられていても良い。この場合、例えば左目の視野検査を行う場合には、メガネ型フレームの左側に図2の各部が設けられた視野視力検査装置200を用い、右目の視野検査を行う場合には、メガネ型フレームの模擬側に図3の各部が設けられた視野視力検査装置200を用いれば良い。
 次に、図4及び図5により、視野視力検査装置200の投影部210による画像の投影について説明する。
 図4は、視野視力検査装置の投影部近傍を拡大した図である。
 図3及び図4のように、走査ミラー212で走査された画像用光線は、ミラー215によって、メガネ型フレームのレンズ251に向かって反射される。本実施形態では、投影部210が、レンズ251の眼球260側の面に配置されているため、走査ミラー212で走査された画像用光線は、投射部216に入射する。
 投射部216は、画像用光線が入射される領域216aでは、自由曲面又は自由曲面と回折面の合成構造をしたハーフミラーとなっている。これにより、投射部216に入射された画像用光線は、眼球260の瞳孔262近傍で収束した後に網膜261に投射される。
 よって、被験者は、画像用光線で形成される画像を認識することができると共に、外界像をシースルーで視認することができる。
 図5は、第1ミラーの振動を説明する図である。尚、図4では、走査ミラー212が点Aから点Bまで振動した場合を示している。
 走査ミラー212によって画像用光線を走査して網膜261に画像を投影する方法として、画像を投影する領域の左上から右下に向かって光を高速に走査し、画像を表示させる方法(例えばラスタースキャン)がある。
 本実施形態では、図5に示すように、走査ミラー212は、画像用光線(光線L)を走査するために、網膜261に画像が投影される領域H(図4の破線範囲)よりも大きく、水平方向(第1方向)と垂直方向(第1方向に交差する第2方向)と、に振動する。図5では、走査ミラー212の振動を符号50で示している。
 走査ミラー212が大きく振れた箇所で画像用光線を走査して網膜261に画像を投影する場合、画像の歪みが大きくなる。したがって、本実施形態では、画像用光線は、走査ミラー212の振れが小さい箇所で走査される。
 尚、図5では、画像用光線は矩形状に走査される場合を例に示しているが、この場合に限られず、台形状に走査される場合など、その他の場合でもよい。
 また、本実施形態では、画像が投影される領域Hは、被験者の視野を覆う大きさであることが好ましい。被験者の視野を覆う大きさとは、例えば、網膜に投影された画像が、片目では鼻側および上側で約60度、下側に約70度、耳側に約90~100度を覆う大きさである。
 本実施形態では、画像(検査用画像)が投影される領域を、被験者の視野を覆う大きさとすれば、視野の欠損や網膜や視神経等に異常がない被験者に対しても、適切な視野検査を行うことができる。
 尚、予め視野の一部に欠損があることが分かっている被験者等に対しては、画像が投影される領域Hは、上述した、「片目では鼻側および上側で約60度、下側に約70度、耳側に約90~100度の覆われるような大きさ」よりも小さくても良い。
 次に、本実施形態の端末装置300について説明する。図6は、端末装置のハードウェア構成の一例を説明する図である。
 本実施形態の端末装置300は、それぞれバスBで相互に接続されている表示操作装置301、ドライブ装置302、補助記憶装置303、メモリ装置304、演算処理装置305及びインターフェース装置306を含む。
 表示操作装置301は、タッチパネル等であり、情報を表示させる表示機能と、情報を入力する入力機能とを有する。インターフェース装置306は、LANカード等を含み、ネットワークに接続する為に用いられる。
 端末装置300において実行される視野視力検査プログラムは、端末装置300を制御する各種プログラムの少なくとも一部である。視野視力検査プログラムは例えば記録媒体307の配布やネットワークからのダウンロードなどによって提供される。視野視力検査プログラムを記録した記録媒体307は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
 また、視野視力検査プログラムは、視野視力検査プログラムを記録した記録媒体307がドライブ装置302にセットされるとは記録媒体307からドライブ装置302を介して補助記憶装置303にインストールされる。ネットワークからダウンロードされた視野視力検査プログラムは、インターフェース装置306を介して補助記憶装置303にインストールされる。
 補助記憶装置303は、インストールされた視野視力検査プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置304は、コンピュータの起動時に補助記憶装置303から視野視力検査プログラムを読み出して格納する。そして、演算処理装置305はメモリ装置304に格納された視野視力検査プログラムに従って、後述するような各種処理を実現している。
 尚、本実施形態では、端末装置300は、表示操作装置301を有するものとしたが、これに限定されない。端末装置300は、例えばデスクトップ型やノート型のコンピュータであっても良い。その場合、端末装置300は、表示操作装置301の代わりに、情報を入力するために用いられるマウスやキーボード等の入力装置と、情報を表示するディスプレイ等の出力装置を有していても良い。
 次に、図7を参照し、本実施形態の視野視力検査システム100について説明する。図7は、第一の実施形態の視野視力検査システムのシステム構成を説明する図である。
 本実施形態の視野視力検査システム100は、視野視力検査装置200と端末装置300とを有する。視野視力検査システム100において、視野視力検査装置200は、端末装置300と接続されており、端末装置300と通信を行う。
 尚、図7の例では、視野視力検査装置200と端末装置300とは、無線により通信を行うものとしているが、これに限定されない。視野視力検査装置200と端末装置300とは、通信が可能な状態で接続されれば、どのような方法で接続されていても良い。
 本実施形態の端末装置300は、検査処理部310、画像出力処理部320、検査結果格納部330を有する。
 本実施形態の検査処理部310は、視野検査用画像Gと対応する検査用画像データと、視力検査用画像Tと対応する検査用画像データと、を保持しており、これらの検査用画像データを画像出力処理部320へ渡す。
 また、本実施形態の検査処理部310は、視野検査用画像G又は視力検査用画像Tを自機の画面に表示させ、被験者の検査結果の入力を受けて、検査結果を示す検査結果情報を検査結果格納部330に格納する。検査処理部310の詳細は後述する。
 画像出力処理部320は、検査処理部310から受け取った画像データを、外部の装置へ出力する。具体的には、本実施形態の画像出力処理部320は、視野検査用画像データや、視力検査用画像データを視野視力検査装置200へ出力(送信)する。
 検査結果格納部330は、視野検査結果テーブル331と、視力検査結果テーブル332と、を有する。視野検査結果テーブル331には、視野視力検査装置200を装着した被験者の視野検査の検査結果が格納される。視力検査結果テーブル332には、視野視力検査装置200を装着した被験者の視力検査の検査結果が格納される。視野検査結果テーブル331と、視力検査結果テーブル332の詳細は後述する。
 次に、図8を参照して、本実施形態の検査処理部310について説明する。図8は、第一の実施形態の検査処理部を説明する図である。図7に示す各部は、端末装置300の演算処理装置305がメモリ装置304等に格納された視野視力検査プログラムを読み出して実行することで実現される。
 本実施形態の検査処理部310は、画像データ保持部311、表示制御部312、入力受付部313、画像データ選択部314、検査結果格納制御部315を有する。
 画像データ保持部311は、視野検査用画像Gと対応する視野検査用の画像データと、視力検査用画像Tと対応する視力検査用の画像データと、を保持している。本実施形態の画像データ保持部311は、検査の開始要求を受け付けると、実施される検査に応じた画像データを画像出力処理部320と、表示制御部312に渡す。
 尚、本実施形態の視野視力検査システム100では、検査用画像データは、画像データ保持部311のみが保持するものとしたが、これに限定されない。検査用画像データは、視野視力検査装置200の制御部230によっても保持されていて良い。
 表示制御部312は、検査用画像データを受け付けると、端末装置300のディスプレイ308に、検査用画像を含む検査結果の入力画面を表示させる。より具体的には、表示制御部312は、視野検査用画像Gを含む検査結果の入力画面や、視力検査用画像Tを含む検査結果の入力画面を表示させる。また、本実施形態の表示制御部312は、検査の実施の要求を受けて、視野検査又は視力検査を選択するための選択画面を表示させても良い。
 入力受付部313は、表示操作装置301において行われる各種の操作に応じた入力を受付ける。具体的には、入力受付部313は、検査の開始要求や、実施する検査の選択や、検査結果の入力画面における入力等を受け付ける。
 画像データ選択部314は、画像データ保持部311に保持された検査用の画像データから、入力受付部313が受け付けた検査の種類に応じた画像データを選択し、表示制御部312へ渡す。
 具体的には、画像データ選択部314は、検査の選択画面において、視野検査が選択された場合には、視野検査用画像Gと対応する画像データを選択し、視力検査が選択された場合には、視力検査用画像Tと対応する画像データを選択して、表示制御部312へ渡す。
 検査結果格納制御部315は、入力受付部313が受け付けた検査結果を、被験者の情報及び検査結果の入力を受け付けた日時を示す情報と対応付けて、検査結果格納部330に格納する。
 次に、図9と図10を参照し、本実施形態の視野検査用画像Gについて説明する。図9は、第一の実施形態の視野検査用画像の第一の例を示す図であり、図10は、視野検査用画像の第二の例を示す図である。
 図9に示す視野検査用画像Gは、縦方向と横方向のそれぞれにおいて、複数の領域に分割されている。言い換えれば、視野検査用画像Gは、矩形上の領域の集合により形成される。
 視野検査用画像Gにおける各領域には、各領域を識別する識別子として、アラビア数字が描画されている。尚、領域の識別子は、アラビア数字に限定されない。領域の識別子は、例えば他の種類の数字であっても良いし、平仮名や漢字であっても良いし、アルファベットやその他の言語の文字であっても良い。
 また、視野検査用画像Gでは、中央部分に注視点Mが形成される。尚、図9の例では、注視点Mを示すマークを「+」としているが、注視点を示すマークの形状は、これに限定されにない。注視点を示すマークの形状は、どのような形状でも良く、被験者Pに注視すべき点を示すことができれば良い。
 視覚の障害の中には、画像等は判別できても文字を判別できない、といった種類の障害も存在している。本実施形態では、領域の識別子を文字とすることで、領域毎の識字能力の有無を判定することもできる。
 本実施形態の領域の識別子を文字とすることで、上述した効果を得ることができるが、この識別子は、必ずしも文字でなくても良い。例えば、領域の識別子として、領域毎に画像等を表示させても良い。
 例えば、図9において、識別子が「1」の領域に、りんごの画像を表示させ、識別子が「2」の領域に、自動車の画像を表示させる、と言ったようにしても良い。また、例えば識別子が「1」の領域に、星型のマークの画像を表示させ、識別子が「2」の領域に、ハート型のマークの画像を表示させる、と言ったようにしても良い。
 識別子を文字ではなく、上述したような画像とすれば、例えば識字能力を有していない被験者に対しても、検査用画像において、被験者が見える領域と見えない領域を判別させることができる。
 また、図9では、視野検査用画像Gに含まれる領域の数を100としているが、領域の数はこれに限定されない。視野検査用画像Gにおける領域の数は、視野検査用画像Gが投影される領域の大きさに応じて決められても良い。また、視野検査用画像Gにおける領域の数は、被験者が見える領域と見えない領域とを把握できる程度であれば良い。
 視野検査用画像Gでは、領域の数が多すぎれば、被験者の負担となることが推測され、領域の数が少なすぎれば、見える領域と見えない領域を適切に把握できなくなることが推測される。そこで、本実施形態では、視野検査用画像Gにおける領域の数は、被験者の負担を増大させずに、被験者の見える領域と見えない領域を適切に把握できる程度とすることが好ましい。この領域の数は、例えば、本実施形態の視野視力検査システム100を用いた視野検査を繰り返した結果から、予め決定されていても良い。
 また、本実施形態では、視野検査用画像Gに含まれる領域を矩形としたが、これに限定されない。視野検査用画像Gに含まれる領域の形状は、円形であっても良いし、楕円形であっても良いし、正方形であっても良い。
 図10に示す視野検査用画像G1は、中央部の注視点Mから遠い領域ほど、領域内に描画される識別子のサイズを大きくしたものである。
 視野検査において、被験者Pに視野検査用画像G1の中央部にある注視点を注視させた場合、注視点の近傍の領域の識別子は被験者Pにとって視認しやすく、注視点から離れた領域の識別子ほど、被験者Pにとって視認しにくくなる。
 そこで、視野検査用画像G1では、注視点Mを中心に、注視点Mから離れた場所にある識別子ほど大きく描画することで、視野検査用画像G1の周囲の識別子の視認性を高めることができる。また、視野検査用画像G1は、網膜自体の視力分布の測定にも利用できる。
 次に、図11乃至図18を参照して、視力検査用画像について説明する。図11は、第一の実施形態の視力検査用画像の例を示す第一の図である。
 図11に示す視力検査用画像Tでは、11列のランドルト環が6行に渡って配置されている。本実施形態では、視力検査用画像Tに含まれる各ランドルト環の中心を示す座標が、視力検査用画像Tに対応付けられていても良い。
 例えば、視力検査用画像Tが、視力検査の検査結果の入力画面に表示された際に(図2参照)、視力検査用画像Tにおいて、ランドルト環121~123について、被験者が切れ目を判別できなかった場合を考える。この場合、本実施形態では、被験者が切れ目を特定できなかったランドルト環を特定する情報として、ランドルト環121~123のそれぞれの中心点P1、P2、P3の座標を出力しても良い。
 図12は、第一の実施形態の視力検査用画像の例を示す第二の図である。図12に示す視力検査用画像T1では、5列のランドルト環が3行に渡って配置されており、視力検査用画像T1のランドルト環は、図11に示す視力検査用画像Tのランドルト環と比べて大きいことがわかる。
 本実施形態では、例えば、図11及び図12に示す視力検査用画像以外にも、視力の段階と対応した大きさのランドルト環が配置された、視力の段階と対応した視力検査用画像を有するものとした。
 そして、本実施形態では、被験者の視力に応じて、被験者の網膜に投影させるランドルト環の大きさが選択され、選択された大きさのランドルト環が配置された視力検査用画像を被験者の網膜に投影させても良い。このとき、被験者の網膜に投影させるランドルト環の大きさは、例えば、被験者によって選択されても良いし、検査補助者によって選択されても良い。
 本実施形態では、視力検査用画像Tのランドルト環の大きさを、小刻みに変えたり、連続的に変えたりすることで、小数点以下2桁の視力測定まで行うことができる。
 次に、図13を参照して、ランドルト環について説明する。図13は、ランドルト環について説明する図である。
 ランドルト環は、黒色の円環で、円環全体の直と、円弧の幅と、輪の開いている幅(切れ目の幅)とが、5:5:1とされている。
 本実施形態では、例えば、5mの距離から、約1.45mmの切れ目を判別できる場合に、視力1.0とされる。より具体的には、直径7.5mmであり、円弧の幅1.5mmであり、切れ目の幅が1.5mmのランドルト環を5m離れたところから見て、切れ目の位置を特定できる視力を「視力1.0」としても良い。
 したがって、本実施形態では、例えば、視力が1.0以上であるか否かを計測する場合には、直径7.5mmであり、円弧の幅1.5mmであり、切れ目の幅が1.5mmのランドルト環を5m離れたところから見たときの大きさとなるランドルト環が含まれる視力検査用画像Tを視野視力検査装置200により網膜に投影させれば良い。
 図14は、第一の実施形態の視力検査用画像の例を示す第三の図である。
 図14の例では、ランドルト環が表示される位置が異なる視力検査用画像を示している。図14に示す視力検査用画像T11では、ランドルト環は左上に1つ配置されており、視力検査用画像T12では、ランドルト環は左下に1つ配置されている。また、図14に示す視力検査用画像T13では、ランドルト環は右上に1つ配置されている。
 本実施形態では、図14に示すように、ランドルト環が配置された位置が異なる視力検査用画像を順次、被験者の網膜に投影することで、視力に加えて、視野の欠損の有無まで検査することができる。
 尚、図14では、1つの視力検査用画像に対して1つのランドルト環が配置されるものとしたが、これに限定されない。1つの視力検査用画像に対して複数のランドルト環が配置されていても良い。
 また、図14の例では、ランドルト環が配置された位置が異なる視力検査用画像を順次、被験者の網膜に投影するものとしたが、これに限定されない。例えば、視力検査用画像は、ランドルト環の位置が移動していく動画として、被験者の網膜に投影されても良い。
 このような視力検査用画像を用いることで、本実施形態では、被験者の視野と視力とを対応付けることができる。言い換えれば、本実施形態では、被験者の網膜における視力の分布を把握することができる。
 図15は、第一の実施形態の視力検査用画像の例を示す第四の図である。図15に示す視力検査用画像T15では、輝度が異なるランドルト環の画像151~156を複数配置している。
 視力検査用画像T15では、ランドルト環の画像151からランドルト環の画像156に向かって輝度が徐々に小さくなっている。
 本実施形態では、このように、ランドルト環の画像の輝度を異ならせることで、被験者が画像を判別するために必要とされる輝度を把握することができる。
 尚、本実施形態の視力検査用画像では、ランドルト環は、黒色の画像としても良いし、例えば、青色、赤色、緑色と言った、黒色以外の色の画像としても良い。本実施形態では、ランドルト環の画像の色を変更することで、視力検査と共に、色覚の異常の有無を検査することができる。
 図16は、第一の実施形態の視力検査用画像の例を示す第五の図である。本実施形態では、ランドルト環以外の画像によって視力検査を行っても良い。
 図16に示す視力検査用画像T16は、ETDRS(Early Treatment of Diabetic Retinopathy Study)チャートを含んでいる。
 ETDRSチャートでは、列同士の視標の大きさの差が、0.1logMAR単位であり、1列に5つの視標が配置される。また、視標となる文字は、SloanフォントのSloan Letter set(C,D,H,K,N,O,R,S,V,Zの10文字)である。また、ETDRSチャートでは、それぞれの視標の間隔は視標1つ分であり、結果は列ではなく、視標によって数値化される。
 このように、本実施形態では、ランドルト環以外の視標によって視力検査が行われても良い。ランドルト環以外の視標とは、ETDRSチャート以外には、例えば、タンブリングEチャート等である。
 図17は、コントラスト感度の検査に用いる画像の一例を示す図であり、図18は、乱視の検査に用いる画像の一例を示す図である。
 本実施形態の視力検査用画像Tには、例えば、図17に示すコントラスト感度の検査用画像を含ませても良い。
 図17に示す画像171、172は、色のグラデーションを視野全体に投影するための
画像である。本実施形態では、このように、色のグラデーションを被験者の視野に投影させ、被験者が認識できる色を検査結果として入力することで、被験者のコントラスト感度を測定することができる。
 尚、本実施形態では、視野全体に投影される画像は色のグラデーションの画像でなく、視野全体が同一の色となるような画像を複数用意し、この複数の画像を順次投影することで、色のグラデーションを実現しても良い。
 また、本実施形態の視力検査用画像Tには、図18に示す乱視検査用の画像181や画像182が含まれても良い。こられの画像を視力検査用画像Tに含めることで、被験者が乱視であるか否かを検査することができる。
 次に、図19を参照して本実施形態の端末装置300の動作について説明する。図19は、第一の実施形態の端末装置の動作を説明するフローチャートである。
 本実施形態の端末装置300は、検査処理部310において、入力受付部313が視野検査の開始要求を受け付けたか否かを判定する(ステップS1901)。ステップS1901において、開始要求を受け付けていない場合、検査処理部310は、後述するステップS1911へ進む。
 ステップS1901において、開始要求を受け付けると、検査処理部310は、画像データ選択部314により、画像データ保持部311が保持している画像データから、視野検査用画像データを選択して読み出し、画像出力処理部320と表示制御部312へ視野検査用画像データを渡す(ステップS1902)。
 画像出力処理部320は、検査用画像データを視野視力検査装置200へ送信させる(ステップS1903)。視野視力検査装置200では、送信された検査用画像データが制御部230に入力されると、投影部210により、検査用画像データによる画像用光線を被験者の網膜へ走査し、視野検査用画像Gを被験者に視認させる。
 表示制御部312は、検査用画像データに基づき、視野検査用画像Gを含む検査結果の入力画面を端末装置300のディスプレイ308に表示させる(ステップ1S904)。検査結果の入力画面の詳細は後述する。
 続いて、検査処理部310は、入力受付部313により、入力画面において、検査結果の入力を受け付けたか否かを判定する(ステップS1905)。ステップS1905において、検査結果の入力を受け付けない場合、入力受付部313は、後述するステップS1908へ進む。
 ステップS1905において、検査結果の入力を受け付けると、入力受付部313は、検査結果の保存指示を受け付けたか否かを判定する(ステップS1906)。ステップS1906において、保存指示を受け付けない場合、入力受付部313は、後述するステップS1910へ進む。
 ステップS1906において、保存指示の入力を受け付けると、検査処理部310は、検査結果格納制御部315により、入力された検査結果を検査結果格納部330に格納し(ステップS1907)、処理を終了する。
 ステップS1905において、検査結果の入力を受け付けない場合、入力受付部313は、所定時間が経過したか否かを判定する(ステップS1908)。ステップS1908において、所定時間が経過していない場合、入力受付部313は、ステップS1905へ戻る。
 ステップS1908において、所定時間が経過した場合、検査処理部310は、表示制御部312により、視野検査の実施が正常に行われなかった旨を端末装置300に表示させ(ステップS1909)、処理を終了する。
 ステップS1906において、保存指示を受け付けなかった場合、入力受付部313は、所定時間が経過したか否かを判定する(ステップS1910)。ステップS1910において、所定時間が経過していない場合、入力受付部313は、ステップS1906へ戻る。
 ステップS1910において、所定時間が経過した場合、検査処理部310は、ステップS1909へ進む。
 また、本実施形態の検査処理部310は、ステップS1901において、視野検査の開始要求を受け付けない場合、入力受付部313により、視力検査の開始要求を受け付けたか否かを判定する(ステップS1911)。ステップS1911において、視力検査の開始要求を受け付けない場合、検査処理部310は、ステップS1901へ戻る。
 ステップS1911において、視力検査の開始要求を受け付けると、検査処理部310は、画像データ選択部314により、画像データ保持部311が保持している画像データから、視力検査用画像データを選択して読み出し、画像出力処理部320と表示制御部312へ視野検査用画像データを渡(ステップS1912)し、ステップS1903へ進む。
 次に、図20を参照し、検査結果の入力画面について説明する。図20は、第一の実施形態の検査結果の入力画面の一例を示す図である。図20に示す入力画面101は、端末装置300のディスプレイ308に表示される。
 入力画面101には、視野検査用画像Gが含まれる。また、入力画面101は、視野検査用画像Gにおいて、読めた数字を選択させるためのメッセージ102と、検査結果の保存指示を行うボタン103とを含む。
 尚、図20の例では、メッセージ102は、「被験者が読み上げた数字にタッチして下さい」となっており、視野検査用画像Gにおいて被験者が視認できた数字の選択を促す内容となっているが、これに限定されない。メッセージ102は、例えば視野検査用画像Gにおいて、被験者が視認できなかった数字の選択を促す内容となっていても良い。
 メッセージ102の内容は、視野視力検査システム100の管理者等により、予め設定されていても良い。また、例えば読めた数字を選択するか、又は読めなかった数字を選択するかは、被験者により設定されても良い。
 次に、図21乃至図26を参照し、本実施形態の検査結果格納部330について説明する。初めに、図21乃至図23を参照し、被験者Pの視野検査結果テーブル331-Pについて説明する。
 図21は、被験者による視野検査用画像の見え方の一例を示す第一の図である。図21Aは、被験者Pの視野検査用画像の見え方の一例を示す図であり、図21Bは、図21Aに示す見え方の被験者が視野検査用画像を見た場合の見え方の一例を示す図である。
 被験者Pは、図21Aに示すように、視界111において、欠損領域112、113、114が存在している。この欠損領域112、113、114は、被験者Pの網膜上の位置に対応している。つまり、被験者Pの網膜には、視界111における欠損領域112、113、114と対応する位置に、何らかの異常があることになる。
 このように、視野に欠損領域が存在する被験者の網膜に、視野検査用画像Gを投影させた場合、視野検査用画像Gにおいても、図21Aに示す欠損領域112、113、114が反映される。
 したがって、被験者Pには、視野検査用画像Gは、図21Bに示すように、欠損領域112、113、114と対応する位置の領域(網掛け部分)が欠落した画像として視認される。よって、欠損領域と対応する位置の領域に描画された数字は、被験者には視認されない。
 図21の例では、欠損領域112に含まれる領域は、識別子が1、2、11、21の領域であり、欠損領域113に含まれる領域は、識別子が9、10、20、30の領域である。したがって、これらの数字は、被験者Pには読めない数字となる。
 図22は、第一の実施形態における視野検査結果が入力された状態の入力画面の一例を示す第一の図である。
 図22に示す入力画面101Aは、入力画面101において、被験者Pの視野検査の結果が入力された例を示している。
 入力画面101Aでは、欠損領域112~114のそれぞれに含まれる領域の数字は選択されておらず、欠損領域112~114以外の領域の数字が選択されていることがわかる。
 図22の入力画面101Aでは、視野検査用画像Gにおいて、選択された領域が、選択されていない領域と比べて明るく見えるようにしているが、これに限定されない。入力画面101Aでは、視野検査用画像Gにおいて、選択された領域と選択されていない領域とが、区別できるように、それぞれが異なる態様で表示されることが好ましい。
 入力画面101Aでは、被験者Pが読めた数字として、3~8、12~19、22~29、31~89、91~99という具合に選択されたことがわかる。したがって、被験者Pが選択した数字が描画された領域が被験者Pの視野であることがわかる。
 入力画面101Aにおいて、視野検査の結果の入力が完了し、ボタン103が走査されると、入力された検査結果が視野検査結果テーブル331-Pに格納される。
 図23は、第一の実施形態の視野検査結果テーブルの一例を示す第一の図である。
 本実施形態の視野検査結果テーブル331-Pは、情報の項目として、被験者ID、検査日、入力時間、読めた数字、読めなかった数字を有する。視野検査結果テーブル331-Pは、項目「被験者ID」と、その他の項目とが対応付けられている。以下の説明では、視野検査結果テーブル331-Pにおいて、各項目の値を含む情報を視野検査結果情報と呼ぶ。
 項目「被験者ID」の値は、被験者を識別するための識別子である。尚、本実施形態では、被験者を識別するための情報として、識別子の代わりに被験者の氏名等を用いても良い。
 項目「検査日」の値は、視野検査を行った日付を示す情報である。項目「入力時間」値は、端末装置300において、視野検査の検査結果が入力された時間を示す情報である。つまり、項目「入力時間」の値は、視野検査を行った時間を示す情報である。
 項目「読めた数字」の値は、視野検査用画像Gにおいて、被験者が読めた数字を示す。言い換えれば、項目「読めた数字」の値は、検査結果の入力画面101に表示された視野検査用画像Gにおいて、読めた数字として選択された領域に描画された数字を示す。
 項目「読めなかった数字」の値は、視野検査用画像Gにおいて、被験者が読めなかった数字を示す。言い換えれば、項目「読めなかった数字」の値は、検査結果の入力画面101に表示された視野検査用画像Gにおいて、読めた数字として選択されなかった領域に描画された数字を示す。
 図23に示す視野検査結果テーブル331-Pは、被験者IDが001の被験者Pが、2016/4/10の10:00に入力した検査結果と、2016/4/13の18:00に入力した検査結果とが格納されていることがわかる。
 次に、図24乃至図26を参照し、被験者Qの視野検査結果テーブル331-Qについて説明する。
 図24は、被験者による視野検査用画像の見え方の一例を示す第二の図である。図24Aは、被験者Qの見え方の一例を示す図であり、図24Bは、図24Aに示す見え方の被験者が視野検査用画像Gを見た場合の見え方の一例を示す図である。
 被験者Qは、図24Aに示すように、視界141において、欠損領域142が存在している。
 したがって、被験者Qには、視野検査用画像Gは、図24Bに示すように、欠損領域142と対応する位置の領域(網掛け部分)が欠落した画像として視認される。よって、欠損領域と対応する位置の領域に描画された数字は、被験者には視認されない。
 図24Bの例では、欠損領域142に含まれる領域に描画された数字は、被験者Qには読めない数字となる。
 図25は、第一の実施形態における視野検査結果が入力された状態の入力画面の一例を示す第二の図である。
 図25に示す入力画面101Bは、入力画面101において、被験者Qの視野検査の結果が入力された例を示している。
 入力画面101Bでは、欠損領域142に含まれる領域の数字は選択されておらず、欠損領域142以外の領域の数字が選択されていることがわかる。
 入力画面101Bでは、被験者Qが読めた数字として、5~10、15~20、25~30、35~40、45~50、55~59という具合に選択されたことがわかる。したがって、被験者Qが選択した数字が描画された領域が被験者Qの視野であることがわかる。
 入力画面101Bにおいて、視野検査の結果の入力が完了し、ボタン103が操作されると、検査結果が視野検査結果テーブル331-Qに格納される。
 図26は、第一の実施形態の視野検査結果テーブルの一例を示す第二の図である。
 図26に示す視野検査結果テーブル331-Qは、被験者IDが002の被験者Qが、2016/4/10の10:00に入力した視野検査結果と、2016/4/13の18:00に入力した視野検査結果とが格納されていることがわかる。
 このように、本実施形態によれば、マクスウェル視を利用して、複数の領域に分割された視野検査用画像Gを網膜の所定の位置に直接投影させるので、視野検査用画像Gの各領域が網膜上の位置に対応していることから、この領域ごとに、見える、見えないを検査すれば、網膜上のそれぞれの位置での視野検査を行うことが可能となる。
 尚、本実施形態において、端末装置300に格納された視野検査結果テーブル331は、例えば、視野視力検査システム100を導入している医療機関等のサーバ等に格納されても良い。
 尚、本実施形態では、視野検査用画像Gは、被験者の視野を覆う大きさであるものと説明したが、これに限定されない。
 例えば、本実施形態では、視野視力検査装置200に瞳孔の動いた方向を検出するための機構を設けても良い。本実施形態では、このような機構を視野視力検査装置200に設けることで、被験者の瞳孔が動く方向に光源211からの画像用光線の照射方向を瞳孔の動いた方向に変更することができる。
 このようにすれば、被験者は、瞳孔を動かした後と動かす前の両方において、同じ視野検査用画像Gを視認できる。したがって、被験者は、決まった方向を向いている必要がなく、自由な姿勢で視野検査を受けることができる。また、このようにすれば、被験者の姿勢等に影響されずに、検査中は常に視野検査用画像Gを被験者に視認させることができ、検査の精度を向上させることができる。
 また、本実施形態の視野検査結果テーブル331では、例えば、項目「読めた数字」の値及び項目「読めなかった数字」の値の代わりに、視野検査用画像Gにおける、それぞれの識別子が示す領域の位置を示す座標情報を用いても良い。また、視野検査結果テーブル331は、情報の項目として、例えば、項目「読めた数字」の値及び項目「読めなかった数字」の値が示す領域の位置を示す座標情報を有していても良い。
 座標情報は、例えば、検査用画像データから取得されても良いし、例えば各領域の識別子と、識別子と対応する領域を特定する座標情報とが対応付けられたテーブル等から取得されても良い。このテーブルは、予め端末装置300に与えられていても良い。
 さらに、本実施形態では、検査結果情報に、領域が選択された状態の視野検査用画像Gの画像データを含めても良い。つまり、本実施形態では、検査結果情報に、図12や図15に示す、領域が選択された視野検査用画像Gの画像データを、検査結果情報の一項目として保持しても良い。
 また、本実施形態では、視野検査用画像Gの明るさ(輝度)を段階的に変更していき、その都度検査結果を入力させるようにしても良い。この場合、検査結果格納部330に、項目「視野検査用画像Gの明るさ」を追加し、検査結果情報に項目「視野検査用画像Gの明るさ」の値を含ませても良い。
 本実施形態では、視野検査用画像Gの明るさ毎に検査結果を入力させることで、被験者の明るさに対応した視野を特定することができる。
 次に、図27乃至図29を参照して、被験者Qの視力検査結果テーブル332-Qについて説明する。
 図27は、図24Aに示す見え方の被験者が視力検査用画像を見た場合の見え方の一例を示す図である。
 被験者Qは、視界141において、欠損領域142が存在している。したがって、被験者Qにとっては、視力検査用画像Tは、図27に示すように、欠損領域142と対応する位置の領域(網掛け部分)が欠落した画像として視認される。よって、欠損領域と対応する位置の領域に描画されたランドルト環は、被験者Qには視認されない。したがって、図27の例では、欠損領域142に含まれる領域に描画されたランドルト環は、被験者Qには切れ目を判別できない領域となる。
 図28は、第一の実施形態における視力検査結果が入力された状態の入力画面の一例を示す図である。
 図28に示す入力画面101Cは、入力画面101において、被験者Qの視野検査の結果が入力された例を示している。
 本実施形態では、被験者Qの網膜に対して、大きさの異なるランドルト環を含む視力検査用画像Tを順次投影する。本実施形態では、例えば、被験者Qが、欠損領域142以外の領域に投影されたランドルト環の切れ目の方向を読み上げ、検査補助者が、被験者が切れ目の方向を読み上げたランドルト環を入力画面101Cにおいて選択する。
 尚、このとき、検査補助者には、被験者の視野に欠損領域142が存在することや、視野のどの部分が欠損領域142であるかを把握することが困難である。よって、例えば、視力検査用画像Tでは、ランドルト環の中心や近傍に、各ランドルト環を特定するための識別子等が設けられていても良い。
 例えば、図28に示すように、各ランドルト環の中心に、ランドルト環を識別するための識別子となる番号が振られていても良い。
 また、入力画面101Cでは、欠損領域142に含まれる領域のランドルト環は選択されておらず、欠損領域142以外の領域のランドルト環が選択されていることがわかる。
 入力画面101Cでは、被験者Qが切れ目を判別できたランドルト環として、5~11のランドルト環、16~22のランドルト環、27~33のランドルト環、38~44のランドルト環、50~52のランドルト環が選択されたことがわかる。
 本実施形態では、このようにして、視力検査を行うことで、被験者Qの視野の視力を計ることができる。また、本実施形態では、視力検査と同時に、被験者Qの視野に欠損領域が存在するか否かの視野検査も、行うことができる。
 入力画面101Cにおいて、視力検査の結果の入力が完了し、ボタン103が操作されると、視力検査の結果が視力検査結果テーブル332-Qに格納される。
 図29は、第一の実施形態の視力検査結果テーブルの一例を示す第一の図である。
 本実施形態の視力検査結果テーブル332-Pは、情報の項目として、被験者ID、検査日、入力時間、判別できなかったランドルト環、判別できたランドルト環を有する。視力検査結果テーブル332-Qは、項目「被験者ID」と、その他の項目とが対応付けられている。以下の説明では、視力検査結果テーブル332-Qにおいて、各項目の値を含む情報を視力検査結果情報と呼ぶ。
 項目「判別できなかったランドルト環」の値は、視力検査用画像Tにおいて、被験者が切れ目を判別できなかったランドルト環を示す。言い換えれば、項目「判別できなかったランドルト環」の値は、入力画面101Cに表示された視力検査用画像Tにおいて、切れ目が判別されたランドルト環として選択されなかったランドルト環を特定する識別子である。
 項目「判別できたランドルト環」の値は、視力検査用画像Tにおいて、被験者が切れ目を判別できたランドルト環を示す。言い換えれば、項目「判別できたランドルト環」の値は、入力画面101Cに表示された視力検査用画像Tにおいて、切れ目が判別されたランドルト環として選択されたランドルト環を特定する識別子である。
 図29に示す視力検査結果テーブル332-Qは、被験者IDが002の被験者Qが、2016/4/10の10:00に入力した視力検査結果が格納されていることがわかる。
 尚、図29の例では、項目「判別できなかったランドルト環」、「判別できたランドルト環」の値のそれぞれを、ランドルト環を識別する識別子としたが、これに限定されない。項目「判別できなかったランドルト環」、「判別できたランドルト環」の値は、例えば、入力画面101Cで選択されたランドルト環の中心点の座標としても良い。
 図30は、第一の実施形態の視力検査結果テーブルの一例を示す第二の図である。図30に示す視力検査結果テーブル332A-Qは、被験者Qの網膜に、1つのランドルト環が移動する動画を投影させた場合の視力の検査結果の例を示している。
 視力検査結果テーブル332A-Qでは、項目「判別できたランドルト環」の値は、視力検査用画像Tにおいて、被験者Qによって切れ目が判別されたランドルト環が表示されていた領域を示す座標の情報である。
 また、項目「判別できたランドルト環」の値は、視力検査用画像Tにおいて、被験者Qによって切れ目が判別されたランドルト環が表示されていた領域を示す座標の情報である。また、項目「判別できなかったランドルト環」の値は、視力検査用画像Tにおいて、被験者Qによって切れ目が判別されなかったランドルト環が表示されていた領域を示す座標の情報である。尚、ここでの座標は、ランドルト環の中心点の座標である。
 図30の例では、座標(x3、y3)から座標(x4、y4)までに中心点が含まれるランドルト環は、被験者Qによって切れ目が判別されたことがわかる。同様に、図30の例では、座標(x1、y1)から座標(x2、y2)までに中心点が含まれるランドルト環は、被験者Qによって切れ目が判別されなかったことがわかる。
 尚、本実施形態において、「ランドルト環の切れ目の判別」とは、ランドルト環を視認した上で、切れ目の方向が正しく判別された場合と、ランドルト環は視認できたが、切れ目の方向が正しく判別されなかった場合と、の両方を含んでも良い。
 このように、本実施形態によれば、マクスウェル視を利用して、複数の領域に分割された視野検査用画像Gを網膜の所定の位置に直接投影させるため、視野検査用画像Gの各領域が網膜上の位置に対応していることから、この領域ごとに、見える、見えないを検査すれば、網膜上のそれぞれの位置での視野検査を行うことが可能となる。
 また、本実施形態によれば、マクスウェル視を利用して、視力検査に用いる視標の画像を含む視力検査用画像Tを網膜の所定の位置に直接させる。したがって、本実施形態によれば、網膜そのものの視力を計ることができる。さらに、本実施形態では、網膜における視力の分布を計ることができる。
 (第二の実施形態)
 以下に図面を参照して第二の実施形態について説明する。第二の実施形態は、視野検査の検査結果データに基づく画像データを生成することで、視野が欠損した被験者でも、画像や文字を視認できるようにする点が第一の実施形態と相違する。以下の第二の実施形態の説明では、第一の実施形態の相違点についてのみ説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
 図31は、第二の実施形態の視野視力検査システムのシステム構成を説明する図である。
 本実施形態の視野視力検査システム100Aは、視野視力検査装置200と、端末装置300Aとを有する。
 本実施形態の視野視力検査装置200は、検査用画像データのみでなく、端末装置300Aから送信される各種の画像データを被験者の網膜へ投影させる画像投影装置としても機能する。
 本実施形態の端末装置300Aは、検査処理部310、画像出力処理部320、検査結果格納部330、画像生成処理部340を有する。
 本実施形態の画像生成処理部340は、検査結果格納部330に格納された検査結果を参照し、投影対象となる情報が被験者の視野に投影されるように、画像データを生成する。
 以下に、図32を参照して、本実施形態の画像生成処理部340について説明する。図32は、第二の実施形態の画像生成処理部の機能を説明する図である。
 本実施形態の画像生成処理部340は、投影要求受付部341、投影対象取得部342、検査結果取得部343、画像データ生成部344を有する。
 投影要求受付部341は、表示操作装置301等において入力された投影情報の投影要求を受け付ける。
 投影対象取得部342は、投影情報を取得する。ここで、投影情報とは、視野視力検査装置200により利用者Pの網膜上に投影される画像の元になる情報であり、例えば端末装置300Aの補助記憶装置33等に格納されているコンテンツデータ等であっても良い。また、投影情報は、端末装置300Aが外部のサーバや記憶装置等から取得したコンテンツデータ等であっても良い。また、投影情報は、テキストデータであっても良いし、動画を含む画像データであっても良い。
 検査結果取得部343は、検査結果格納部330の視野検査結果テーブル331から、検査日と入力時間が最も新しい視野検査結果情報を取得する。
 画像データ生成部344は、視野検査結果情報から、項目「読めた数字」の値が示す領域に対し、投影情報が表示される画像の画像データを生成し、生成した画像データを画像出力処理部320へ渡す。
 次に、図33を参照し、本実施形態の画像生成処理部340の処理について説明する。図33は、第二の実施形態の画像生成処理部の動作を説明するフローチャートである。
 本実施形態の画像生成処理部340は、投影要求受付部341により、投影情報の選択と、投影情報の投影要求を受け付けたか否かを判定する(ステップS3301)。ステップS3301において、投影要求を受け付けない場合、画像生成処理部340は、投影要求を受け付けるまで待機する。
 ステップS3301において、投影要求を受け付けた場合、画像生成処理部340は、投影対象取得部342により、選択された投影情報を取得する(ステップS3302)。
 続いて、画像生成処理部340は、検査結果取得部343により、検査結果格納部330の視野検査結果テーブル331から、投影要求を行った被験者の視野検査結果情報を取得する(ステップS3304)。
 続いて画像生成処理部340は、画像データ生成部344により、投影情報と、視野検査結果情報とに基づき、画像出力処理部320へ渡す画像データを生成する(ステップS3305)。具体的には、画像データ生成部344は、視野検査結果情報から、項目「読めた数字」が描画された領域にのみに投影情報が描画される画像データを生成する。
 続いて、画像データ生成部344は、生成した画像データを画像出力処理部320へ渡し、処理を終了する。
 以下に、図34を参照して、本実施形態の画像生成処理部340が生成する画像データについて説明する。
 図34は、画像生成処理部が生成する画像データの例を示す図である。図34の画像201-Pは、被験者Pの検査結果情報に基づき生成された画像データが表す画像の例を示す。また、図34の画像201-Qは、被験者Qの検査結果情報に基づき生成された画像データが表す画像の例を示す。
 視野検査結果テーブル331-Pにおいて、最も新しい検査結果情報は、2016/4/13の18:00に入力された検査結果情報である(図23参照)。
 したがって、画像生成処理部340は、視野検査結果テーブル331-Pから2016/4/13の18:00に入力された視野検査結果情報を取得する。
 この視野検査結果情報に含まれる項目「読めた数字」の値は、3-8、12-19、22-29、31-89、91-98である。
 よって、画像生成処理部340は、これらの数字を識別子とする領域にのみに投影情報が表示される画像201-Pを表す画像データを生成する。
 画像201-Pでは、例えば識別子12-19と対応する領域、識別子22-29と対応する領域、識別子31-89に対応する領域等に、投影情報が表示される。言い換えれば、画像201-Pでは、被験者Pの視野である領域202にのみ、投影情報が表示される。したがって、本実施形態によれば、被験者Pが投影要求を行った投影情報を、被験者Pの視野に入るように、被験者Pの網膜へ投影させることができる。
 また、検査結果格納部330-Qにおいて、最も新しい検査結果情報は、2016/4/13の18:00に入力された検査結果情報である(図26参照)。
 したがって、画像生成処理部340は、検査結果格納部330-Qから2016/4/13の18:00に入力された検査結果情報を取得する。
 この検査結果情報に含まれる項目「読めた数字」の値は、5-10、14-20、24-30、35-40、44-50、55-60である。
 よって、画像生成処理部340は、これらの数字を識別子とする領域にのみに投影情報が表示される画像201-Qを表す画像データを生成する。
 画像201-Qでは、例えば識別子5-10、14-20、24-30、35-40、44-50、55-60と対応する領域に、投影情報が表示される。言い換えれば、画像201-Qでは、被験者Qの視野である領域203にのみ、投影情報が表示される。したがって、本実施形態によれば、被験者Qが投影要求を行った投影情報を、被験者Qの視野に入るように、被験者Qの網膜へ投影させることができる。
 以上のように、本実施形態によれば、視野検査の結果を用いて、被験者の視野内にのみ画像を投影させることができる。
 したがって、本実施形態によれば、投影情報を視野の欠損により欠落させることなく、被験者の網膜に投影することができる。
 例えば、本実施形態では、例えば視野に制限がある人が電子辞書で用語の検索等を行った場合等に、検索した用語の検索結果が表示された画像から用語の意味等が表示された部分の画像のみを抽出し、視野内に抽出した画像を表示させることができ、視野に制限がある人でも、通常の電子辞書を利用できるようになる。
 また、視野の限定された人であっても、日本語であれば、視野に5文字以上を入れることができれば、「読む」ことができることが、臨床結果から知られている。ここで言う「読む」とは、文字を目で追って、その意味を理解していくことを示す(NAOYUKI OSAKA, Kyoto University, Kyoto, Japan and KOICHI ODA, National Institute of Special Education, Yokosuka, Japan, Effective visual field size necessary for vertical reading during Japanese text processing, Bulletin of the Psychonomic Society 1991,29(4), 345-347)。
 したがって、本実施形態では、例えば視野の欠損部分が大きく、読書等が困難な人でも、自身の視野に5文字以上の文字を投影させることで、文章を読むことができるようになる。
 尚、本実施形態の画像生成処理部340において生成される画像データは、動画データも含む。例えば電子書籍の内容を被験者の視野に投影させようとした場合、テキストデータが被験者の視野内で流れていくように、動画データを投影させても良い。
 さらに、本実施形態の画像生成処理部340は、視野視力検査装置200の利用者の視力検査結果情報を参照し、項目「判別できたランドルト環」の値に複数のランドルト環を示す値が含まれるとき、このランドルト環の大きさに、投影させる文字の大きさを合わせても良い。
 このようにすれば、網膜そのものの視力に応じた大きさの文字を、視野に投影させることができる。
 また、本実施形態の画像生成処理部340では、画像データ生成部344により、被験者の視野にのみ情報が投影されるような画像の画像データを生成するものとしたが、これに限定されない。
 画像生成処理部340は、例えば被験者の視野を示す情報と、投影情報のみを投影させる画像データとを画像出力処理部320を介して視野視力検査装置(画像投影装置)200へ送信しても良い。被験者の視野を示す情報は、例えば検査結果情報に含まれる項目「読めた数字」の値を識別子とする領域の座標情報であっても良い。
 視野視力検査装置(画像投影装置)200は、被験者の視野を示す情報と、投影情報のみを投影させる画像データとの入力を受けて、制御部230により、走査ミラー212の振動を制御し、被験者の視野内に、投影情報のみを投影させても良い。
 (第三の実施形態)
 以下に図面を参照して第三の実施形態について説明する。第三の実施形態は、第二の実施形態の端末装置の機能を端末装置の外部のサーバに設けた点が第二の実施形態と相違する。よって、以下の第三の実施形態の説明では、第二の実施形態と同様の機能構成を有するものには、第二の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
 図35は、第三の実施形態の視野視力検査システムのシステム構成を説明する図である。
 本実施形態の視野視力検査システム100Bは、視野視力検査装置(画像投影装置)200、端末装置300B、サーバ400を有する。尚、図21の例では、視野視力検査装置(画像投影装置)200及び端末装置300Bを1台としているが、視野視力検査システム100Bの有する視野視力検査装置(画像投影装置)200及び端末装置300Bの台数は任意の数であって良い。
 本実施形態の端末装置300Bは、サーバ400から画像データを受信し、受信した画像データを視野視力検査装置(画像投影装置)200へ送信する。また、本実施形態の端末装置300Bは、サーバ400から指示された画面を表示させ、画面において入力された情報をサーバ400へ送信する。
 本実施形態のサーバ400は、端末装置300Bとネットワークを介して接続されている。サーバ400は、検査結果データベース330A、検査処理部310A、画像出力処理部320、画像生成処理部340を有する。
 本実施形態の検査結果データベース330Aには、端末装置300Bにおいて入力された視野検査結果情報と視力検査結果情報が、被験者IDと検査結果情報が入力された日時を示す情報とに対応付けられて格納されている。具体的には、検査結果データベース330Aは、例えば端末装置300Bが複数存在する場合には、複数の端末装置300Bのそれぞれにおいて入力された視野検査結果情報と視力検査結果情報が、被験者ID毎に格納される。
 本実施形態の検査処理部310Aは、表示制御部312が、検査用画像データを含む検査結果の入力画面を端末装置300Bに表示させる。また、本実施形態の検査処理部310Aは、入力受付部313が、端末装置300Bの入力画面において入力された情報を受け付ける。
 本実施形態の画像生成処理部340は、検査用画像データや、画像生成処理部340が生成した画像データを端末装置300Bへ出力する。端末装置300Bは、検査用画像データや画像生成処理部340で生成された画像データを、視野視力検査装置200に送信する。
 本実施形態では、このように、サーバ400に検査処理部310Aと画像生成処理部340とを設けたため、端末装置300Bにおける処理の負担を軽減できる。
 (第四の実施形態)
 以下に図面を参照して第四の実施形態について説明する。第四の実施形態は、サーバが視野検査処理部、画像生成処理部、画像出力処理部を含むアプリケーションを、端末装置に配信する点が、第二の実施形態と相違する。よって、以下の第四の実施形態の説明では、第二の実施形態と同様の機能構成を有するものには、第二の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
 図36は、第四の実施形態の視野視力検査システムのシステム構成を説明する図である。
 本実施形態の視野視力検査システム100Cは、視野視力検査装置(画像投影装置)200、端末装置300B、サーバ400Aを有する。
 本実施形態のサーバ400Aは、アプリ配信部410を有する。また、サーバ400Aは、検査処理部310、画像出力処理部320、画像生成処理部340の機能を実現するアプリケーション420を有する。
 本実施形態のサーバ400Aにおいて、アプリ配信部410は、端末装置300Cから、アプリケーション420の配信要求を受付けると、配信要求を受け付けた端末装置300Cへアプリケーション420を配信する。
 アプリケーション420が配信された端末装置300Cは、検査処理部310、画像出力処理部320、画像生成処理部340を有する端末装置300Aとなる。したがって、本実施形態では、アプリケーション420が配信された後の端末装置300Cは、第二の実施形態と同様に、端末装置300Cのみで、視野検査を実施し、検査結果に基づき生成した画像データを視野視力検査装置200へ提供することができる。
 以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨を損なわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
 また、本国際出願は、2016年6月9日に出願された日本国特許出願2016-115045に基づく優先権と、2017年5月30日に出願された日本国特許出願2017-106337に基づく優先権と、を主張するものであり、日本国特許出願2016-115045の全内容と、日本国特許出願2017-106337の全内容と、を本国際出願に援用する。
 100、100A、100B 視野視力検査システム
 200 視野視力検査装置
 300、300A、300B、300C、300D 端末装置
 310 検査処理部
 311 画像データ保持部
 312 表示制御部
 314 検査結果格納制御部
 320 画像出力処理部
 330 検査結果格納部
 331 視野検査結果テーブル
 332 視力検査結果テーブル
 330A 検査結果データベース
 340 画像生成処理部
 342 投影対象取得部
 343 検査結果取得部
 344 画像データ生成部
 400 サーバ
 410 アプリ配信部

Claims (15)

  1.  視野視力検査装置と、前記視野視力検査装置と通信を行う端末装置と、を有する視野視力検査システムであって、
     前記端末装置は、
     検査用画像データを保持する画像データ保持部と、
     前記検査用画像データを前記視野視力検査装置へ出力する画像出力処理部と、
     画像を表示する表示部と、
     前記検査用画像データから検査用画像を生成して前記表示部に表示する表示制御部と、を有し、
     前記視野視力検査装置は、
     光線を出射する光源部と、
     前記端末装置からの検査用画像データを入力する画像入力部と、
     入力された前記検査用画像データに基づいた光線を生成して、前記光源部から画像用光線の出射制御を行う制御部と、
     前記画像用光線を走査して検査用画像光線を生成する走査ミラーと、
     前記検査用画像光線を検査用画像として被験者の眼球に投影する投影部とを有し、
     前記検査用画像データは、それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含む、視野視力検査システム。
  2.  前記端末装置は、
     選択された検査の種類に応じて、前記視野検査用画像データ又は前記視力検査用画像データの何れかを選択する画像データ選択部を有し、
     前記画像出力処理部は、
     前記画像データ選択部により選択された前記視野検査用画像データ又は前記視力検査用画像データを前記視野視力検査装置へ出力する、請求項1記載の視野視力検査システム。
  3.  前記端末装置は、検査結果を格納する検査結果格納部を有し、
     前記表示部に表示された、前記視野検査用画像データが示す視野検査用画像において、選択された前記領域における識別子を視野検査結果情報として前記検査結果格納部に格納する、請求項2記載の視野視力検査システム。
  4.  選択された前記領域は、前記視野検査用画像において、前記被験者により前記識別子が視認された領域又は前記識別子が視認されなかった領域である、請求項3記載の視野視力検査システム。
  5.  前記表示制御部は、
     前記視野検査用画像と共に、前記視野検査用画像において、前記被験者により前記識別子が視認された領域の選択を促すメッセージを表示させる、請求項4記載の視野視力検査システム。
  6.  前記表示部に表示された、前記視力検査用画像データが示す視力検査用画像において、選択された前記視標の画像を特定する情報を、視力検査結果情報として前記検査結果格納部に格納する、請求項5記載の視野視力検査システム。
  7.  前記視標は、ランドルト環であって、前記視標の画像を特定する情報は、前記ランドルト環の中心点の座標である、請求項6記載の視野視力検査システム。
  8.  前記画像出力処理部は、
     前記視標の画像の大きさが異なる複数の前記視力検査用画像を前記視野視力検査装置へ出力する、請求項7記載の視野視力検査システム。
  9.  前記端末装置は、
     前記被験者の網膜に投影させる画像の画像データを生成する画像生成処理部を有し、
     前記画像生成処理部は、
     投影情報を取得する投影対象取得部と、
     前記検査結果格納部に格納された前記視野検査結果情報に基づき、前記識別子が視認された領域に前記投影情報を投影する画像の画像データを生成する画像データ生成部と、
     を有し、
     前記画像出力処理部は、
     前記画像データ生成部が生成した前記画像データを前記視野視力検査装置へ出力する、請求項8記載の視野視力検査システム。
  10.  前記識別子はアラビア数字であり、
     前記検査用画像は、
     前記複数の領域の中に前記アラビア数字が描画された画像である、請求項9記載の視野視力検査システム。
  11.  前記画像データ生成部は、
     前記検査結果格納部に格納された前記視力検査結果情報に基づき、前記画像データに含まれる文字、数字、又は記号の画像の大きさを決定する、請求項10記載の視野視力検査システム。
  12.  光線を出射する光源部と、
     検査用画像データを入力する画像入力部と、
     入力された前記検査用画像データに基づいた光線を生成して、前記光源部から画像用光線の出射制御を行う制御部と、
     前記画像用光線を走査して検査用画像光線を生成する走査ミラーと、
     前記検査用画像光線を検査用画像として被験者の眼球に投影する投影部とを有し、
     前記検査用画像データは、それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含む、視野視力検査装置。
  13.  視野視力検査装置と、前記視野視力検査装置と通信を行う端末装置と、を有する視野視力検査システムによる視野検査方法であって、
     前記端末装置が、
     検査用画像データを画像データ保持部に保持する手順と、
     前記検査用画像データを前記視野視力検査装置へ出力する手順と、
     画像を表示する表示部に、前記検査用画像データから検査用画像を生成して表示する手順と、を有し、
     前記視野視力検査装置が、
     前記端末装置からの検査用画像データを入力する手順と、
     入力された前記検査用画像データに基づいた光線を生成して、前記光線を出射する光源部からの画像用光線の出射制御を行う手順と、
     前記画像用光線を走査ミラーにより走査して検査用画像光線を生成する手順と、
     前記検査用画像光線を検査用画像として被験者の眼球に投影する手順と、を有し、
     前記検査用画像データは、それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含む、視野検査方法。
  14.  コンピュータによる視野視力検査プログラムであって、
     それぞれに識別子を含む複数の領域に区分されている視野検査用画像データと、視標の画像を含む視力検査用画像データと、を保持するステップと、
     検査の種類の選択を受け付けるステップと、
     前記視野検査用画像データと、前記視力検査用画像データの何れか一方を、前記選択に応じて視野視力検査装置へ出力するステップと、
     前記コンピュータが有する表示部に、前記視野検査用画像データから生成される視野検査用画像、又は、前記視力検査用画像データから生成される視力検査用画像を表示させるステップと、
     前記表示部に表示された前記視野検査用画像において選択された領域の識別子、又は、前記表示部に表示された前記視力検査用画像において選択された前記視標の画像を特定する情報を、検査結果情報として検査結果格納部に格納するステップと、を前記コンピュータに実行させ、
     前記視野視力検査装置は、前記視野検査用画像データ又は前記視力検査用画像データを被験者の眼球の網膜へ投影する視野視力検査装置である、視野視力検査プログラム。
  15.  検査用画像データを保持する画像データ保持部と、
     前記検査用画像データを端末装置へ出力する画像出力処理部と、
     前記検査用画像データから検査用画像を生成して前記端末装置の表示部に表示させる表示制御部と、
     前記端末装置の表示部に表示された前記検査用画像において、選択された領域の識別子が検査結果情報として格納される検査結果格納部と、を有し、
     前記検査用画像データは、
     前記検査用画像データは、視野検査用画像データと、視標の画像を含む視力検査用画像データと、を含み、
     前記端末装置は、
     前記検査用画像データを被験者の眼球の網膜へ投影する視野視力検査装置へ出力する端末装置である、サーバ装置。
PCT/JP2017/021211 2016-06-09 2017-06-07 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置 WO2017213200A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/306,694 US11129527B2 (en) 2016-06-09 2017-06-07 Visual field/visual acuity examination system, visual field/visual acuity examination device, visual field/visual acuity examination method, visual field/visual acuity examination program, and server device
CN201780034957.XA CN109310315B (zh) 2016-06-09 2017-06-07 视野视力检查系统、视野视力检查装置、视野视力检查方法、存储介质及服务器装置
EP17810374.3A EP3469979A4 (en) 2016-06-09 2017-06-07 VISUAL FIELD EXAMINATION / VISUAL ACUITY SYSTEM, VISUAL FIELD EXAMINATION / VISUAL ACUITY, VISUAL FIELD EXAMINATION / VISUAL ACUITY, VISUAL FIELD EXAMINATION / VISUAL ACUITY PROGRAM, AND SERVER DEVICE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016115045 2016-06-09
JP2016-115045 2016-06-09
JP2017106337A JP6255522B2 (ja) 2016-06-09 2017-05-30 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置
JP2017-106337 2017-05-30

Publications (1)

Publication Number Publication Date
WO2017213200A1 true WO2017213200A1 (ja) 2017-12-14

Family

ID=60577917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021211 WO2017213200A1 (ja) 2016-06-09 2017-06-07 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置

Country Status (2)

Country Link
CN (1) CN109310315B (ja)
WO (1) WO2017213200A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024135730A1 (ja) * 2022-12-22 2024-06-27 株式会社Qdレーザ 視野検査装置、視野検査方法およびプログラム
JP7575752B1 (ja) 2022-12-22 2024-10-30 株式会社Qdレーザ 視野検査装置、視野検査方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537895A (zh) * 2019-09-06 2019-12-06 杨容 一种基于虚拟现实技术的视网膜检测系统
CN113116287A (zh) * 2021-03-10 2021-07-16 中山大学中山眼科中心 一种利用高通e字型视标进行黄斑视野测试的方法及其应用

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531152A (ja) * 1998-12-03 2002-09-24 ウエイス,ジェフリー,エヌ. 自己検眼装置(eyeself−testdevice)
JP2004537331A (ja) * 2000-06-28 2004-12-16 エーアイビジョン ピーティーワイ リミテッド 検眼システム
US20090153796A1 (en) * 2005-09-02 2009-06-18 Arthur Rabner Multi-functional optometric-ophthalmic system for testing diagnosing, or treating, vision or eyes of a subject, and methodologies thereof
JP2009240638A (ja) * 2008-03-31 2009-10-22 Chiba Univ 視機能評価装置
JP2009268778A (ja) * 2008-05-09 2009-11-19 Panasonic Corp 画像表示装置、画像表示方法、プログラムおよび集積回路
JP2010046327A (ja) * 2008-08-22 2010-03-04 Kowa Co 視野計、視野測定プログラム、及びそのプログラムを格納した記憶媒体
JP2010131166A (ja) * 2008-12-04 2010-06-17 Konica Minolta Holdings Inc 視野検査装置の制御方法、視野検査装置、及び頭部装着式映像表示装置
JP2012011146A (ja) * 2010-07-05 2012-01-19 Nidek Co Ltd 眼科装置
JP2013247527A (ja) * 2012-05-25 2013-12-09 Funai Electric Co Ltd 映像出力装置
JP2014521464A (ja) * 2011-08-09 2014-08-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人に適する視覚補助機器のグループを決定する装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4971434A (en) * 1989-11-28 1990-11-20 Visual Resources, Inc. Method for diagnosing deficiencies in and expanding a person's useful field of view
US6386706B1 (en) * 1996-07-31 2002-05-14 Virtual-Eye.Com Visual function testing with virtual retinal display
WO2000057772A1 (en) * 1999-03-31 2000-10-05 Virtual-Eye.Com, Inc. Kinetic visual field apparatus and method
CN101185016A (zh) * 2005-03-30 2008-05-21 诺瓦维申公司 在视觉训练中用头戴式显示器提供视觉刺激的方法和设备
WO2010009447A2 (en) * 2008-07-18 2010-01-21 Doheny Eye Institute Optical coherence tomography - based ophthalmic testing methods, devices and systems
US10447826B2 (en) * 2013-03-14 2019-10-15 Google Llc Detecting user interest in presented media items by observing volume change events

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531152A (ja) * 1998-12-03 2002-09-24 ウエイス,ジェフリー,エヌ. 自己検眼装置(eyeself−testdevice)
JP2004537331A (ja) * 2000-06-28 2004-12-16 エーアイビジョン ピーティーワイ リミテッド 検眼システム
US20090153796A1 (en) * 2005-09-02 2009-06-18 Arthur Rabner Multi-functional optometric-ophthalmic system for testing diagnosing, or treating, vision or eyes of a subject, and methodologies thereof
JP2009240638A (ja) * 2008-03-31 2009-10-22 Chiba Univ 視機能評価装置
JP2009268778A (ja) * 2008-05-09 2009-11-19 Panasonic Corp 画像表示装置、画像表示方法、プログラムおよび集積回路
JP2010046327A (ja) * 2008-08-22 2010-03-04 Kowa Co 視野計、視野測定プログラム、及びそのプログラムを格納した記憶媒体
JP2010131166A (ja) * 2008-12-04 2010-06-17 Konica Minolta Holdings Inc 視野検査装置の制御方法、視野検査装置、及び頭部装着式映像表示装置
JP2012011146A (ja) * 2010-07-05 2012-01-19 Nidek Co Ltd 眼科装置
JP2014521464A (ja) * 2011-08-09 2014-08-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人に適する視覚補助機器のグループを決定する装置
JP2013247527A (ja) * 2012-05-25 2013-12-09 Funai Electric Co Ltd 映像出力装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024135730A1 (ja) * 2022-12-22 2024-06-27 株式会社Qdレーザ 視野検査装置、視野検査方法およびプログラム
JP7575752B1 (ja) 2022-12-22 2024-10-30 株式会社Qdレーザ 視野検査装置、視野検査方法およびプログラム

Also Published As

Publication number Publication date
CN109310315A (zh) 2019-02-05
CN109310315B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
JP6255522B2 (ja) 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置
US10409146B2 (en) Image projection system, image projection device, image projection method, image projection program, and server device
US10856733B2 (en) Methods and systems for testing aspects of vision
JP2022017222A (ja) 人の矯正レンズ処方を決定するためのシステム及び装置
JP2024016249A (ja) 医師による遠隔評価のためのデジタル眼検査方法
JP2022502221A (ja) 眼球検査及び測定を行う方法、装置並びにシステム
US20200069230A1 (en) Evaluation device, evaluation method, and evaluation program
WO2017213200A1 (ja) 視野視力検査システム、視野視力検査装置、視野視力検査方法、視野視力検査プログラム及びサーバ装置
TW200927082A (en) Enhanced head mounted display
CN109171638A (zh) 视力检测的方法、终端、头戴显示设备以及视力检测系统
JP2000517442A (ja) 被験主体の呼出し、識別、自己試験および/または自己指導の自動管理用のシステムおよび方法
RU2709114C1 (ru) Способ проверки зрения, устройство для проверки зрения и сервер для скачивания для хранения программы или способа проверки зрения
US20210290130A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP2020025849A (ja) 評価装置、評価方法、及び評価プログラム
JP7099377B2 (ja) 情報処理装置及び情報処理方法
US20040184000A1 (en) Ophthalmologic apparatus
US20230414093A1 (en) Enhanced vision screening using external media
US11918286B2 (en) Ophthalmic instrument, management method, and management device
WO2017213241A1 (ja) 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
Shen et al. Evaluation of visual acuity measurement based on the mobile virtual reality device
WO2021192704A1 (ja) 認知機能障害診断装置および認知機能障害診断プログラム
CN107847125B (zh) 通过参照接受测试的个人的行为确定视力辅助装置的方法
US20200221944A1 (en) Virtual reality-based ophthalmic inspection system and inspection method thereof
US20210121059A1 (en) Ophthalmic instrument, management device, and method for managing an ophthalmic instrument
JP2019097806A (ja) 網膜走査型視力検査装置、網膜走査型視力検査システム、網膜走査型視力検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17810374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017810374

Country of ref document: EP

Effective date: 20190109