WO2019050049A1 - 眼科機器、管理方法、及び管理装置 - Google Patents

眼科機器、管理方法、及び管理装置 Download PDF

Info

Publication number
WO2019050049A1
WO2019050049A1 PCT/JP2018/033719 JP2018033719W WO2019050049A1 WO 2019050049 A1 WO2019050049 A1 WO 2019050049A1 JP 2018033719 W JP2018033719 W JP 2018033719W WO 2019050049 A1 WO2019050049 A1 WO 2019050049A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
light
information
unit
examination
Prior art date
Application number
PCT/JP2018/033719
Other languages
English (en)
French (fr)
Inventor
秀樹 尾原
研 富岡
翔太 宮崎
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2019541056A priority Critical patent/JP7052800B2/ja
Priority to US16/645,328 priority patent/US11918286B2/en
Publication of WO2019050049A1 publication Critical patent/WO2019050049A1/ja
Priority to JP2022061172A priority patent/JP7355144B2/ja
Priority to JP2023153952A priority patent/JP2023171817A/ja
Priority to US18/428,731 priority patent/US20240164635A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1025Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for confocal scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus

Definitions

  • the technology of the present disclosure relates to an ophthalmologic apparatus, a management method, and a management apparatus.
  • ophthalmology refers to the medical branch that deals with the eye.
  • SLO refers to the abbreviation for "Scanning Laser Ophthalmoscope”.
  • OCT refers to the abbreviation for "Optical Coherence Tomograph”.
  • JP-A-2016-22150 discloses a visual function inspection apparatus including an irradiation optical system, a biological information detection unit, an evaluation information generation unit, and a control unit.
  • the irradiation optical system includes an optical scanner disposed in the optical path of the laser light output from the laser light source, and the laser light passed through the optical scanner is used as an eye to be examined Irradiate your retina. Further, the biological information detection unit repeatedly detects biological information representing a reaction of the subject to the irradiation of the laser light. Further, the control unit controls the irradiation optical system so as to monotonously change the irradiation intensity of the laser beam to one stimulation point of the retina when repetitive detection of the biological information is performed.
  • the evaluation information generation unit generates evaluation information on the visual function of the subject's eye based on the detected biological information. Specifically, the evaluation information generation unit generates sensitivity information at one stimulation point based on the time-series change of the biological information according to the monotonous change of the irradiation intensity of the laser light. Further, the evaluation information generation unit generates, as evaluation information, the distribution of sensitivity information at a plurality of stimulation points based on the sensitivity information generated for each of a plurality of stimulation points in the retina.
  • An ophthalmologic apparatus includes a light source including a first light source and a second light source that emits light for examination of an eye to be examined, and an emitting unit that emits light from the light source
  • a light source including a first light source and a second light source that emits light for examination of an eye to be examined, and an emitting unit that emits light from the light source
  • An optical system having a right-eye optical system for guiding light emitted from the optical system to the right-eye retina, and an optical system for the left eye for guiding light emitted from the light-emitting section to the left-eye retina;
  • a control unit configured to control the emission unit and the optical system so as to irradiate the right eye retina and / or the left eye retina.
  • An ophthalmologic apparatus includes: a light management unit including a light source having a first light source and a second light source that emits light for examination of an eye to be examined; An eyewear terminal including an optical system having an optical system for the left eye and an optical system for the left eye that guides the light to the retina of the left eye, the optical system for the right eye and / or the left And a control unit configured to control the light management unit, the optical system, and the light branching unit.
  • An ophthalmologic apparatus includes: a right-eye emission unit that emits right-eye inspection light; a left-eye emission unit that emits left-eye inspection light; Optical system having a right-eye optical system for guiding light to the right-eye retina and a left-eye optical system for guiding the left-eye inspection light to the left-eye retina, and the right-eye inspection light irradiates the right-eye retina And a control unit configured to control the right-eye emission unit, the left-eye emission unit, and the optical system such that the left-eye examination light is irradiated to the left-eye retina.
  • a management method includes: an emission unit that includes a light source having a first light source and a second light source that emits light for inspection of an eye to be examined; An optical system having a right-eye optical system for guiding light emitted from the optical system to the right-eye retina, and an optical system for the left eye for guiding light emitted from the light-emitting section to the left-eye retina; It is a management method for managing an ophthalmologic apparatus including a control unit that controls the emission unit and the optical system so as to irradiate the right eye retina and / or the left eye retina.
  • ophthalmologic examination information including examination type specifying information for identifying a type of ophthalmologic examination, and acquiring from the ophthalmologic apparatus examination result information indicating a result of the examination by the ophthalmologic apparatus.
  • a management apparatus is a management apparatus including a communication unit that transmits and receives data to and from the ophthalmologic apparatus according to the first aspect of the technology of the present disclosure;
  • the control unit transmits, to the ophthalmologic apparatus, ophthalmologic examination information including instruction information for instructing an eye to be examined and examination type specifying information for identifying a type of ophthalmologic examination, and indicates a result of the examination by the ophthalmologic apparatus Test result information is acquired from the ophthalmologic apparatus.
  • FIG. 9A It is a flowchart which shows an example of the flow of the visual field inspection process contained in the terminal side process which concerns on 1st Embodiment. It is a continuation of the flowchart shown to FIG. 9A. It is a flowchart which shows an example of the flow of SLO image inspection process contained in the terminal side process which concerns on 1st Embodiment. It is a flowchart which shows an example of the flow of the OCT image test
  • FIG. 7 is a flowchart showing an example of the flow of communication error handling processing according to the first to third embodiments.
  • FIG. 16 is a schematic screen view showing an example of an aspect of a progress situation screen displayed on the display by executing the display control process according to the first to third embodiments. It is a block diagram showing an example of the principal part function of the ophthalmologic system concerning a 1st-3rd embodiment. It is a sequence diagram which shows an example of the main interaction between the wearable terminal device contained in the ophthalmologic system which concerns on 1st Embodiment, a management apparatus, a server apparatus, and a viewer.
  • MEMS refers to an abbreviation of "Micro Electro Mechanical Systems”.
  • I / F refers to the abbreviation of “Interface”.
  • I / O refers to an abbreviation of input / output interface.
  • USB means an abbreviation of "universal serial bus”.
  • ID refers to the abbreviation of "IDentification”.
  • CPU means an abbreviation of "Central Processing Unit”.
  • RAM means an abbreviation of "Random Access Memory”.
  • HDD refers to an abbreviation of "Hard Disk Drive”.
  • EEPROM refers to an abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • SSD refers to the abbreviation of "Solid State Drive”.
  • DVD-ROM refers to an abbreviation of "Digital Versatile Disc Read Only Memory”.
  • ASIC refers to an abbreviation of "Application Specific Integrated Circuit”.
  • FPGA refers to an abbreviation of "Field-Programmable Gate Array”.
  • PLD refers to an abbreviation of "Programmable Logic Device”.
  • LAN refers to the abbreviation of "Local Area Network”.
  • the left-right direction indicates, for example, the direction of a straight line passing through the center of the pupil of the right eye of the patient and the center of the pupil of the left eye.
  • the “left and right direction” is also referred to as “X direction”
  • the direction from the center of the pupil of the subject's eye to the posterior pole of the subject's eye is referred to as “Z direction”.
  • the direction perpendicular to both is called "Y direction”.
  • the ophthalmologic system 10 is a system that is used for examination of an ophthalmologic system for a patient, that is, examination (hereinafter simply referred to as “ophthalmologic examination”) for an eye to be examined 44 (see FIG. 2).
  • the ophthalmologic examination includes a visual field examination and an imaging examination.
  • a visual field test refers to an examination of the visual field of a patient (subject).
  • Image examination refers to examination using a fundus image obtained by photographing the fundus of a patient (subject).
  • three primary color laser beams which are three primary color laser beams of red (R), green (G), and blue (B), are scanned two-dimensionally with respect to the retina 46 Point to the imaging for obtaining a planar image of the retina 46.
  • three-primary-color laser light is described as an example, but the technology of the present disclosure is not limited to this, and for example, laser light from a single color of R, G, and B It may be a laser beam of two colors.
  • cross-sectional imaging refers to imaging for obtaining a tomographic image of the retina 46 by scanning a retina with near-infrared light (hereinafter, referred to as IR laser light) that is laser light.
  • IR laser light near-infrared light
  • the three primary color laser light is an example of the “light for inspection with respect to the eye to be examined” and the “light from the light source for SLO” according to the technology of the present disclosure.
  • IR laser beam is an example of the "light for test
  • the “three primary color laser beam” and the “IR laser beam” are also referred to as “inspection light” when it is not necessary to distinguish them.
  • IR laser light is used for OCT image inspection for convenience of explanation below, the technique of this indication is not limited to this, It is possible to use SLO image inspection, too.
  • the ophthalmologic system 10 includes a plurality of wearable terminal devices 12, a management device 14, a server device 15, and a viewer 17.
  • the wearable terminal device 12 is an example of an ophthalmologic apparatus according to the technology of the present disclosure.
  • the wearable terminal device 12 includes an eyewear terminal device 16 which is an example of an eyewear terminal according to the technology of the present disclosure, a control device 18, and an optical branching unit 20.
  • the eyewear terminal device 16 is a kind of eyeglass-type terminal device worn on a patient.
  • patient refers to a patient who has a disease in the fundus.
  • the patient is an example of a subject according to the technology of the present disclosure.
  • the eyewear terminal device 16 includes a rim 22 and a temple 24 in the same manner as general glasses.
  • the eyewear terminal device 16 also includes an optical system 27.
  • the rim 22 holds an optical system 27.
  • the temples 24 are roughly divided into left side temples 24L and right side temples 24R. One end of the left side temple 24L is attached to the left end of the rim 22, and the right side temple 24R is attached to the right end of the rim 22.
  • the left side temple 24L has an ear hooking portion 24L1.
  • the right side temple 24R has an ear hooking portion 24R1.
  • the ear hooking portion 24L1 is hooked on the left ear of the patient, and the ear hooking portion 24R1 is hooked on the patient's right ear.
  • a speaker 140 is provided in the ear hooking portion 24L1.
  • the speaker 140 outputs sound under the control of the control device 18.
  • the speaker 140 may be a speaker that applies an acoustic wave directly to the tympanic membrane of a patient, or may be a bone conduction type speaker that indirectly transmits a vibration to the tympanic membrane of a patient.
  • the speaker 140 is an example of a notification unit that notifies the patient of information by acting on the patient's hearing.
  • the control device 18 is used, for example, while the patient holds it or the patient wears it on his or her clothes or body.
  • the controller 18 is provided with a response button 19.
  • the response button 19 is an example of a reception unit (response unit) according to the technology of the present disclosure.
  • the response button 19 is illustrated, the technology of the present disclosure is not limited thereto.
  • a touch panel may be used instead of the response button 19, or a voice of the patient in response to the perception of the laser light by the microphone may be acquired by the microphone, and the voice recognition device may recognize the voice acquired by the microphone. You may use.
  • the touch panel and the voice recognition device output response information, which will be described later, in response to an action from the patient.
  • the response button 19 is operated by the patient and outputs information according to the operation by the patient.
  • the response button 19 receives an operation as to whether the patient has detected the three primary color laser beams when the three primary color laser beams are irradiated to the retina 46 (see FIG. 2) of the eye 44 (see FIG. 2).
  • the response button 19 receives an operation by the patient when the patient responds to the perception of the laser light. That is, processing is performed to associate the response information of the response button with the mark projection position information.
  • the response button 19 may be pressed by the patient when the patient answers the medical service provider's question.
  • the "medical service person” said here refers to the medical technician with the qualification of the visual function training person who performs an eye examination under the instruction
  • the response button 19 and the control device 18 are connected in a wireless and / or wired manner, and response information in response to the operation of the response button 19 is transmitted to the control device 18.
  • one response button 19 is associated with the control device 18 by a number such as an equipment number. Examples of wireless communication include communication by Wi-Fi (registered trademark) or Bluetooth (registered trademark). Wired communication includes cable communication.
  • the control device 18 is connected to the management device 14 in a wirelessly communicable state, and exchanges various information with the management device 14.
  • the control device 18 is connected to the light branching unit 20 via the cable 25 and controls the light branching unit 20.
  • the control device 18 may be connected to the management device 14 in a wirelessly communicable state.
  • the cable 25 includes an optical fiber 30 and a bus line 32.
  • the controller 18 supplies inspection light to the light branching unit 20 via the optical fiber 30 and controls the light branching unit 20 via the bus line 32.
  • the optical system 27 includes a light branching unit 20.
  • the light branching unit 20 is connected to the eyewear terminal device 16 via the cables 34 and 36.
  • the cable 34 is connected to the right side temple 24R, and the cable 36 is connected to the left side temple 24L.
  • the cables 34, 36 both include a bus line 32. Accordingly, the control device 18 exchanges various electrical signals with the eyewear terminal device 16 via the bus line 32.
  • the cable 34 includes an optical fiber 38
  • the cable 36 includes an optical fiber 40.
  • the optical branching unit 20 branches the inspection light supplied from the controller 18 via the optical fiber 30 into the optical fiber 38 and / or the optical fiber 40.
  • One inspection light obtained by being branched by the light branching unit 20 is supplied to the eyewear terminal device 16 through the optical fiber 38, and the other inspection light obtained by being branched by the light branching unit 20 is light It is supplied to the eyewear terminal 16 via the fiber 40.
  • the optical system 27 includes a reflection mirror 42.
  • the reflection mirror 42 is an example of a reflection member according to the technology of the present disclosure.
  • the reflection mirror 42 reflects the examination light supplied from the light branching unit 20 via the cables 34 and 36, and guides the examination light to the retina 46 of the eye 44 of the patient's eye 44 as shown in FIG. 2 as an example.
  • the eye to be examined 44 is roughly divided into a right eye 44R and a left eye 44L.
  • the retina 46 is roughly classified into a retina 46R which is an example of the right retina according to the technology of the present disclosure and a retina 46L which is an example of the left retina according to the technology of the present disclosure.
  • the reflection mirror 42 is roughly divided into a reflection mirror 42R for the right eye and a reflection mirror 42L for the left eye.
  • the right eye reflection mirror 42R is held by the rim 22 so as to be located in front of the patient's right eye 44R with the eyewear terminal 16 properly attached.
  • the left-eye reflection mirror 42L is held by the rim 22 so as to be positioned in front of the left eye 44L of the patient with the eyewear terminal 16 properly attached.
  • the right-eye reflection mirror 42R reflects the examination light supplied from the light branching unit 20 via the optical fiber 38, and as shown in FIG. 2 as an example, the examination light is transmitted to the retina 46R of the patient's right eye 44R.
  • Lead to The left-eye reflection mirror 42L reflects the examination light supplied from the light branching unit 20 via the optical fiber 40, and guides the examination light to the retina 46L of the left eye 44L of the patient as shown in FIG. 2 as an example.
  • the eyewear terminal device 16 includes an in-camera 48R for the right eye and an in-camera 48L for the left eye.
  • the right-eye in-camera 48R and the left-eye in-camera 48L capture an object under the control of the control device 18.
  • the right-eye in-camera 48R and the left-eye in-camera 48L are attached to the upper edge of the rim 22.
  • the right-eye in-camera 48R is provided at a position shifted from the right-eye reflection mirror 42R in the Y direction, and photographs an anterior-eye portion of the right eye 44R as a subject from diagonally above the front region of the right eye 44R.
  • the left-eye in-camera 48L is provided at a position shifted from the left-eye reflection mirror 42L in the Y direction, and photographs an anterior-eye portion of the left eye 44L as a subject from diagonally above the front region of the left eye 44L.
  • the right-eye in-camera 48R and the left-eye in-camera 48L are examples of an anterior eye camera according to the technology of the present disclosure. Also, although the right-eye in-camera 48R and the left-eye in-camera 48L are illustrated here, the technology of the present disclosure is not limited thereto. For example, instead of the in-camera 48R for the right eye and the in-camera 48L for the left eye, a single camera that captures both an anterior segment of the right eye 44R and an anterior segment of the left eye 44L may be applied. .
  • the management device 14 centrally manages the ophthalmologic examination by each of the plurality of wearable terminal devices 12.
  • the ophthalmologic examination by the wearable terminal device 12 means, in other words, an ophthalmologic examination using the wearable terminal device 12.
  • management of the ophthalmologic examination means, for example, management of examination light used for ophthalmologic examination, and the patient visually recognizes the irradiated three primary color laser beams by irradiating the retina 46 with the three primary color laser beams.
  • Management of perceptual information indicating that they are perceived, management of communication with the wearable terminal 12, and the progress of the ophthalmologic examination by the wearable terminal 12 are grasped for each wearable terminal 12 and a progress status screen 190 described later is displayed. Refers to management including management to be displayed.
  • the control device 18 supplies the inspection light to the eyewear terminal device 16 through the optical fibers 30, 38 and 40 in accordance with the instruction from the management device 14.
  • wireless communication is performed between the wearable terminal device 12 and the management device 14
  • the technology of the present disclosure is not limited to this.
  • wired communication may be performed between the wearable terminal device 12 and the management device 14.
  • the server device 15 provides and / or processes information in response to a request from an external device such as the management device 14 and / or the viewer 17, and centrally manages personal information of a plurality of patients.
  • the server device 15 is connected to the management device 14 and the viewer 17 via the cable 23, and exchanges various information with each of the management device 14 and the viewer 17.
  • An example of the cable 23 is a LAN cable.
  • the case where wired communication is performed between the server device 15 and the management device 14 is illustrated, but the technology of the present disclosure is not limited to this, and the server device 15 and management may be performed. Wireless communication may be performed with the device 14.
  • the optical system 27 guides the examination light to the retina 46R and / or the retina 46L.
  • the optical system 27 has a scanner 28 and a reflection mirror 42.
  • the scanner 28 scans the inspection light supplied from the controller 18 via the light branching unit 20.
  • the reflection mirror 42 reflects the examination light scanned by the scanner 28 to the retina 46.
  • the optical system 27 has a right-eye optical system 27R and a left-eye optical system 27L.
  • the light branching unit 20 branches the inspection light supplied from the control device 18 via the optical fiber 30 into the right-eye optical system 27R and the left-eye optical system 27L.
  • the right-eye optical system 27R guides the examination light supplied from the light branching unit 20 via the optical fiber 38 to the retina 46R.
  • the left-eye optical system 27L guides the examination light supplied from the light branching unit 20 via the optical fiber 40 to the retina 46L.
  • the scanner 28 has a right eye scanner 28R and a left eye scanner 28L.
  • the right-eye optical system 27R has a right-eye scanner 28R and a right-eye reflection mirror 42R.
  • the left-eye optical system 27L includes a left-eye scanner 28L and a left-eye reflection mirror 42L.
  • the right-eye scanner 28R has MEMS mirrors 54 and 56, and scans the laser light supplied through the right-eye light transfer unit 52.
  • the right-eye light transmitting / receiving unit 52 irradiates the laser light supplied from the laser light branching unit 20 via the optical fiber 38.
  • the MEMS mirror 54 is disposed in the irradiation direction of the laser light by the right-eye light transfer unit 52, and the MEMS mirror 54 reflects the laser light emitted from the right-eye light transfer unit 52, whereby the MEMS is generated. Lead to the mirror 56.
  • the MEMS mirror 56 reflects the laser light guided by the MEMS mirror 54 and guides the laser light to the reflection mirror for right eye 42R.
  • the MEMS mirror 54 scans laser light in the Y direction
  • the MEMS mirror 56 scans laser light in the X direction.
  • the MEMS mirrors 54 and 56 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
  • the MEMS mirror 54 may be scanned in the X direction, and the MEMS mirror 56 may be scanned in the Y direction.
  • the right-eye scanner 28R may be configured as a reflection mirror 42R and a MEMS mirror 56 capable of scanning in the X and Y directions.
  • the right-eye reflection mirror 42R reflects the examination light scanned by the right-eye scanner 28R to the retina 46R.
  • the right-eye light transfer unit 52 takes in the below-described right fundus light, and supplies the taken-in right fundus light to the light management unit 116 via the optical fiber 38, the light branching unit 20, and the optical fiber 30.
  • the right-eye reflection mirror 42R has a curved surface 42R1.
  • the curved surface 42R1 is a concave surface as viewed from the right eye 44R of the patient with the eyewear terminal 16 mounted, and reflects the inspection light guided by the MEMS mirror 56 to make the right eye The examination light is guided to the retina 46R of the right eye 44R through the lens 64R under the pupil of the 44R.
  • the left-eye scanner 28 ⁇ / b> L includes the MEMS mirrors 60 and 62 and scans laser light supplied via the left-eye light transfer unit 58.
  • the left-eye light transmitting / receiving unit 58 irradiates the laser light supplied from the laser light branching unit 20 via the optical fiber 40.
  • the MEMS mirror 60 is disposed in the irradiation direction of the laser light by the left-eye light transfer unit 58, and the MEMS mirror 60 reflects the laser light emitted from the left-eye light transfer unit 58 to thereby perform the MEMS. Lead to the mirror 62.
  • the MEMS mirror 62 reflects the laser light guided by the MEMS mirror 60 and guides the laser light to the left-eye reflection mirror 42L.
  • the MEMS mirror 60 scans laser light in the Y direction
  • the MEMS mirror 62 scans laser light in the X direction.
  • the MEMS mirrors 60 and 62 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
  • the MEMS mirror 60 may be scanned in the X direction, and the MEMS mirror 62 may be scanned in the Y direction.
  • the left-eye scanner 28L may be configured as a reflection mirror 42L and a MEMS mirror 56 capable of scanning in the X and Y directions.
  • MEMS mirrors 54, 56, 60 and 62 are illustrated in the example shown in FIG. 2, the technology of the present disclosure is not limited thereto.
  • an electrically reflective surface such as a galvano mirror and / or a polygon mirror, instead of or in combination with at least one of the MEMS mirrors 54, 56, 60, 62 A mirror whose position can be controlled may be used.
  • the left-eye reflection mirror 42L reflects the examination light scanned by the left-eye scanner 28L to the retina 46L.
  • the left-eye light transfer unit 58 takes in the below-described left fundus light, and supplies the taken-in left fundus light to the light management unit 116 via the optical fiber 40, the light branch unit 20, and the optical fiber 30.
  • the left-eye reflection mirror 42L has a curved surface 42L1.
  • the curved surface 42L1 is a surface formed concavely as viewed from the left eye 44L of the patient in a state in which the eyewear terminal device 16 is mounted, and reflects the examination light guided by the MEMS mirror 62 The examination light is guided to the retina 46L of the left eye 44L through the lens 64L under the pupil of 46R.
  • lens 64 when it is not necessary to distinguish and describe the lenses 64R and 64L, it will be referred to as "lens 64".
  • the optical system 27 includes a right-eye slide mechanism 70R, a left-eye slide mechanism 70L, a right-eye drive source 72R, and a left-eye drive source 72L.
  • Examples of the right-eye drive source 72R and the left-eye drive source 72L include a stepping motor, a solenoid, and a piezoelectric element.
  • the drive source 72R for the right eye and the drive source 72L for the left eye are referred to as "mirror drive source 72" when it is not necessary to distinguish them.
  • the right-eye slide mechanism 70R is attached to the rim 22, and holds the right-eye reflection mirror 42R slidably in the left-right direction.
  • the right-eye slide mechanism 70R is connected to the right-eye drive source 72R, and slides the right-eye reflection mirror 42R in the left-right direction by receiving the power generated by the right-eye drive source 72R.
  • the left-eye slide mechanism 70L is attached to the rim 22, and holds the left-eye reflection mirror 42L slidably in the left-right direction.
  • the left-eye slide mechanism 70L is connected to the left-eye drive source 72L, and slides the left-eye reflection mirror 42L in the left-right direction by receiving the power generated by the left-eye drive source 72L.
  • an image based on laser light is projected onto the retina 46 of the eye to be examined 44 by the Maxwell vision optical system.
  • the “Maxwell vision optical system” mentioned here means that the laser light is converged by the lens 64 under the pupil of the eye to be examined 44 and the laser light converged by the lens 64 is irradiated to the retina 46 of the eye to be examined 44 , Refers to an optical system in which an image based on laser light is projected onto the retina 46 of the eye 44 to be examined.
  • the scanner 28 and the mirror drive source 72 are controlled by the control device 18, whereby a Maxwell vision optical system is realized.
  • the management device 14 includes a main control unit 80, a wireless communication unit 82, a reception device 84, a touch panel display 86, and an external I / F 88.
  • the main control unit 80 is an example of a management apparatus side control unit according to the technology of the present disclosure.
  • the main control unit 80 includes a CPU 90, a primary storage unit 92, a secondary storage unit 94, a bus line 96, and an I / O 98.
  • the CPU 90, the primary storage unit 92, and the secondary storage unit 94 are connected via a bus line 96.
  • An I / O 98 is connected to the bus line 96.
  • a single CPU is employed as the CPU 90, but a plurality of CPUs may be employed instead of the CPU 90.
  • the CPU 90 controls the entire management device 14.
  • the primary storage unit 92 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 92 is a RAM.
  • the secondary storage unit 94 is a non-volatile memory that stores programs for controlling basic operations of the management apparatus 14 and various parameters. Examples of the secondary storage unit 94 include an HDD, an EEPROM, or a flash memory.
  • the wireless communication unit 82 is connected to the I / O 98.
  • the CPU 90 outputs an electrical signal to be transmitted to the control device 18 to the wireless communication unit 82.
  • the wireless communication unit 82 transmits the electric signal input from the CPU 90 to the control device 18 by radio waves.
  • the wireless communication unit 82 also receives a radio wave from the control device 18 and outputs an electrical signal corresponding to the received radio wave to the CPU 90.
  • the wireless communication unit 82 is an example of a communication unit according to the technology of the present disclosure. That is, the wireless communication unit 82 instructs the wearable terminal device 12 to be the control information for controlling the control unit 170 (see FIG. 14) described later, and instructs the eye to be examined in the ophthalmologic examination of the both eyes of the patient. Control information having instruction information to be transmitted to the wearable terminal 12.
  • the reception device 84 includes a touch panel 84A, a keyboard 84B, and a mouse 84C, and the touch panel 84A, the keyboard 84B, and the mouse 84C are connected to the I / O 98. Therefore, the CPU 90 can grasp various instructions received by each of the touch panel 84A, the keyboard 84B, and the mouse 84C.
  • the external I / F 88 is connected to an external device such as the server device 15, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 90.
  • the external I / F 88 is connected to the server device 15 via the cable 23.
  • the touch panel display 86 includes a display 86A and a touch panel 84A.
  • the display 86A is an example of a display unit according to the technology of the present disclosure.
  • the display 86A is connected to the I / O 98, and displays various information including an image under the control of the CPU 90.
  • the touch panel 84A is a transmissive touch panel and is superimposed on the display 86A.
  • the secondary storage unit 94 stores a terminal management program 94A, a display control program 94B, and a communication error handling program 94C.
  • the terminal management program 94A, the display control program 94B, and the communication error handling program 94C are referred to as “management apparatus side program” if they need not be distinguished and described.
  • the CPU 90 reads the management apparatus side program from the secondary storage unit 94, and develops the read management apparatus side program in the primary storage unit 92. Then, the CPU 90 executes the management apparatus side program expanded in the primary storage unit 92.
  • the control device 18 includes a main control unit 110, a wireless communication unit 112, and a light management unit 116 in addition to the response button 19 described above.
  • the main control unit 110, the wireless communication unit 112, and the light management unit 116 are housed in the same case.
  • the main control unit 110 is an example of a control unit according to the technology of the present disclosure.
  • the main control unit 110 includes a CPU 120, a primary storage unit 122, a secondary storage unit 124, a bus line 126, and an I / O 128.
  • the CPU 120, the primary storage unit 122, and the secondary storage unit 124 are connected via a bus line 126.
  • the I / O 128 is connected to the bus line 126.
  • a single CPU is employed as the CPU 120, but a plurality of CPUs may be employed instead of the CPU 120.
  • the CPU 120 controls the entire wearable terminal 12.
  • the primary storage unit 122 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 122 is a RAM.
  • the secondary storage unit 124 is a non-volatile memory that stores programs for controlling basic operations of the wearable terminal device 12 and various parameters. Examples of the secondary storage unit 124 include an HDD, an EEPROM, or a flash memory.
  • the response button 19 is connected to the I / O 128, and when the response button 19 is pressed, a response signal is output from the response button 19 to the CPU 120.
  • the wireless communication unit 112 performs wireless communication with the management device 14 so as to cause the management device 14 to perform management of the ophthalmologic examination by the wearable terminal device 12.
  • the wireless communication unit 112 is connected to the I / O 128.
  • the CPU 120 outputs the electric signal to be transmitted to the management device 14 to the wireless communication unit 112.
  • the wireless communication unit 112 transmits the electric signal input from the CPU 120 to the management device 14 by radio wave. Further, the wireless communication unit 112 receives the radio wave from the management device 14 and outputs an electric signal corresponding to the received radio wave to the CPU 120.
  • the light management unit 116 is an example of an emission unit according to the technology of the present disclosure, and is connected to the light branching unit 20 via the optical fiber 30.
  • the light management unit 116 generates inspection light, and emits the generated inspection light to the light branching unit 20 via the optical fiber 30.
  • the light management unit 116 includes a light source 114, a light source control circuit 115, and a light detection unit 117.
  • the light source control circuit 115 is connected to the I / O 128.
  • the light source control circuit 115 is also connected to the light source 114.
  • the light source control circuit 115 controls the light source 114 by supplying a light source control signal to the light source 114 according to the instruction of the CPU 120.
  • the light source 114 includes a laser light source unit 113, an IR laser light source 114D, and a mirror unit 130.
  • the laser light source unit 113 is an example of a first light source and a light source for SLO according to the technology of the present disclosure
  • the IR laser light source 114D is an example of a second light source and a light source for OCT according to the technology of the present disclosure.
  • the laser light source unit 113 includes an R light source 114A, a G light source 114B, and a B light source 114C, and emits visible light.
  • the R light source 114A emits R laser light which is R laser light of R, G, and B.
  • the G light source 114B emits G laser light which is laser light of G among R, G, and B.
  • the B light source 114C emits B laser light which is B laser light of R, G, and B.
  • the IR laser light source 114D emits IR laser light.
  • the mirror unit 130 includes a first mirror 130A, a second mirror 130B, and a third mirror 130C.
  • the second mirror 130B is a dichroic mirror, transmits the B laser light, and reflects the G laser light.
  • the third mirror 130C is a dichroic mirror, transmits R laser light, and reflects G laser light and B laser light.
  • the first mirror 130A is disposed in the emission direction of the B laser light by the B light source 114C, and guides the B laser light to the second mirror 130B by reflecting the B laser light emitted from the B light source 114C.
  • the second mirror 130B is disposed in the emitting direction of the G laser beam by the G light source 114B and in the traveling direction of the B laser beam reflected by the first mirror 130A.
  • the second mirror 130B guides the G laser light to the first mirror 130A by reflecting the G laser light emitted from the G light source 114B, and transmits the B laser light reflected by the first mirror 130A. Then, the B laser light is guided to the first mirror 130A.
  • the third mirror 130C is the emission direction of the R laser beam by the R light source 114A, and the traveling direction of the G laser beam reflected by the second mirror 130B, and is the G laser beam transmitted through the second mirror 130B. Are arranged in the direction of travel.
  • the third mirror 130C transmits the R laser beam emitted from the R light source 114A.
  • the third mirror 130C reflects the G laser light and the B laser light in the same direction as the R laser light to emit the R laser light, the G laser light, and the B laser light to the outside. Therefore, three primary color laser beams are emitted from the light source 114 to the outside.
  • the light detection unit 117 includes beam splitters 129 and 135 and mirrors 137 and 143.
  • the light detection unit 117 further includes an SLO light detection unit 131 and an OCT light detection unit 133.
  • the beam splitter 135 is disposed in the emission direction of the IR laser beam emitted from the light source 114.
  • the mirror 137 is disposed in the emission direction of the three primary color laser beams emitted from the light source 114.
  • the beam splitter 135 guides a part of the IR laser light from the light source 114 to the mirror 137 by reflecting it, and supplies a part of the IR laser light to the OCT light detection unit 133 as a reference light. .
  • the mirror 137 is a dichroic mirror, transmits the laser light from the light source 114, and reflects the IR laser light guided by the beam splitter 135.
  • the beam splitter 129 is a dichroic mirror, and is disposed in the traveling direction of the inspection light guided by the mirror 137, that is, in the traveling direction of the laser light transmitted through the mirror 137 and the IR laser light reflected by the mirror 137.
  • the beam splitter 129 guides the inspection light to the optical fiber 30 by reflecting the inspection light guided by the mirror 137.
  • the beam splitter 129 also transmits fundus light.
  • the fundus light refers to the reflected light from the fundus of the eye to be examined 44.
  • the fundus light is guided from the optical fiber 30 to the beam splitter 129.
  • the inspection light is roughly classified into left-eye light and right-eye light.
  • the light for the left eye refers to the inspection light used for the optical system 27L for the left eye
  • the light for the right eye refers to the inspection light used for the optical system 27R for the right eye.
  • the fundus light is roughly divided into left fundus light and right fundus light.
  • Left fundus light refers to light obtained by reflecting light from the fundus of the left eye 44L, that is, light for the left eye is reflected by the fundus of the left eye 44L (for example, the retina 46L (see FIG. 2)).
  • the right fundus light refers to light obtained by reflecting light from the fundus of the right eye 44R, that is, light for right eye is reflected by the fundus of the right eye 44R (for example, the retina 46R (see FIG. 2)).
  • the left fundus light is roughly divided into left eye SLO light when the left eye 44L is SLO photographed and left eye OCT light (signal light) when the left eye 44L is OCT photographed.
  • SLO imaging refers to imaging by SLO with the retina 46 as a subject.
  • OCT imaging refers to imaging by OCT with the retina 46 as a subject.
  • the left-eye SLO light refers to light obtained by the laser light being reflected by the retina 46L.
  • the left-eye OCT light refers to light obtained by the IR laser light being reflected by the retina 46L.
  • the right fundus light is roughly divided into right eye SLO light when the right eye 44R is SLO photographed and right eye OCT light (signal light) when the right eye 44R is OCT photographed.
  • Right-eye SLO light refers to light obtained by the laser light being reflected by the retina 46R.
  • Right-eye OCT light refers to light obtained by the IR laser light being reflected by the retina 46R.
  • SLO light when the left eye SLO light and the right eye SLO light do not need to be distinguished and described, they are referred to as “SLO light”. Also, in the following, for convenience of explanation, when it is not necessary to distinguish between left eye OCT light and right eye OCT light, it is referred to as “OCT light”.
  • the mirror 143 is a dichroic mirror and guides the SLO light (signal light) to the SLO light detection unit 131 in the case of SLO imaging, guides the OCT light (signal light) to the OCT light detection unit 133 in the COT imaging,
  • the fundus light is separated into SLO light and OCT light
  • the SLO light is guided to the light detection unit 131
  • the OCT light is guided to the OCT light detection unit 133. That is, the mirror 143 reflects the right eye SLO light of the right fundus light transmitted through the beam splitter 129 to guide it to the SLO light detection unit 131, and transmits the right eye OCT light to the OCT light detection unit 133.
  • the mirror 143 reflects the left eye SLO light of the left fundus light transmitted through the beam splitter 129 to guide it to the SLO light detection unit 131 and transmits the left eye OCT light to the OCT light detection unit 133. Lead.
  • the SLO light detection unit 131 detects SLO light.
  • the SLO light detection unit 131 is connected to the I / O 128, and outputs SLO detection information indicating the detection result of the SLO light to the CPU 120.
  • the SLO detection information is roughly classified into left eye SLO detection information indicating a detection result of left eye SLO light and right eye SLO detection information indicating a detection result of right eye SLO light.
  • a planar two-dimensional fundus image is generated based on the SLO examination information.
  • the OCT light detection unit 133 detects interference light in which the reference light and the OCT light (signal light) interfere with each other.
  • the OCT light detection unit 133 is connected to the I / O 128, and outputs OCT detection information indicating a detection result of interference light to the CPU 120.
  • the OCT detection information is roughly divided into left-eye OCT detection information indicating a detection result based on left-eye OCT light and right-eye OCT detection information indicating a detection result based on right-eye OCT light. And / or OCT data for drawing a three-dimensional image showing a three-dimensional shape of the retina 46.
  • the bus line 32 is connected to the I / O 128, and the optical branch unit 20 is connected to the bus line 32. Therefore, the light branching unit 20 operates under the control of the CPU 120.
  • the light branching unit 20 includes a right-eye shutter 121R, a left-eye shutter 121L, a third slide mechanism 122R, a fourth slide mechanism 122L, a right-eye shutter drive source 134R, and a left-eye shutter Drive source 134L, a beam splitter 136, and a reflection mirror 138.
  • shutter 121R for the right eye and the shutter 121L for the left eye are referred to as “shutter 121” when it is not necessary to distinguish them.
  • the beam splitter 136 reflects and transmits light for the left eye, which is inspection light supplied from the light management unit 116 via the optical fiber 30.
  • the left-eye light reflected by the beam splitter 136 travels toward the optical fiber 40 (see FIGS. 1 and 2).
  • the left fundus light is supplied to the beam splitter 136 via the optical fiber 40, and the beam splitter 136 reflects the left fundus light to guide it to the optical fiber 30.
  • the reflection mirror 138 reflects light for the right eye, which is inspection light transmitted through the beam splitter 136.
  • the right-eye light reflected by the reflection mirror 138 travels toward the optical fiber 38 (see FIGS. 1 and 2).
  • the right fundus light is supplied to the beam splitter 136 via the optical fiber 38, and the beam splitter 136 guides the light to the optical fiber 30 by reflecting the right fundus light.
  • the third slide mechanism 122R slidably holds the right-eye shutter 121R between the first position P1 and the second position P2.
  • the first position P1 refers to the position where light for the right eye is passed and guided to the optical fiber 38, and the light from the right eye fundus is transmitted and guided to the reflection mirror 138
  • the second position P2 is the light for right eye and the right It indicates the position where the fundus light is blocked.
  • the fourth slide mechanism 122L slidably holds the left-eye shutter 121L between the third position P3 and the fourth position P4.
  • the third position P3 refers to a position where light for the left eye is passed and guided to the optical fiber 40, and light of the left fundus is transmitted through the beam splitter, and the fourth position P4 is light for the left eye and the left fundus Point to a position that shields light.
  • Examples of the right-eye shutter drive source 134R and the left-eye shutter drive source 134L include a stepping motor, a solenoid, and a piezoelectric element.
  • the right-eye shutter drive source 134R and the left-eye shutter drive source 134L are connected to the bus line 32, and the right-eye shutter drive source 134R and the left-eye shutter drive source 134L operate under the control of the CPU 120. .
  • the third slide mechanism 122R is connected to the right-eye shutter drive source 134R, and receives power generated by the right-eye shutter drive source 134R to receive the right-eye shutter 121R at the first position P1 and the second position P1. Slide between P2.
  • the fourth slide mechanism 122L is connected to the left-eye shutter drive source 134L, and receives power generated by the left-eye shutter drive source 134L to receive the left-eye shutter 121L in a third position P3 and a fourth position P3. Slide between P4.
  • the speaker 140 is connected to the bus line 32 and outputs audio under control of the CPU 120.
  • the right eye drive source 72R and the left eye drive source 72L are connected to the bus line 32, and the CPU 120 controls the right eye drive source 72R and the left eye drive source 72L.
  • the right-eye in-camera 48R and the left-eye in-camera 48L are connected to the bus line 32, and the CPU 120 exchanges various information with the left-eye in-camera 48L and the right-eye in-camera 48R. Do.
  • the right-eye light transfer unit 52, the left-eye light transfer unit 58, and the MEMS mirrors 54, 56, 60, and 62 are connected to the bus line 32, and the CPU 120 controls the right-eye light transfer unit 52 and the left.
  • the light control unit 58 for the eye and the MEMS mirrors 54, 56, 60 and 62 are controlled.
  • a mounting detector 139 is connected to the bus line 32.
  • the attachment detector 139 is, for example, a pressure sensor.
  • the attachment detector 139 is provided in the frame of the eyewear terminal device 16 and detects that the eyewear terminal device 16 is correctly attached.
  • the CPU 120 acquires the detection result of the attachment detector 139.
  • the frame of the eyewear terminal device 350 refers to, for example, the rim 22 and the temple 24.
  • the secondary storage unit 124 stores a terminal-side program 124A.
  • the CPU 120 reads the terminal-side program 124A from the secondary storage unit 124, and develops the read-out terminal-side program 124A in the primary storage unit 122. Then, the CPU 120 executes the terminal-side program 124A expanded in the primary storage unit 122.
  • the server device 15 includes a main control unit 150, a reception device 154, a touch panel display 156, and an external I / F 158.
  • the main control unit 150 includes a CPU 160, a primary storage unit 162, a secondary storage unit 164, a bus line 166, and an I / O 168.
  • the CPU 160, the primary storage unit 162, and the secondary storage unit 164 are connected via a bus line 166.
  • the I / O 168 is connected to the bus line 166.
  • a single CPU is employed as the CPU 160 in the present embodiment, a plurality of CPUs may be employed instead of the CPU 160.
  • the CPU 160 controls the entire server device 15.
  • the primary storage unit 162 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 162 is a RAM.
  • the secondary storage unit 164 is a non-volatile memory that stores programs for controlling basic operations of the server device 164 and various parameters. Examples of the secondary storage unit 164 include an HDD, an EEPROM, or a flash memory.
  • the reception device 154 includes a touch panel 154A, a keyboard 154B, and a mouse 154C.
  • the touch panel 154A, the keyboard 154B, and the mouse 154C are connected to the I / O 168. Therefore, the CPU 160 can grasp various instructions received by the touch panel 154A, the keyboard 154B, and the mouse 154C.
  • the external I / F 158 is connected to an external device such as the management device 14, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 160.
  • the external I / F 158 is connected to the external I / F 88 of the management apparatus 14 via the cable 23.
  • Touch panel display 156 includes a display 156A and a touch panel 154A.
  • the display 86A is connected to the I / O 168, and displays various information including an image under the control of the CPU 160.
  • the touch panel 154A is a transmissive touch panel and is superimposed on the display 156A.
  • the secondary storage unit 164 stores patient information 164A and a server side program 164B.
  • the patient information 164A is information on a patient.
  • the patient information 164A includes patient profile information 164A1 (for example, an ID for identifying a patient, a patient's name, a patient's gender, a patient's age, physical information, past medical history, visit status, etc.
  • optometry information 164A2 for example, corneal refractive power, corneal wavefront aberration, visual acuity, myopia / hyperopia / astigmatism, visual field, axial length, fundus
  • Information about the right eye / left eye of the patient obtained by another optometry device such as a photograph (refractive power measuring instrument, axial length measuring instrument, visual acuity measuring instrument, anterior segment measuring instrument, posterior segment measuring instrument, etc.) And.
  • the viewer 17 includes a main control unit 17A, a touch panel / display 17B, a reception device 17D, and an external I / F 17M.
  • the main control unit 17A includes a CPU 17H, a primary storage unit 17I, a secondary storage unit 17J, a bus line 17K, and an I / O 17L.
  • the CPU 17H, the primary storage unit 17I, and the secondary storage unit 17J are connected via a bus line 17K.
  • the I / O 17L is connected to the bus line 17K.
  • a single CPU is employed as the CPU 17H in the present embodiment, a plurality of CPUs may be employed instead of the CPU 17H.
  • the CPU 17H controls the entire viewer 17.
  • the primary storage unit 17I is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 17I is a RAM.
  • the secondary storage unit 17J is a non-volatile memory that stores programs for controlling basic operations of the viewer 17, various parameters, and the like. Examples of the secondary storage unit 17J include an HDD, an EEPROM, or a flash memory.
  • the secondary storage unit 164 stores a viewer-side program 17J1.
  • the reception device 17D includes a touch panel 17E, a keyboard 17F, and a mouse 17G.
  • the touch panel 17E, the keyboard 17F, and the mouse 17G are connected to the I / O 17L. Therefore, the CPU 17H can grasp various instructions received by the touch panel 17E, the keyboard 17F, and the mouse 17G.
  • the external I / F 17M is connected to an external device such as the management device 14, the server device 15, a personal computer, and / or a USB memory, and sends and receives various information between the external device and the CPU 17H.
  • the external I / F 17M is connected to the external I / F 88 of the management apparatus 14 and the external I / F 158 of the server apparatus 15 via the cable 23.
  • the touch panel display 17B includes a display 17C and a touch panel 17E.
  • the display 17C is connected to the I / O 17L, and displays various information including a video under the control of the CPU 17H.
  • the touch panel 17E is a transmissive touch panel and is superimposed on the display 17C.
  • the CPU 160 reads the server side program 164 B from the secondary storage unit 164, and develops the read server side program 164 B in the primary storage unit 162. Then, the CPU 160 executes the server side program 164 ⁇ / b> B developed in the primary storage unit 162.
  • the CPU 120 of the main control unit 110 included in the wearable terminal device 12 operates as the control unit 170 and the processing unit 171 as illustrated in FIG. 14 by executing the terminal-side program 124A.
  • the processing unit 171 performs processing necessary for operating the CPU 120 as the control unit 170.
  • the control unit 170 controls the light management unit 116 and the optical system 27 so that the examination light is emitted to the retina 46R and / or the retina 46L.
  • the CPU 90 of the main control unit 80 included in the management device 14 operates as a processing unit 180 and an acquisition unit 182 as shown in FIG. 14 as an example. Further, the CPU 90 operates as the processing unit 180 and the display control unit 184 by executing the display control program 94B, as shown in FIG. 15 as an example.
  • the processing unit 180 performs processing necessary to operate the CPU 90 as the acquisition unit 182 and the display control unit 184.
  • the acquisition unit 182 acquires perceptual information and / or fundus image information from the wearable terminal device 12 by the wearable terminal device 12 and the management device 14 communicating via the wireless communication units 82 and 112.
  • the fundus oculi image information refers to, for example, visual field defect map information, an SLO image, and an OCT image described later.
  • the display control unit 184 generates a progress situation screen 190 (see FIG. 13) which is a screen corresponding to the progress situation of the ophthalmologic examination, and outputs an image signal indicating an image including the generated progress situation screen 190.
  • the display 86A displays the progress situation screen 190 based on the image signal input from the display control unit 184. That is, the display control unit 184 controls the display 86A to display the progress situation screen 190 on the display 86A.
  • the display control unit 184 causes the wearable terminal device 12 and the management device 14 to communicate with each other through the wireless communication units 82 and 112 to acquire progress status information indicating the progress status of the ophthalmologic examination from the wearable terminal device 12.
  • the display control unit 184 generates the progress situation screen 190 based on the progress situation information, and controls the display 86A to display the generated progress situation screen 190 on the display 86A.
  • the progress situation screen 190 includes a first progress situation screen 190A, a second progress situation screen 190B, a third progress situation screen 190C, a fourth progress situation screen 190D,
  • the fifth progress situation screen 190E and the sixth progress situation screen 190F are roughly classified. That is, the display 86A has a first progress screen 190A, a second progress screen 190B, a third progress screen 190C, a fourth progress screen 190D, a fifth progress screen 190E, and a sixth progress screen 190F. Is displayed.
  • fixation target is presented in a visible state to the patient.
  • the processing unit 180 determines whether or not all the necessary information has been received by the reception device 84 and / or the server device 15.
  • "Required information” as used herein refers to information required for an ophthalmologic examination such as examination target eye indication information, a patient ID, and an eyewear ID.
  • the examination target eye indication information refers to information indicating the examination target eye 44 of the right eye 44R and the left eye 44L.
  • Patient ID refers to information that can uniquely identify a patient.
  • the eyewear ID refers to information that can uniquely identify the wearable terminal 12 attached to the patient.
  • step 200 If it is determined in step 200 that all the necessary information has not been received by the receiving device 84, the determination is negative and the process proceeds to step 202.
  • step 200 if all the necessary information is accepted by the accepting device 84, the determination is affirmative and the process moves to step 206.
  • step 202 the processing unit 180 causes the display 86A to display the lack information, and then proceeds to step 204.
  • the lack information indicates, for example, a message indicating what information is lacking as the information required for the ophthalmologic examination.
  • the processing unit 180 determines whether the end condition related to the terminal management process is satisfied.
  • the termination condition related to the terminal management process indicates a condition for terminating the terminal management process.
  • the termination condition concerning the terminal management processing the condition that the predetermined time has elapsed, the condition that the reception device 84 has accepted the termination instruction, and / or the problem that the terminal management processing can not but be forced to be terminated Are detected by the CPU 90, and the like.
  • step 204 If it is determined in step 204 that the terminal management process termination condition is not satisfied, the determination is negative and the process proceeds to step 200. If it is determined in step 204 that the terminal management process termination condition is satisfied, the determination is affirmative and the terminal management process is terminated.
  • step 206 the processing unit 180 transmits transmission request information for requesting transmission of the patient information 164A to the server device 15, and then proceeds to step 208.
  • step 206 By executing the process of step 206, patient information and the like are transmitted from the server device 15 by the process of step 256 included in the server-side process described later.
  • patient information and the like refer to information including at least patient information 164A and examination procedure information.
  • the examination procedure information includes information indicating whether or not the visual field examination is to be performed, information indicating whether the SLO image examination is to be performed, and information whether or not the OCT image examination is to be performed.
  • the inspection procedure information also includes order pattern information.
  • the order pattern information refers to information indicating a pattern of an order in which a plurality of examinations among the visual field examination, the SLO image examination, and the OCT imaging examination (hereinafter, referred to as “order pattern”).
  • the order pattern may be, for example, a pattern in which at least two examinations of visual field examination, SLO imaging examination, and OCT imaging examination are combined for each of the right eye 44R and the left eye 44L.
  • SLO imaging examination when performing only the visual field inspection, when performing only the SLO image inspection, when performing only the OCT image inspection, performing the visual field inspection, then the SLO image inspection, and then the OCT image inspection in this order. Will be described as an example.
  • step 208 the processing unit 180 determines whether the wireless communication unit 82 receives the patient information and the like transmitted by execution of the process of step 255A included in the server-side process shown in FIG. If it is determined in step 208 that patient information and the like have not been received, the determination is negative and the process moves to step 210. If it is determined in step 206 that patient information and the like have been received, the determination is affirmative and the process moves to step 212.
  • step 210 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 210 that the termination condition related to the terminal management process is not satisfied, the determination is negative and the process proceeds to step 208. If it is determined in step 210 that the termination condition relating to the terminal management process is satisfied, the determination is affirmative and the terminal management process is terminated.
  • step 212 the processing unit 180 communicates with the control device 18 via the wireless communication units 82 and 112 to determine whether the eyewear terminal device 16 is properly attached to the patient. If it is determined in step 212 that the eyewear terminal 16 is not properly attached to the patient, the determination is negative and the process proceeds to step 214. If it is determined in step 212 that the eyewear terminal 16 is properly attached to the patient, the determination is affirmative, and the process proceeds to step 216. Whether or not the eyewear terminal device 16 is properly attached to the patient is determined based on the detection result of the attachment detector 139.
  • step 214 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 214 that the terminal management process termination condition is not satisfied, the determination is negative and the process proceeds to step 212. If the end condition relating to the terminal management process is satisfied in step 214, the determination is affirmative and the terminal management process is ended.
  • step 216 the processing unit 180 wirelessly communicates with the control device 18 to cause the in-camera 48R for the right eye and the in-camera 48L for the left eye to start imaging of the anterior eye portion of the eye 44 to be examined. Thereafter, the process proceeds to step 217 shown in FIG. 7B.
  • an image obtained by capturing the anterior segment of the right eye 44R by the right-eye in-camera 48R is referred to as a right-eye anterior segment image, and in front of the left-eye 44L by the left-eye in-camera 48L.
  • An image obtained by photographing the eye is referred to as a left eye anterior eye image.
  • an anterior-eye image when it is not necessary to distinguish and describe the right-eye anterior-eye image and the left-eye anterior-eye image, they are simply referred to as “an anterior-eye image”.
  • the imaging of the anterior segment of the left eye 44L by the in-camera 48L for the left eye and the imaging of the anterior segment of the right eye 44R by the in-camera 48R for the right eye are 60 fps (frames / second). It takes place at the frame rate. That is, by operating the in-camera 48L for the left eye and the in-camera 48R for the right eye, a moving image in which the anterior eye part of the eye to be examined 44 is a subject is acquired by the processing unit 180.
  • step 217 the processing unit 217 transmits adjustment instruction information to the wearable terminal apparatus 12, and then the process proceeds to step 218.
  • the adjustment instruction information indicates information for instructing the wearable terminal 12 to adjust the position of the reflection mirror 42, correct the optical axis of the laser light, and find the origin.
  • step 218 the processing unit 180 performs wireless communication with the control device 18 to cause the speaker 140 to output a test sound, and determines whether the sound of the speaker 140 is good or not.
  • the test sound refers to, for example, a sound such as "Please press the response button when sound is heard". Therefore, for example, whether the sound of the speaker 140 is good or not is determined by whether the patient presses the response button 19 while the test sound is output from the speaker 140.
  • step 218 If the sound of the speaker 140 is not good at step 218, the determination is negative and the process proceeds to step 220. In step 218, if the sound of the speaker 140 is good, the determination is affirmed and the process moves to step 222.
  • step 220 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 220 that the terminal management process termination condition is not satisfied, the determination is negative and the process moves to step 218. If it is determined in step 220 that the termination condition related to the terminal management process is satisfied, the determination is affirmative and the terminal management process is terminated.
  • step 222 the processing unit 180 refers to the above-described examination procedure information included in the patient information and the like received in step 208, and determines whether or not only the visual field examination of the ophthalmologic examination is to be performed. If it is determined in step 222 that only the visual field inspection of the ophthalmologic examination is not performed, the determination is negative and the process proceeds to step 226. If it is determined in step 222 that only the visual field examination of the ophthalmologic examination is performed, the determination is affirmative and the process proceeds to step 224.
  • step 224 the processing unit 180 transmits the visual field examination instruction information to the wearable terminal device 12, and then proceeds to step 236.
  • the visual field inspection instruction information indicates information instructing the wearable terminal device 12 to execute the visual field inspection processing (FIGS. 9A and 9B) described later.
  • the visual field examination instruction information includes necessary information accepted in step 200, patient information received by the wireless communication unit 82 in step 208, and the like.
  • the terminal side program 124A incorporates a plurality of mark projected position information for visual field inspection.
  • the mark projection position information indicates information indicating a position at which the mark is projected on the retina 46 (hereinafter, also referred to as “mark projection position” or “projection position”).
  • the two-dimensional plane on which the mark is displayed is information represented by XY coordinates and polar coordinates r ⁇ , and a three-dimensional space by XYZ coordinates and polar coordinates r ⁇ coordinates.
  • mark refers to, for example, a mark perceived as a white point in the case of a normal retina 46.
  • the projection of the mark onto the retina 46 is realized by the irradiation of visible light laser light.
  • the mark projection information may be held for visual field inspection by combining information indicating the brightness (intensity) of the laser light with the projection position information of the mark.
  • the combination of the projection position and the brightness information makes it possible to obtain information on the sensitivity of the retina by visual field examination.
  • the plurality of mark projection position information in the terminal-side program 124A is used by the control unit 170 of the control device 18 to control the scanner 28. That is, as the scanner 28 is controlled by the control unit 170 according to the plurality of mark projection position information, the laser beam is irradiated to the position (the projection position according to the mark projection position information) indicated by each of the plurality of mark projection position information Be done.
  • mark projection position the position at which the mark is projected on the retina 46
  • the mark projection position is an example of the “specific position” according to the technology of the present disclosure.
  • step 226 the processing unit 180 refers to the above-described examination procedure information included in the patient information and the like received in step 208, and determines whether or not to perform only the SLO image examination of the ophthalmologic examination. If it is determined in step 224 that only the SLO image examination of the ophthalmologic examination is not performed, the determination is negative and the process proceeds to step 230. If it is determined in step 226 that only the SLO image examination of the ophthalmologic examination is to be performed, the determination is affirmative and the process proceeds to step 228.
  • the SLO image inspection instruction information indicates information instructing the wearable terminal 12 to execute the SLO image inspection process (FIG. 9C) described later. Further, the SLO image examination instruction information includes necessary information accepted in step 200, patient information received by the wireless communication unit 82 in step 208, and the like.
  • step 230 the processing unit 180 refers to the above-mentioned examination procedure information included in the patient information and the like received in step 208, and determines whether or not to perform only the OCT image examination in the ophthalmologic examination. If it is determined in step 230 that only the OCT image examination of the ophthalmologic examination is not performed, the determination is negative and the process proceeds to step 234. If it is determined in step 230 that only the OCT image examination of the ophthalmologic examination is to be performed, the determination is affirmative and the process proceeds to step 232.
  • step 232 the processing unit 180 transmits the OCT image inspection instruction information to the wearable terminal apparatus 12, and then proceeds to step 236.
  • the OCT image inspection instruction information indicates information instructing the wearable terminal device 12 to execute an OCT image inspection process (FIG. 9D) described later. Further, the OCT image examination instruction information includes necessary information accepted in step 200, patient information received by the wireless communication unit 82 in step 208, and the like.
  • the processing unit 180 transmits the continuous inspection instruction information to the wearable terminal device 12, and then the process proceeds to step 236.
  • the continuous inspection instruction information refers to information instructing the wearable terminal device 12 to execute a continuous inspection process (FIG. 8) described later.
  • Continuous examination refers to, for example, a series of examinations performed in the order of visual field examination and then SLO imaging examination and then OCT imaging examination.
  • the continuous examination instruction information includes necessary information accepted in step 200, patient information received by the wireless communication unit 82 in step 208, and the like.
  • serial examination may be, for example, a combination of at least two or more of visual field examination, SLO imaging examination, and OCT imaging examination.
  • step 236 the acquisition unit 182 determines whether the wireless communication unit 82 receives the inspection result information transmitted from the wearable terminal device 12.
  • the inspection result information is transmitted from the wearable terminal apparatus 12 by the processing unit 171 executing the process of step 270 included in the terminal-side process described later.
  • the inspection result information transmitted from the wearable terminal 12 by the processing unit 171 being executed by the processing unit 171 is the visual field defect map information, the SLO image, and / or the OCT image as the processing of step 270 included in the terminal side processing described later is performed. Point to.
  • the visual field defect map information transmitted as the inspection result information from the wearable terminal device 12 is created by the control unit 170 executing the process of step 256V included in the visual field inspection process described later.
  • the SLO image transmitted as the examination result information from the wearable terminal device 12 is obtained by performing SLO imaging on the retina 46 in step 262C and / or step 262I shown in FIG. 9C.
  • the OCT image transmitted as test result information from the wearable terminal 12 is obtained by performing OCT imaging on the retina 46 in step 266C and / or 266I shown in FIG. 9D.
  • SLO images are roughly divided into SLO low resolution images and SLO high resolution images.
  • the SLO low resolution image is a low resolution SLO image and is obtained by performing SLO low resolution imaging in step 262C shown in FIG. 9C.
  • the SLO high resolution image is a high resolution SLO image, and is obtained by performing SLO high resolution imaging in step 262I shown in FIG. 9C.
  • SLO low resolution imaging refers to imaging at low resolution by SLO with the retina 46 as a subject.
  • SLO high resolution imaging refers to imaging at high resolution by SLO with the retina 46 as a subject.
  • OCT images are roughly divided into OCT low resolution images and OCT high resolution images.
  • the OCT low resolution image is a low resolution OCT image, and is obtained by performing OCT low resolution imaging in step 266C shown in FIG. 9D.
  • the OCT high resolution image is a high resolution OCT image and is obtained by performing OCT high resolution imaging in step 266I shown in FIG. 9D.
  • the OCT low resolution imaging refers to imaging at low resolution by OCT with the retina 46 as a subject.
  • OCT high resolution imaging refers to imaging at high resolution by OCT with the retina 46 as a subject.
  • “low resolution” refers to a resolution for obtaining a fundus oculi image in a wide region in one image obtained by capturing a wide imaging target region per pixel.
  • “high resolution” refers to the resolution for obtaining a high-definition fundus image in a narrow area in one image obtained by capturing an image of a narrow imaging target area per pixel.
  • the "wide area” refers to, for example, an area larger than a predetermined area.
  • “narrow area” refers to, for example, an area narrower than a predetermined area.
  • “high-definition fundus image” refers to, for example, a fundus image higher in resolution than an image obtained at least by imaging at low resolution.
  • test result information transmitted from the wearable terminal 12 is not received by the wireless communication unit 82 in step 236, the determination is negative and the process proceeds to step 242. In the case where the test result information transmitted from the wearable terminal 12 is received by the wireless communication unit 82 in step 236, the determination is affirmed and the process moves to step 237.
  • step 242 the processing unit 180 determines whether the end condition related to the terminal management process is satisfied. If it is determined in step 242 that the terminal management process termination condition is not satisfied, the determination is negative and the process proceeds to step 236. If the end condition relating to the terminal management process is satisfied in step 242, the determination is affirmed and the terminal management process is ended.
  • step 237 the acquisition unit 182 acquires the test result information received by the wireless communication unit 82 in step 236, and then proceeds to step 238.
  • step 2308 the processing unit 180 performs wireless communication with the control device 18 to cause the right-eye in-camera 48R and the left-eye in-camera 48L to end photographing of the anterior eye portion of the eye to be examined 44, Thereafter, the process proceeds to step 240.
  • step 240 the processing unit 180 transmits the inspection result information acquired by the acquisition unit 182 in step 237 to the server device 15, and thereafter ends the terminal management process.
  • terminal-side processing that is realized by the CPU 120 executing the terminal-side program 124A when the main power (not shown) of the wearable terminal 12 is turned on will be described with reference to FIG.
  • control information is information for controlling the control unit 170, and is the visual field examination instruction information, the SLO image examination instruction information, the OCT image examination instruction information, or the continuous examination instruction information described above.
  • step 250 If the control information from the management device 14 is not received by the wireless communication unit 112 in step 250, the determination is negative and the process proceeds to step 251. If the control information from the management device 14 is received by the wireless communication unit 112 in step 250, the determination is affirmative and the process proceeds to step 254.
  • step 251A the processing unit 171 determines whether the wireless communication unit 112 has received the adjustment instruction information transmitted from the management apparatus 14 by executing the process of step 217 included in the terminal management process. If the adjustment instruction information is not received by the wireless communication unit 112 in step 251A, the determination is negative and the process proceeds to step 252. If the adjustment instruction information is received by the wireless communication unit 112 in step 251A, the determination is affirmative and the process proceeds to step 251B.
  • step 251B the controller 170 adjusts the position of the reflection mirror 42, corrects the optical axis of the laser light, and performs origin determination, and then proceeds to step 252.
  • step 251B in order to adjust the position of the reflecting mirror 42, correct the optical axis of the laser light, and perform the origin setting, first, based on the latest right eye anterior eye image and the latest left eye anterior eye image The distance between the two is detected by the control unit 170. Then, based on the eyewear ID of the wearable terminal 12, the detected inter-pupil distance, and the like, the control unit 170 performs adjustment of the position of the reflection mirror 42, correction of the optical axis of the laser light, and origination.
  • the inter-pupil distance refers to the pupil in the anterior segment of the right eye 44R indicated by the right-eye anterior segment image and the pupil in the anterior segment of the left eye 44L indicated by the left-eye anterior segment image. Point to the distance between.
  • the position of the reflection mirror 42 is adjusted by the control unit 170 controlling the mirror drive source 72. Further, the correction of the optical axis of the laser beam and the origination are realized by the scanner 28 being controlled by the control unit 170.
  • the processing unit 171 determines whether or not the end condition relating to the terminal-side process is satisfied.
  • the termination condition according to the terminal-side process indicates a condition under which the terminal-side process is terminated.
  • the termination condition related to the terminal side processing the condition that the predetermined time has elapsed, the condition that the information indicating the termination instruction has been received from the management device 14, and / or the terminal side processing is forcibly terminated.
  • the condition that the failure which can not be detected is detected by the CPU 120 can be mentioned.
  • step 252 If it is determined in step 252 that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process proceeds to step 250. If it is determined in step 252 that the termination condition relating to the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
  • step 254 the processing unit 171 determines whether or not the control information received by the wireless communication unit 112 in step 250 is visual field examination information. In step 254, when the control information received by the wireless communication unit 112 in step 250 is not the visual field examination information, the process proceeds to step 258. If it is determined in step 254 that the control information received by the wireless communication unit 112 in step 250 is the visual field examination information, the determination is affirmative and the process proceeds to step 256.
  • step 256 the control unit 170 executes the visual field inspection process shown in FIGS. 9A and 9B as an example, and then proceeds to step 270.
  • step 258 the processing unit 171 determines whether the control information received by the wireless communication unit 112 in step 250 is SLO image inspection information. In step 258, if the control information received by the wireless communication unit 112 in step 250 is not SLO image inspection information, the process proceeds to step 264. If it is determined in step 258 that the control information received by the wireless communication unit 112 in step 250 is SLO image examination information, the determination is affirmative and the process moves to step 262.
  • control unit 170 executes the SLO image inspection process shown in FIG. 9C as an example, and then proceeds to step 270.
  • step 264 the processing unit 171 determines whether the control information received by the wireless communication unit 112 in step 250 is OCT image examination information. In step 264, when the control information received by the wireless communication unit 112 in step 250 is not the OCT image inspection information, the process proceeds to step 268. If it is determined in step 264 that the control information received by the wireless communication unit 112 in step 250 is OCT image examination information, the determination is affirmative and the process moves to step 266.
  • step 266 the control unit 170 executes the OCT image inspection process shown in FIG. 9D as an example, and then proceeds to step 270.
  • step 268 the control unit 170 executes a continuous inspection process, and then proceeds to step 270.
  • the continuous inspection process performed in step 268 is performed, for example, in the order of the visual field inspection process performed in step 256, the SLO image inspection process performed in step 262, and the OCT image inspection process performed in step 266. Processing.
  • the processing performed in the order of the visual field inspection processing, the SLO image inspection processing, and then the OCT image inspection processing is described as an example of the continuous inspection processing, the technology of the present disclosure is limited thereto. It is not a thing.
  • at least two or more of the visual field inspection process, the SLO image inspection process, and the OCT image inspection process may be performed as the continuous inspection process.
  • Which combination of the visual field inspection process, the SLO image inspection process, and the OCT image inspection process is to be executed is determined based on the aforementioned patient information and the like included in the continuous examination information. Specifically, it is determined based on the above-described examination procedure information included in patient information and the like.
  • step 256A the control unit 170 moves the shutter 121 based on the examination target eye indication information in the necessary information included in the visual field examination indication information. Determine if it is necessary to
  • step 256A If it is determined in step 256A that the shutter 121 does not need to be moved, the determination is negative and the process moves to step 256C. If it is determined in step 256A that the shutter 121 needs to be moved, the determination is affirmative and the process moves to step 256B.
  • step 256B the control unit 170 moves the shutter 121 based on the examination target eye indication information in the above-mentioned necessary information included in the visual field examination indication information, and then proceeds to step 256C.
  • step 256C the control unit 170 causes the light management unit 114 and the optical system 27 to start scanning the retina 46 of the eye to be examined with the three primary color laser light, and then proceeds to step 256D.
  • the control unit 170 determines whether the three primary color laser beams have reached the mark projection position indicated by one of the plurality of mark projection position information in the terminal side program 124A. . In the present step 256D, if the determination is affirmative in step 256M, the same mark projection position information is used as “one mark projection position information”. In the present step 256D, when the determination in step 256N is negative, “unused mark projection position information among the plurality of mark projection position information is used as“ one mark projection position information ”.
  • the order of using a plurality of mark projection position information in the present step 256D is predetermined, but the technology of the present disclosure is not limited to this.
  • mark projection position information instructed by a medical service person via the management device 14 may be used in this step 256D.
  • the order of the mark projection position information used in the present step 256D may be changed by the medical service person via the management device 14.
  • step 256D if the three-primary-color laser beam has not reached the mark projection position indicated by one of the plurality of mark projection position information in the terminal-side program 124A, the determination is negative, Go to step 256E. If the three-primary-color laser light has reached the mark projection position indicated by one of the plurality of mark projection position information in step 256D, the determination is affirmative and the process moves to step 256F.
  • step 256E the control unit 170 determines whether the termination condition related to the terminal-side process is satisfied. If it is determined in step 256E that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process moves to step 256D. If the end condition relating to the terminal-side process is satisfied in step 256E, the determination is affirmative and the terminal-side process is ended.
  • step 256F the control unit 170 controls the laser light source unit 113 via the light source control circuit 115 to project a mark on the retina 46, and then proceeds to step 256G.
  • the position where the mark is projected is the mark projection position indicated by the latest mark projection position information used in step 256D.
  • the control unit 170 determines whether the response button 19 has been pressed. Whether or not the response button 19 is pressed is determined depending on whether or not a response signal is input from the response button 19.
  • step 256G If the response button 19 is not pressed in step 256G, the determination is negative and the process moves to step 256H. If the response button 19 is pressed in step 256G, the determination is affirmative and the process moves to step 256J.
  • the control unit 170 stores the latest mark projection position information in the primary storage unit 122, and then proceeds to step 256K.
  • the latest mark projection position information refers to the latest mark projection position information used in step 256D, in other words, the mark projection regarding the mark projected on the retina 46 at the timing when the response button 19 is pressed. Point to location information.
  • step 256H the control unit 170 determines whether or not a predetermined time (for example, two seconds) has elapsed since the process of step 256F is performed. If it is determined in step 256H that the predetermined time has not elapsed since the process of step 256F was performed, the determination is negative and the process proceeds to step 256G. If it is determined in step 256H that the predetermined time has elapsed since the process of step 256F was performed, the determination is affirmative and the process moves to step 256I.
  • a predetermined time for example, two seconds
  • step 256I the control unit 170 determines whether the termination condition related to the terminal-side process is satisfied. If it is determined in step 256I that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process moves to step 256K. If it is determined in step 256I that the termination condition relating to the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
  • the control unit 170 determines whether or not the line of sight of the patient deviates from the fixation target. Whether or not the patient's line of sight deviates from the fixation target is determined based on the latest anterior segment image.
  • step 256K If it is determined in step 256K that the line of sight of the patient deviates from the fixation target, the determination is affirmative and the process moves to step 256L. If it is determined in step 256K that the patient's line of sight has not deviated from the fixation target, the determination is negative and the process moves to step 256N.
  • control unit 170 causes the speaker 140 to output the line-of-sight guidance sound, and then proceeds to step 256M.
  • the gaze guidance voice refers to a voice that guides the gaze in the direction of the fixation target.
  • the gaze guidance voice is generated according to the positional relationship between the gaze and the fixation target.
  • the position of the line of sight is identified based on the latest anterior segment image.
  • control unit 170 determines whether or not the difference between the patient's line of sight and the fixation target has been eliminated. Whether or not the difference between the patient's line of sight and the fixation target has been eliminated is determined based on the latest anterior segment image.
  • step 256M If the difference between the patient's line of sight and the fixation target has not been resolved in step 256M, the determination is negative and the process moves to step 256L. If the difference between the patient's line of sight and the fixation target is resolved in step 256M, the determination is affirmative and the process moves to step 256D.
  • step 256N the control unit 170 determines whether or not marks have been projected at all mark projection positions. If it is determined in step 256N that marks have not been projected on all the mark projection positions, the determination is negative and the process moves to step 256N. If marks have been projected at all mark projection positions in step 256N, the determination is affirmative and the process moves to step 256R shown in FIG. 9B.
  • the control unit 170 determines whether there is an eye to be examined that has not been subjected to the visual field examination. Whether or not there is an inspection target eye for which a visual field inspection has not been performed is determined based on the inspection target eye instruction information in the necessary information included in the visual field inspection instruction information and the position of the shutter 121 at the current time. .
  • step 256R If it is determined in step 256R that there is an eye to be examined that has not been subjected to a visual field inspection, the determination is affirmative and the process moves to step 256S. If it is determined in step 256R that there is no eye to be examined that has not been subjected to the visual field inspection, the determination is negative and the process moves to step 256U.
  • step 256S the control unit 170 causes the speaker 140 to output a change notification sound, and then proceeds to step 256T.
  • the change notification sound refers to a sound notifying the patient that the eye to be examined is changed.
  • a voice with a content of “The field test of the right eye is finished, and then the field test of the left eye is performed next” can be mentioned.
  • step 256T the control unit 170 controls the light management unit 114 and the optical system 27 to scan the light management unit 114 and the optical system 27 with the three primary color laser light on the retina 46 of the eye to be examined.
  • the process is ended, and then the process proceeds to step 256B.
  • step 256U the control unit 170 controls the light management unit 114 and the optical system 27 to scan the light management unit 114 and the optical system 27 with the three primary color laser light on the retina 46 of the eye to be examined.
  • the process is ended, and then the process proceeds to step 256V.
  • the control unit 170 executes the process of step 256 J to create visual field defect map information based on the mark projection position information stored in the primary storage unit 122, and thereafter ends the visual field inspection process.
  • the visual field defect map information indicates information including a patient ID, information for drawing the visual field defect map, an image of the visual field defect map, and the like.
  • the visual field defect map refers to a map that can identify a defect in a patient's visual field.
  • a visual field defect map 240 is displayed in the image display area 190B3 of the second progress situation screen 190B shown in FIG. In the visual field defect map 240, the defect part and the normal part are expressed in achromatic shades, and the main defect part is displayed in black.
  • the visual field loss map 240 is created by the wearable terminal device 12 or the management device 14, but also the visual field loss map may be drawn again by the server device 15 to create a visual field inspection result report.
  • the visual field defect map is not created only with the visual field defect map information of the same patient (patient with the same patient ID), but the visual field defect area is superimposed and displayed on the fundus image, or 3D-OCT image The defective area of the visual field may be superimposed and displayed on the upper side.
  • the control unit 170 needs to move the shutter 121 based on the examination target eye indication information in the necessary information included in the SLO image examination information. It is determined whether or not.
  • step 262A If it is determined in step 262A that the shutter 121 does not need to be moved, the determination is negative and the process proceeds to step 262C. If it is determined in step 262A that the shutter 121 needs to be moved, the determination is affirmative and the process moves to step 262B.
  • step 262B the control unit 170 moves the shutter 121 based on the examination target eye indication information in the above-mentioned necessary information included in the SLO image examination indication information, and then proceeds to step 262C.
  • step 262C the control unit 170 performs SLO low resolution imaging, and then proceeds to step 262D.
  • a range defined by default for example, a range determined in advance
  • the imaging target area of the SLO low resolution imaging is adopted as the imaging target area of the SLO low resolution imaging.
  • step 262D the control unit 170 determines whether the SLO image is good. If the SLO image is not good at step 262D, the determination is negative and the process moves to step 262E. In step 262D, if the SLO image is good, the determination is affirmed and the process moves to step 262F.
  • step 262E the control unit 170 determines whether the SLO image subjected to the determination in step 262D is an SLO high resolution image. If it is determined in step 262E that the SLO image subjected to the determination in step 262D is an SLO low-resolution image, the determination is negative and the process proceeds to step 262C. If it is determined in step 262E that the SLO image subjected to the determination in step 262D is an SLO high resolution image, the determination is affirmative and the process proceeds to step 262I.
  • control unit 170 determines whether or not there is an abnormality in the visual field inspection. That is, the presence or absence of abnormality in the visual field inspection is determined based on visual field defect map information created by execution of the process of step 256V included in the visual field inspection process shown in FIG. 9B.
  • step 262F If there is no abnormality in the visual field inspection in step 262F, the determination is negative and the process proceeds to step 262G. If there is an abnormality in the visual field inspection in step 262F, the determination is affirmative, and the process moves to step 262H.
  • step 262G the control unit 170 determines whether or not SLO low resolution imaging has been performed for all the examination target eyes based on the examination target eye indication information in the above-described necessary information included in the visual field examination indication information. Do. If it is determined in step 262G that the SLO low resolution imaging has not been performed for all the examination target eyes, the determination is negative and the process proceeds to step 262B. If SLO low resolution imaging has been performed for all eyes to be examined in step 262G, the determination is affirmative, and the SLO image inspection process ends.
  • the control unit 170 identifies one or more abnormal areas based on the visual field loss map, and then proceeds to step 262K.
  • the abnormal area refers to, for example, a predetermined range including the area determined as “abnormal” in the visual field loss map among all the areas of the retina 46.
  • the visual field defect map used in the process of step 262H is included in visual field defect map information created by executing the process of step 256V included in FIG. 9B.
  • step 262K the control unit 170 determines whether or not the SLO high resolution imaging in step 262I described later has been completed for all the abnormal areas identified in step 262H. If it is determined in step 262K that the SLO high resolution imaging in step 262I described below is completed for all the abnormal areas identified in step 262H, the determination is affirmative and the process moves to step 262G. If it is determined in step 262K that the SLO high resolution imaging in step 262I described below has not been completed for all the abnormal areas identified in step 262H, the determination is negative and the process proceeds to step 262L.
  • the control unit 170 updates the current imaging target area to the latest imaging target area, and then proceeds to step 262I.
  • the latest imaging target area indicates, for example, an area including the abnormal area specified by the processing of step 262H in the entire area of the retina 46.
  • control unit 170 executes SLO high resolution imaging, and then ends the SLO image inspection process.
  • photography is an imaging
  • step 266A the control unit 170 needs to move the shutter 121 based on the examination target eye indication information in the necessary information included in the OCT image examination information. It is determined whether or not.
  • step 266A If it is determined in step 266A that the shutter 121 does not need to be moved, the determination is negative and the process proceeds to step 266C. If it is determined in step 266A that the shutter 121 needs to be moved, the determination is affirmative and the process moves to step 266B.
  • control unit 170 moves the shutter 121 based on the examination target eye indication information in the necessary information included in the OCT image examination indication information, and then proceeds to step 266C.
  • step 266C the control unit 170 performs OCT low resolution imaging, and then proceeds to step 266D.
  • a range defined by default for example, a range determined in advance
  • step 266D the control unit 170 determines whether the OCT image is good. If the OCT image is not good at step 266D, the determination is negative and the routine proceeds to step 266E. If the OCT image is good in step 266D, the determination is affirmed and the process moves to step 266F.
  • the control unit 170 determines whether or not the OCT image to be determined at step 266D is an OCT high resolution image. In step 266E, if the OCT image to be subjected to the determination of step 266D is an OCT low resolution image, the determination is negative and the process moves to step 266C. If the OCT image subjected to the determination in step 266D in step 266E is an OCT high resolution image, the determination is affirmative and the process proceeds to step 266I.
  • the control unit 170 determines whether or not there is an abnormality in the visual field inspection. That is, the presence or absence of abnormality in the visual field inspection is determined based on visual field defect map information created by execution of the process of step 256V included in the visual field inspection process shown in FIG. 9B.
  • step 266F If there is no abnormality in the visual field inspection in step 266F, the determination is negative and the routine proceeds to step 266G. If there is an abnormality in the visual field inspection in step 266F, the determination is affirmative, and the process moves to step 266H.
  • step 266G the control unit 170 determines whether or not OCT low resolution imaging has been performed for all the examination target eyes based on the examination target eye indication information in the above-mentioned necessary information included in the visual field examination indication information. Do. If OCT low resolution imaging has not been performed for all eyes to be examined in step 266G, the determination is negative and the process moves to step 266B. If OCT low resolution imaging has been performed for all eyes to be inspected in step 266G, the determination is affirmative and the OCT image inspection process is ended.
  • control unit 170 identifies one or more abnormal areas based on the visual field loss map, and then proceeds to step 266K.
  • step 266K the control unit 170 determines whether or not OCT high resolution imaging in step 266I described below has been completed for all the abnormal areas identified in step 266H. If OCT high resolution imaging in step 266I described below has been completed for all abnormal areas identified in step 266H in step 266K, the determination is affirmative and the process moves to step 266G. If it is determined in step 266K that OCT high-resolution imaging in step 266I described below has not been completed for all the abnormal areas identified in step 266H, the determination is negative and the process moves to step 266L.
  • the control unit 170 updates the currently employed shooting target area to the latest shooting target area, and then proceeds to step 266I.
  • the latest imaging target area is, for example, the retina specified by the first line among the abnormal areas specified by execution of the process of step 266H in the entire area of the retina 46.
  • the tomographic region in the film thickness direction of 46 and the tomographic region in the film thickness direction of the retina 46 specified by the second line can be mentioned.
  • the first line refers to a line of a predetermined length crossing the center line of the abnormal area.
  • the second line refers to a line of a predetermined length perpendicular to the first line.
  • control unit 170 executes OCT high resolution imaging, and then ends the OCT image inspection process.
  • photography is an imaging
  • step 270 shown in FIG. 8 the processing unit 171 transmits the above-described inspection result information (visual field defect map information, SLO image, and / or OCT image) to the management apparatus 14 via the wireless communication unit 112, and thereafter, End the terminal side process.
  • the above-described inspection result information visual field defect map information, SLO image, and / or OCT image
  • server-side processing that is realized by the CPU 160 executing the server-side program 164B when the main power supply (not shown) of the server device 15 is turned on will be described with reference to FIG.
  • step 255A the CPU 160 determines whether or not the management device information has been received.
  • the management device information indicates information transmitted to the server device 15 as the terminal management process is executed by the CPU 90 of the management device 14.
  • step 255A If it is determined in step 255A that the management apparatus information has not been received, the determination is negative and the process proceeds to step 255F. If the management apparatus information is received in step 255A, the determination is affirmative and the process proceeds to step 255B.
  • step 255B the CPU 160 determines whether the management device information received at step 255A is transmission request information. In step 255B, if the management device information received in step 255A is not transmission request information, that is, if the management device information received in step 255A is visual field defect map information, the determination is negative and the process proceeds to step 255D. If the management apparatus information received in step 255A is transmission request information in step 255B, the determination is affirmative and the process proceeds to step 255E.
  • the CPU 160 creates a visual field test result report that is a report indicating the result of the visual field test based on the visual field defect map information, stores the created visual field test result report in the secondary storage unit 164, and Transfer to step 255F.
  • the created visual field inspection result report is transmitted to the viewer 17 when requested by an external device such as the viewer 17, for example.
  • the CPU 160 transmits the aforementioned patient information and the like to the management apparatus 14, and thereafter, proceeds to step 255F.
  • the patient information 164A included in the patient information and the like is acquired from the secondary storage unit 164.
  • examination procedure information included in patient information etc. is generated, for example, according to an instruction received by the reception device 154, or via an external I / F 158, such as a USB memory, a personal computer, and / or a server device Acquired from an external device of
  • the CPU 160 determines whether the end condition relating to the server-side process is satisfied.
  • the termination condition according to the server-side process indicates a condition under which the server-side process is terminated.
  • the termination condition concerning the server side processing the condition that the predetermined time has elapsed, the condition that the reception device 154 receives the termination instruction, and / or the problem that the server side processing can not but be forced to be terminated forcibly Are detected by the CPU 160, and the like.
  • step 255F If the end condition relating to the server-side process is not satisfied in step 255F, the determination is negative and the process moves to step 255F. If it is determined in step 258 that the termination condition relating to the server-side process is satisfied, the determination is affirmative and the server-side process is terminated.
  • the management device 14 can manage at most six wearable terminal devices 12.
  • the six units are merely examples of the number, and various maximum management numbers can be taken.
  • the communication between the management device 14 and the six wearable terminal devices 12 is established, and the display control process of the six wearable terminal devices 12 is described.
  • One of the wearable terminal devices 12 will be described as an example.
  • SLO image when it is not necessary to distinguish SLO low resolution image and SLO high resolution image for convenience of explanation, it is referred to as "SLO image”, and OCT low resolution image and OCT high resolution image are distinguished and described When it is not necessary to do so, it is called “OCT image”.
  • step 400 the display control unit 184 causes the display 86A to start displaying the progress situation screen 190 as shown in FIG. 13 as an example, and then proceeds to step 402. .
  • the display control unit 184 determines whether device information has been received.
  • the “device information” mentioned here communicates with the server device 15 with the terminal information transmitted from the processing unit 171 of the wearable terminal device 12 through the wireless communication unit 112 by communicating with the wearable terminal device 12. And refer to patient information and the like transmitted from the server device 15.
  • the terminal information is information on the wearable terminal device 12.
  • the information on the wearable terminal device 12 refers to, for example, information on the progress of the ophthalmologic examination.
  • the information on the progress of the ophthalmologic examination includes the latest anterior segment image, the degree of progress information indicating the degree of the progress of the visual field examination, and the eyewear indicating whether the eyewear terminal device 16 is properly attached to the patient Attachment / detachment information is included. Further, when SLO imaging is performed in the eyewear terminal device 16, the device information includes the SLO image. In addition, when OCT imaging is performed in the eyewear terminal device 16, the device information includes an OCT image.
  • step 402 If it is determined in step 402 that the device information has not been received, the determination is negative and the process proceeds to step 416. If it is determined in step 402 that the device information is received, the determination is affirmative and the process proceeds to step 404.
  • step 404 the display control unit 184 determines whether the received device information is terminal information. If it is determined in step 404 that the received device information is not terminal information, that is, if the received device information is patient information 164A, the determination is negative and the process proceeds to step 412. If it is determined in step 404 that the received device information is terminal information, the determination is affirmative and the process moves to step 406.
  • the display control unit 184 determines whether or not the information related to the received terminal information is displayed on the progress situation screen 190. If the information related to the received terminal information is not displayed on the progress situation screen 190 in step 406, the determination is negative and the process moves to step 408. If the information related to the received terminal information is displayed on the progress situation screen 190 in step 406, the determination is affirmative and the process moves to step 410.
  • step 408 the display control unit 184 causes the display 86A to start displaying information related to the terminal information, and then proceeds to step 416. Thereby, on the progress situation screen 190, information related to the terminal information is displayed.
  • the first progress situation screen 190A has a terminal ID display area 190A1, a progress situation display area 190A2, an image display area 190A3, an eyewear wearing situation display area 190A4, and a patient information display area 190A5. .
  • Information related to the terminal information is displayed in the terminal ID display area 190A1, the progress display area 190A2, the image display area 190A3, and the eyewear wearing state display area 190A4, and the patient information display area 190A5 displays the patient information 164A. Be done. Further, information based on the examination target eye indication information and the like is also displayed in the progress situation display area 190A2.
  • the terminal ID display area 190A1 a terminal ID that can uniquely identify the first wearable terminal device 12 among the six wearable terminal devices 12 in which communication with the management device 14 has been established is displayed.
  • the eyewear ID of the eyewear terminal device 16 corresponding to the received terminal information is adopted as the terminal ID.
  • the progress of the visual field examination is mainly displayed.
  • information capable of specifying an eye to be subjected to visual field inspection information on the content of “visual field inspection object: both eyes” and information capable of specifying the current examination condition “left eye: OCT imaging in progress And information indicating the degree of progress are displayed.
  • the indicator points to the position under examination.
  • information on the content of “inspection content: field of view / SLO / OCT” is displayed in the progress status display area 190A2, and this is an example of information based on inspection target eye indication information and the like.
  • information indicating the contents of “test object: both eyes” indicating the test object eye is also displayed, which is also an example of information based on the test object eye indication information and the like.
  • an anterior segment image, an SLO image, an OCT image, and / or a visual field defect map 240 are displayed as subject eye feature information indicating the features of the subject eye 44.
  • image display areas 190B3, 190C3, 190D3, and 190F3 described later.
  • the latest anterior eye image of the patient specified by the patient information 164A displayed in the patient information display area 190A5 is displayed.
  • the patient specified by the patient information 164A displayed in the patient information display area 190A5 is currently using the wearable terminal device 12 specified by the terminal ID displayed in the terminal ID display area 190A1.
  • the right-eye anterior-eye image and the left-eye anterior-eye image are displayed, and the left-eye anterior-eye image not to be examined is grayed out.
  • the eyewear wearing condition display area 190A4 information indicating whether or not the eyewear terminal device 16 is worn on the patient is displayed. In the example illustrated in FIG. 13, information of “wearing” indicating that the eyewear terminal device 16 is attached to the patient is displayed.
  • the background color of the eyewear wearing condition display area 190A4 changes in accordance with the progress. For example, the background color is any of white, yellow, pink and gray. White indicates before visual field examination, yellow indicates that visual field examination is in progress, pink indicates that visual field examination is completed, gray indicates that the eye to be examined in visual field examination is not indicated Represents that.
  • the first progress situation screen 190A is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "EA”.
  • the second progress situation screen 190B is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "EC”.
  • the third progress situation screen 190C is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "YV”.
  • the fourth progress situation screen 190D is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "MI”.
  • the fifth progress situation screen 190E is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "GZ”.
  • the sixth progress situation screen 190E is a screen corresponding to the wearable terminal 12 including the eyewear terminal 16 whose terminal ID is "YW”.
  • the second progress status screen 190B has a terminal ID display area 190B1, a progress status display area 190B2, an image display area 190B3, an eyewear wear status display area 190B4, and a patient information display area 190B5.
  • the second wearable terminal 12 of the six wearable terminals 12 in communication with the management device 14 can be uniquely identified.
  • the terminal ID is displayed.
  • information indicating “left eye: in OCT imaging” indicating that OCT imaging is performed on the left eye 44L is displayed.
  • information having a content of “inspection content: visual field / SLO / OCT” indicating content and order of inspection is also displayed.
  • the progress status display area 190B2 also displays information of “binocular” indicating an eye to be examined. Further, in the progress status display area 190B2, the indicator points to the position of the inspection completion.
  • the visual field defect map 240 regarding the subject eye 44 the SLO image regarding the retina 46, the OCT image regarding the retina 46R, and the left eye anterior segment image are displayed. Further, in the eyewear wearing condition display area 190B4, information indicating "non-wearing" is displayed as information indicating that the eyewear terminal device 16 is not worn on the patient.
  • the third progress situation screen 190C has a terminal ID display area 190C1, a progress situation display area 190C2, an image display area 190C3, an eyewear wearing situation display area 190C4, and a patient information display area 190C5.
  • the third wearable terminal 12 of the six wearable terminals 12 in communication with the management apparatus 14 can be uniquely identified.
  • the terminal ID is displayed.
  • information indicating “left eye: in SLO imaging in progress” indicating that the SLO imaging is performed on the left eye 44L is displayed.
  • information of contents “inspection content: view / SLO” indicating content and order of inspection is also displayed.
  • information indicating “only the left eye” indicating the eye to be examined is also displayed.
  • the indicator points to the position under inspection.
  • a visual field defect map 240 and a left eye anterior segment image of the left eye 44L are displayed.
  • the eyewear wearing condition display area 190C4 As information indicating that the eyewear terminal device 16 is attached to the patient, information of the content of "wearing" and information of the content of "Error” are displayed It is done. Note that the display of the information of the content of “Error” is realized by executing an error process of step 452 described later.
  • the fourth progress situation screen 190D has a terminal ID display area 190D1, a progress situation display area 190D2, an image display area 190D3, an eyewear wearing situation display area 190D4, and a patient information display area 190D5.
  • the fourth wearable terminal 12 among the six wearable terminals 12 in communication with the management apparatus 14 can be uniquely identified.
  • the terminal ID is displayed.
  • the progress status display area 190D2 displays information of "voice guidance".
  • the "voice guidance” indicates, for example, a state in which the patient is guided by the voice output from the speaker 140 by executing the process of step 256L shown in FIG. 9A or step 256S shown in FIG. 9B.
  • information having a content of “inspection content: field of view / SLO / OCT” indicating content and order of inspection is also displayed.
  • information of contents “binocular” indicating an eye to be examined is also displayed.
  • the latest anterior eye image of the patient specified by the patient information 164A displayed in the patient information display area 190D5 is displayed. Further, in the eyewear wearing condition display area 190D4, information indicating "being worn” is displayed as information indicating that the eyewear terminal device 16 is worn on the patient.
  • the fifth wearable terminal device 12 among the six wearable terminal devices 12 in which communication with the management device 14 is established can be uniquely identified.
  • the terminal ID is displayed.
  • the wearable terminal 12 including the eyewear terminal 16 with the terminal ID “GZ” is being charged, so that it is visually recognized in the fifth progress situation screen 190 E that charging is in progress.
  • Information as “charging” is displayed as possible information.
  • information indicating “battery 88%” and an indicator indicating the capacity of the battery are displayed as the information indicating the capacity of the battery.
  • the sixth wearable terminal 12 of the six wearable terminals 12 in communication with the management apparatus 14 can be uniquely identified.
  • the terminal ID is displayed.
  • information indicating “left eye: in SLO imaging in progress” indicating that the SLO imaging is performed on the left eye 44R is displayed.
  • information of content “inspection content: SLO / OCT” indicating content and order of inspection is also displayed.
  • information indicating “only the left eye” indicating the eye to be examined is also displayed.
  • the indicator points to the position under examination.
  • a visual field defect map for the eye to be examined 44 a right eye anterior segment image, an SLO image for the retina 46L, and an OCT image for the retina 46L are displayed.
  • the eyewear wearing condition display area 190F4 as information indicating that the eyewear terminal device 16 is attached to the patient, information of the content of "wearing" and information of the content of "Error" are displayed It is done.
  • step 410 shown in FIG. 11 the display control unit 184 causes the display 86A to update the display content of the information related to the terminal information, and then proceeds to step 416. Thereby, the display contents of the terminal ID display area 190A1, the progress display area 190A2, the image display area 190A3, and the eyewear wearing state display area 190A4 are updated.
  • the eyewear terminal device 16 when the eyewear terminal device 16 is removed from the patient, as shown in the eyewear wearing condition display area 190B4 of the second progress situation screen 190B in the eyewear wearing condition display area 190A4, the contents of "not wear” Information is displayed. Further, when an error process in step 452 described later is executed, information of “Error” is displayed as shown in the eyewear wearing condition display area 190C4 of the third progress situation screen 190C. In addition, when the OCT imaging is completed, information of “OCT imaging completed” is displayed. In addition, when all scheduled examinations are completed, the indicator points the position of completion of all examinations. Furthermore, when guidance by voice from the speaker 140 is in progress, information of “in voice guidance” is displayed as shown in the progress status display area 190D2 of the fourth progress status screen 190D.
  • the display control unit 184 determines whether the patient information 164A is in the non-display state. For example, the display control unit 184 may display in the patient information display area 190A5 whether patient information 164A related to a patient who is using the wearable terminal device 12 identified by the terminal ID displayed in the terminal ID display area 190A1. It is determined whether or not.
  • step 412 if the patient information 164A is in the non-display state, the determination is affirmative, and the process moves to step 414. If it is determined in step 412 that the patient information 164A is not in the non-displayed state, that is, if the patient information 164A is displayed, the determination is negative and the process moves to step 416.
  • step 414 the display control unit 184 causes the display 86A to start displaying the patient information 164A, and then proceeds to step 416.
  • the display control unit 184 causes the display 86A to start displaying the patient information 164A, and then proceeds to step 416.
  • the patient information 164A related to the patient using the wearable terminal device 12 specified by the terminal ID displayed in the terminal ID display area 190A1 the patient information 164A is displayed in the patient information display area 190A5 Be done.
  • step S416 the display control unit 184 determines whether the end condition related to the display control process is satisfied.
  • the end condition related to the display control process refers to the condition for ending the display control process.
  • the termination condition concerning display control processing the condition that predetermined time has elapsed, the condition that reception device 84 accepted the termination indication, and / or the problem that the display control processing has to be terminated forcibly Are detected by the CPU 90, and the like.
  • step 416 If the end condition relating to the display control process is not satisfied in step 416, the determination is negative and the process moves to step 402. If it is determined in step 416 that the end condition relating to the display control process is satisfied, the determination is affirmative and the process moves to step 418.
  • step 418 the display control unit 184 causes the display 86A to end the display of the progress situation screen 190, and thereafter ends the display control process.
  • step 450 the display control unit 184 determines whether a communication error has occurred.
  • the “communication error” mentioned here indicates, for example, an error in communication between the wearable terminal 12 and the management device 14 or an error in communication between the management device 14 and the server device 15. .
  • the communication error refers to, for example, a phenomenon in which communication is disconnected at unintended timing.
  • step 450 If it is determined in step 450 that a communication error has not occurred, the determination is negative and the process moves to step 454. If a communication error has occurred in step 450, the determination is affirmed and the process moves to step 452.
  • step 452 the display control unit 184 executes error processing, and then proceeds to step 454.
  • the error process indicates, for example, a process of controlling the display 86A such that the information of “Error” is displayed in the eyewear wearing condition display area 190C4. Further, as another example of the error processing, there is a process of outputting a voice such as "communication error has occurred" to a speaker (not shown).
  • the display control unit 184 determines whether the end condition related to the communication error handling process is satisfied.
  • the termination condition related to the communication error handling process indicates the condition for terminating the communication error handling process.
  • the termination condition related to the communication error handling process the condition that the predetermined time has elapsed, the condition that the receiving device 84 has accepted the termination instruction, and / or the communication error handling process must be forcibly terminated. There is a condition that the CPU 90 detects that there is no failure.
  • step 454 If it is determined in step 454 that the termination condition relating to the communication error handling process is not satisfied, the determination is negative and the process moves to step 450. If it is determined in step 454 that the termination condition relating to the communication error processing is satisfied, the determination is affirmative and the communication error handling processing is ended.
  • the management device 14 requests the server device 15 to transmit patient information and the like (S1).
  • the server device 15 transmits patient information and the like to the management device 14 in response to a request from the management device 14 (S2).
  • the management device 14 executes preparation processing (S3).
  • the preparation process refers to, for example, the processes of steps 212 to 220 shown in FIGS. 7A and 7B.
  • the management device 14 requests the wearable terminal device 12 to transmit various information (S4).
  • the various information indicates, for example, information indicating the operation status of the wearable terminal device 12 or the like.
  • the wearable terminal device 12 transmits various information to the management device 14 in response to a request from the management device 14 (S5). After completing the preparation process, the management device 14 requests the wearable terminal device 12 to execute the visual field examination (S6).
  • the wearable terminal device 12 executes terminal-side processing as shown in FIG. 9A and FIG. 9B as an example, thereby performing a visual field inspection on the eye to be inspected in response to a request from the management device 14 (S7).
  • the wearable terminal 12 transmits the result of the visual field inspection to the management device 14 (S8).
  • the result of the visual field inspection indicates, for example, mark projection position information and perceptual information.
  • the “field inspection result” may be only mark projection position information related to the position of the mark projected at the timing when the response button 19 is pressed.
  • the wearable terminal device 12 creates the visual field defect map information, but the technology of the present disclosure is not limited to this.
  • the management apparatus 14 may create the visual field defect map information as shown in FIG.
  • the management device 14 creates the visual field defect map 240 (see FIG. 13) based on the result of the visual field examination (S9).
  • the management device 14 transmits visual field defect map information, which is information including the created visual field defect map 240, to the server device 15 (S10).
  • the server device 15 receives the visual field defect map information transmitted from the management device 14, and creates a visual field test result report indicating the result of the visual field test based on the received visual field defect map information (S11). Further, the server device 15 stores the created visual field inspection result report in the secondary storage unit 94 (S12). Then, the server device 15 transmits the created visual field inspection result report to the viewer 17 (S13).
  • the viewer 17 receives the visual field test result report, and displays the received visual field test result report on the display 17C (S14).
  • the management device 14 requests the wearable terminal device 12 to execute the image inspection (S15).
  • the wearable terminal device 12 executes an image inspection in response to a request from the management device 14 (S16).
  • the wearable terminal device 12 transmits the result of the image inspection to the management device 14 (S17).
  • the management device 14 generates image inspection information based on the result of the image inspection transmitted from the wearable terminal device 12 and transmits the generated image inspection information to the server device 15 (S18).
  • the server device 15 receives the image inspection information, and creates an image inspection report indicating the result of the image inspection based on the received image inspection information (S19).
  • the server device 15 stores the created image inspection report in the secondary storage unit 164 (S20). Then, the server device 15 transmits the created image inspection report to the viewer 17 (S21).
  • the viewer 17 receives the image inspection report, and displays the received image inspection report on the display 17C (S20).
  • the process by the viewer 17 shown in the above S14 and S20 is a process that is realized by the CPU 17H reading out the viewer side program 17J1 and executing the read out viewer side program 17J1.
  • the wearable terminal 12 includes the light management unit 116 that includes the light source 114 having the laser light source unit 113 and the IR laser light source 114D, and emits the inspection light from the light source 114.
  • the wearable terminal 12 further includes an optical system 27 for guiding the light emitted from the light management unit 116 to the retina 46R and / or the retina 46L.
  • the control unit 170 controls the light management unit 116 and the optical system 27 so that the examination light is irradiated to the retina 46R and / or the retina 46L. Therefore, the wearable terminal 12 can contribute to the efficient implementation of the ophthalmologic examination.
  • the optical system 27 guides the inspection light emitted from the light management unit 116 to the retina 46R, and the inspection light emitted from the light management unit 116 to the retina 46L. And the left-eye optical system 27L for guiding. Therefore, according to the wearable terminal device 12, it is possible to conduct an ophthalmologic examination on both eyes without securing the light source for the left eye 44L and the light source for the right eye 44R separately.
  • the light source 114 includes the laser light source unit 113, and the control unit 170 irradiates the three primary color laser light from the laser light source unit 113 to a specific position in the retina 46 to perform the visual field test.
  • the light management unit 116 and the optical system 27 are controlled. Therefore, according to the wearable terminal 12, the laser light source unit 113 can be subjected to the visual field inspection.
  • the light source 114 includes the laser light source unit 113, and the control unit 170 scans the retina 46 with the three-primary-color laser light from the laser light source unit 113.
  • the light management unit 116 and the optical system 27 are controlled to be performed. Therefore, according to the wearable terminal 12, the laser light source unit 113 can be used for SLO imaging.
  • the light source 114 includes the IR laser light source 114D, and the controller 170 scans the retina 46 with the IR laser light from the IR laser light source to perform OCT imaging of the retina 46.
  • the light management unit 116 and the optical system 27 are controlled. Therefore, according to the wearable terminal 12, the IR laser light source 114D can be provided for OCT imaging.
  • control unit 170 controls the light management unit 116 and the optical system 27 so that the visual field inspection, the SLO imaging, and the OCT imaging are performed in the first order pattern described above. Therefore, according to the wearable terminal 12, the SLO imaging and the OCT imaging can be sequentially performed based on the result of the visual field examination.
  • the wearable terminal 12 further includes a scanner 28 for scanning the three primary color laser beams, and a reflection mirror 42 for reflecting the three primary color laser beams scanned by the scanner 28 to the retina 46. Therefore, according to the wearable terminal device 12, even for a cataract patient, ie, a patient whose lens is clouded, it is possible to visually perceive the three primary color laser beams required for the visual field examination.
  • the wearable terminal device 12 includes an in-camera 48R for the right eye and an in-camera 48L for the left eye that capture an anterior segment of the eye 44 to be examined. Then, the control unit 170 detects and detects the inter-pupil distance based on the right-eye anterior-eye image and the left-eye anterior-eye image obtained by photographing with the right-eye in-camera 48R and the left-eye in-camera 48L. The position of the reflecting mirror 42 is controlled based on the interpupillary distance. Therefore, according to the wearable terminal device 12, the visual field examination can be performed with high accuracy even for patients having different interpupillary distances.
  • the wearable terminal device 12 includes a response button 19 that receives an operation indicating whether the patient has perceived the three primary color laser beams when the three primary color laser beams are irradiated to the retina 46.
  • the wearable terminal device 12 includes a processing unit 171 that receives information by the response button 19 and that corresponds to the operation. In the first embodiment, the processing unit 171 transmits perceptual information to the management device 14. Therefore, according to the wearable terminal device 12, the medical service person can easily grasp the insensitive position of the three primary color laser light in the retina 46.
  • the wearable terminal device 12 also includes a wireless communication unit 112 that communicates with the management device 14 so as to cause the management device 14 to manage the visual field examination. Therefore, according to the wearable terminal device 12, it is possible to reduce the processing load related to the management of the visual field inspection.
  • the management of the visual field test is, for example, management of the three primary color laser light used for the visual field test and the fact that the three primary color laser light is irradiated to the retina 46, the patient visually recognizes the irradiated three primary color laser light. And management of perceptual information indicative of perceiving. Therefore, the wearable terminal device 12 can reduce the processing load relating to the management of at least three primary color laser beams used for visual field inspection and the management of perceptual information.
  • the management device 14 further includes a wireless communication unit 82 that transmits control information to the wearable terminal device 12. Then, the management device 14 wears the visual field defect map 240, the SLO image, and / or the OCT image, which is the result of the ophthalmologic examination performed by irradiating the examination light to the retina 46R and / or the retina 46L. And an acquisition unit 182 for acquiring the information. Therefore, according to the management apparatus 14, it can contribute to efficient implementation of an ophthalmologic examination.
  • the management device 14 further includes a display control unit 184 that controls the display 86A so as to display a progress situation screen 190 according to the progress situation of the ophthalmologic examination on the display 86A. Therefore, the wearable terminal device 12 can allow the medical service person to easily grasp the progress of the ophthalmologic examination.
  • the display control unit 184 controls the display 86A to cause the progress status screen 90 to display an indicator that functions as progress degree information indicating the degree of progress of the ophthalmologic examination.
  • the display control unit 184 causes the anterior situation image, the SLO image, the OCT image, and / or the visual field defect map 240 to be displayed as the subject eye feature information indicating the feature of the subject eye 44 on the progress situation screen 90. Control the display 86A. Therefore, the wearable terminal device 12 can allow the medical service person to easily grasp the details of the progress of the ophthalmologic examination.
  • the wireless communication unit 82 performs wireless communication with each of the plurality of wearable terminal devices 12, whereby the examination target eye instruction information and the patient information 164 ⁇ / b> A for each of the wearable terminal devices 12 are transmitted. Send. Then, the acquisition unit 182 performs wireless communication with each of the plurality of wearable terminal devices 12 to obtain the visual field defect map 240, the SLO image, and / or the OCT image which is the result of the ophthalmologic examination from each of the wearable terminal devices 12. To get Therefore, the wearable terminal device 12 allows one medical service person to conduct an ophthalmologic examination in parallel on a plurality of patients.
  • an ophthalmologic system 500 differs from the ophthalmologic system 10 in that a wearable terminal device 502 is provided instead of the wearable terminal device 12.
  • the wearable terminal device 502 has a control device 503 in place of the control device 18 as compared with the wearable terminal device 12, a point having an eye wear terminal device 506 in place of the eye wear terminal device 16, and an optical branching unit 20. The point of not doing is different. Also, the wearable terminal device 502 differs from the wearable terminal device 12 in that the wearable terminal device 502 does not have the optical fibers 30, 38 and 40.
  • the ophthalmologic system 500 also has a plurality of wearable terminal devices 502 as in the ophthalmologic system 10, and each of the wearable terminal devices 502 is connected to the management device 14 in a wirelessly communicable state.
  • the eyewear terminal device 506 has an optical system 507 instead of the optical system 27 as compared with the eyewear terminal device 16 and a scanner 508 instead of the scanner 28.
  • the optical system 507 is different from the optical system 27 in that it has a right side optical system 507R instead of the right eye optical system 27R and a left side optical system 507L instead of the left eye optical system 27L. Further, the optical system 507 is different from the optical system 27 in that it has a scanner 508 instead of the scanner 28.
  • the scanner 508 differs from the scanner 28 in that it has a right eye scanner 508R instead of the right eye scanner 28R and a left eye scanner 508L instead of the left eye scanner 28L.
  • the right-eye scanner 508R is different from the right-eye scanner 28R in that the right-eye light management unit 510R is used instead of the right-eye light transfer unit 52.
  • the left-eye scanner 508L is different from the left-eye scanner 28L in that the left-eye light management unit 510L is used instead of the left-eye light transfer unit 58. That is, the right-eye light management unit 510R and the left-eye light management unit 510L are incorporated in the eyewear terminal device 506.
  • the control device 503 differs from the control device 18 in that it has a main control unit 509 instead of the main control unit 110.
  • the main control unit 509 differs from the main control unit 110 in that a terminal-side program 524A is stored in the secondary storage unit 124 instead of the terminal-side program 124A.
  • the CPU 120 reads the terminal-side program 524A from the secondary storage unit 124, and develops the read-out terminal-side program 524A in the primary storage unit 162. Then, the CPU 120 executes the terminal-side program 524A expanded in the primary storage unit 122.
  • the CPU 120 By executing the terminal-side program 524A, the CPU 120 operates as a control unit 570 and a processing unit 171 as shown in FIG. 14 as an example.
  • the control unit 570 is different from the control unit 170 in that the control unit 570 controls an optical system 507 instead of the optical system 27. Further, the control unit 570 is different from the control unit 170 in that the light management unit 510R and the left eye light management unit 510L are controlled instead of the light management unit 116.
  • the right-eye light management unit 510R is configured in the same manner as the left-eye light management unit 510L with regard to the internal configuration, although the attachment position to the wearable terminal device 12 is different compared to the left-eye light management unit 510L.
  • the right-eye light management unit 510R differs from the light management unit 116 in that the light source control circuit 115 is connected to the bus line. Further, the light management unit for right eye 510R is different from the light management unit 116 in that a light detection unit 117A is provided instead of the light detection unit 117.
  • the light detection unit 117A does not include the drive source control circuit 119, the detection shutter drive source 123, the mirror drive source 125, the shutter 127, the first slide mechanism 145, and the second slide mechanism 147, as compared to the light detection unit 117. The point is different.
  • the right-eye light management unit 510R is an example shown in FIG. As shown in FIG. 2, the right-eye light is emitted to the MEMS mirror 54. In addition, as shown in FIG. 16 as an example, the right-eye light management unit 510R receives the right fundus light guided by the MEMS mirror 54.
  • the right-eye light management unit 510R is an example of a right-eye emission unit according to the technology of the present disclosure.
  • the “right-eye light” referred to here is an example of a right-eye inspection light according to the technology of the present disclosure.
  • the left-eye light management unit 510L is an example of a right-eye emission unit according to the technology of the present disclosure.
  • the left-eye light management unit 510 L emits left-eye light to the MEMS mirror 60 and receives left fundus light guided by the MEMS mirror 60.
  • the “left-eye light” mentioned here is an example of the left-eye inspection light according to the technology of the present disclosure.
  • the use of the right-eye light management unit 510R is permitted when the right-eye light management unit flag is turned on, and the left-eye light management flag is turned on.
  • use of the left-eye light management unit 510L is permitted.
  • light management unit flag when it is not necessary to distinguish and describe the right-eye light management unit flag and the left-eye light management unit flag, they are referred to as “light management unit flag”.
  • the terminal-side processing according to the second embodiment has the visual-field inspection processing shown in FIGS. 19A and 9B instead of the visual-field inspection processing shown in FIGS. 9A and 9B as compared to the terminal-side processing according to the first embodiment.
  • the point is different.
  • the visual field inspection process (refer to FIG. 19A) according to the second embodiment has a step 256A1 instead of the step 256A and a step 256B1 instead of the step 256B as compared to the visual field inspection process according to the first embodiment. It has different points.
  • the visual field inspection process (see FIG. 19A) according to the second embodiment differs from the visual field inspection process according to the first embodiment in that it has step 256C1 instead of step 256C.
  • the visual field inspection process (see FIG. 9B) according to the second embodiment differs from the visual field inspection process according to the first embodiment in that it has step 256U1 instead of step 256U.
  • the terminal-side processing according to the second embodiment has SLO image inspection processing shown in FIG. 19B instead of the SLO image inspection processing shown in FIG. 9C as compared with the terminal-side processing according to the first embodiment. It is different.
  • the SLO image inspection process (FIG. 19B) according to the second embodiment has a step 262A1 instead of the step 262A and a step 262B1 instead of the step 262B as compared to the SLO image inspection process according to the first embodiment. It differs in that it has
  • the terminal side process according to the second embodiment has an OCT image inspection process shown in FIG. 19C instead of the OCT image inspection process shown in FIG. 9D as compared with the terminal side process according to the first embodiment. It is different.
  • the OCT image inspection process (FIG. 19C) according to the second embodiment has a step 266A1 instead of the step 266A and a step 266B1 instead of the step 266B as compared to the OCT image inspection process according to the first embodiment. It differs in that it has
  • control unit 570 is required to change the light management unit flag currently turned on based on the examination target eye indication information in the above-mentioned necessary information included in the visual field examination indication information. Determine if there is.
  • step 256A1 If it is not necessary to change the light management unit flag currently turned on in step 256A1, the determination is negative and the process proceeds to step 256C1. If it is determined in step 256A1 that the light management unit flag currently turned on needs to be changed, the determination is affirmative and the process moves to step 256B1.
  • step 304A The same processing as the processing of step 304A is performed for each of step 262A1 shown in FIG. 19B and step 266A1 shown in FIG. 19C, so the description will be omitted.
  • control unit 570 changes the light management unit flag based on the examination target eye indication information in the necessary information included in the visual field examination indication information, and then proceeds to step 256C1.
  • change of light management unit flag refers to turning off the light management unit flag that is turned on or turning on the light management unit flag that is turned off.
  • the right-eye light management unit flag is turned on and the left-eye light management unit flag is turned off.
  • the light management unit flag for the left eye is turned on and the light management unit flag for the right eye is turned off.
  • step 306A The same processing as the processing of step 306A is performed for each of step 262B1 shown in FIG. 19B and step 266B1 shown in FIG. 19C, so the description will be omitted.
  • the control unit 570 starts irradiating the laser light to one of the right-eye light management unit 510R and the left-eye light management unit 510L that corresponds to the light management unit flag that is currently on. By doing this, scanning of the retina 46 with laser light is started. For example, when the right-eye light management unit flag is currently turned on, scanning of the retina 46R with the right-eye laser light is started by starting irradiation of the right-eye laser light from the right-eye light management unit 510R. To start.
  • the left-eye laser light for the retina 46L is started by starting irradiation of the left-eye laser light from the left-eye light management unit 510L. Start scanning by.
  • step 256U1 shown in FIG. 9B the control unit 570 controls the right-eye light management unit 510R when scanning the retina 46R with the right-eye laser light is performed, thereby the right-eye light management unit End the scan by 510R. Further, when scanning with the left-eye laser light is performed on the retina 46L, the control unit 570 controls the left-eye light management unit 510L to end the scanning by the left-eye light management unit 510L. .
  • the wearable terminal device 502 includes the optical system 507 that guides the light for the right eye to the retina 46R and guides the light for the left eye to the retina 46L.
  • the wearable terminal device 502 includes a control unit 570 that controls the right-eye light management unit 510R and the left-eye light management unit 510L such that the examination light is emitted to the retina 46R and / or the retina 46L. Therefore, the wearable terminal device 502 can contribute to the efficient implementation of the ophthalmologic examination.
  • OCT imaging can be performed on one of the right eye 44R and the left eye 44L while performing SLO imaging on the other.
  • at least one of SLO imaging and OCT imaging can be performed on the other of the right eye 44R and the left eye 44L while performing visual field inspection on the other.
  • an ophthalmologic system 800 differs from the ophthalmologic system 10 of the first embodiment in that a wearable terminal device 812 is substituted for the wearable terminal device 12.
  • the wearable terminal 812 differs from the wearable terminal 12 in that it does not have the light branching unit 20. Also, the wearable terminal device 812 differs from the wearable terminal device 12 in that a control device 818 is provided instead of the control device 18. Furthermore, the wearable terminal 812 differs from the wearable terminal 12 in that it has a cable 25A instead of the cable 25, a cable 34A instead of the cable 34, and a cable 36A instead of the cable 36. .
  • the cable 25A is different from the cable 25 in that it has optical fibers 30A and 30B instead of the optical fiber 30.
  • the cable 34A is different from the cable 34 in that it has an optical fiber 30A in place of the optical fiber 38.
  • the cable 36A differs from the cable 36 in that it has an optical fiber 36B instead of the optical fiber 40. That is, in the third embodiment, the cable 25A is branched into two cables 34A and 36A at the branch portion ⁇ .
  • the control device 818 differs from the control device 18 in that it has a light management unit 819 instead of the light management unit 116.
  • the light management unit 916 differs from the light management unit 116 in that it has a light detection unit 917 instead of the light detection unit 117.
  • the light detection unit 917 has a drive source control circuit 119, a detection shutter drive source 123, a mirror drive source 125, a shutter 127, a mirror 141, a first slide mechanism 145, and a second slide mechanism 147 as compared to the light detection unit 117. The point which further has is different.
  • the second slide mechanism 147 slidably holds the beam splitter 129 between the seventh position P7 and the eighth position P8.
  • the seventh position P7 refers to a position for guiding the light for the left eye to the optical fiber 30B by reflecting the inspection light guided by the mirror 137.
  • the eighth position P8 refers to a position for guiding the right-eye light to the optical fiber 30A by reflecting the inspection light guided by the mirror 137.
  • the first slide mechanism 145 slidably holds the shutter 127 between the fifth position P5 and the sixth position P6.
  • the fifth position P5 refers to a position where the right-eye light guided by the beam splitter 129 at the eighth position P8 passes through and is guided to the optical fiber 30A.
  • the sixth position P6 refers to a position where the left-eye light guided by the beam splitter 129 at the seventh position P7 passes through and is guided to the optical fiber 30B.
  • Examples of the detection shutter drive source 123 and the mirror drive source 125 include a stepping motor, a solenoid, and a piezoelectric element.
  • the detection shutter drive source 123 and the mirror drive source 125 are connected to the drive source control circuit 119, and the drive source control circuit 119 is connected to the I / O 128.
  • a drive source control signal is input from the CPU 120 to the drive source control circuit 119, and the drive source control circuit 119 controls the detection shutter drive source 123 and the mirror drive source 125 according to the input drive source control signal.
  • the drive source control circuit 119 controls the detection shutter drive source 123 by supplying a detection shutter control signal to the detection shutter drive source 123, and supplies a mirror control signal to the mirror drive source 125. Controls the mirror drive source 125.
  • the first slide mechanism 145 is connected to the detection shutter drive source 123, and receives the power generated by the detection shutter drive source 123, thereby moving the shutter 127 between the fifth position P5 and the sixth position P6. Slide it.
  • the second slide mechanism 147 is connected to the mirror drive source 125, and slides the beam splitter 129 between the seventh position P7 and the eighth position P8 by receiving the power generated by the mirror drive source 125.
  • the mirror 141 is a reflection mirror, and guides the light to the mirror 143 by reflecting the right fundus light transmitted through the beam splitter 129 at the eighth position P8.
  • the mirror 143 is disposed in the traveling direction of the left fundus light transmitted through the beam splitter 129 at the seventh position P7, and in the traveling direction of the right fundus light reflected by the mirror 141.
  • the mirror 143 is a dichroic mirror, and separates the fundus light into SLO light and OCT light, guides the SLO light to the light detection unit 131, and guides the OCT light to the OCT light detection unit 133. That is, the mirror 143 guides the SLO light detection unit 131 by transmitting the right eye SLO light of the right eye fundus light guided by the mirror 141 and reflects the right eye OCT light to the OCT light detection unit 133. Lead.
  • the mirror 143 reflects the left eye SLO light of the left fundus light transmitted through the beam splitter 129 at the seventh position to guide it to the SLO light detection unit 131 and transmits the left eye OCT light to transmit OCT light. It leads to the detection unit 133.
  • the wearable terminal device 812 configured in this way, light for the right eye is supplied from the light management unit 916 to the right-eye optical system 27R via the optical fiber 30A, and left from the light management unit 916 via the optical fiber 30B. Light for the left eye is supplied to the eye optical system 27L.
  • the wearable terminal 12 in which the control device 18 and the light branching unit 20 are pulled out to the outside of the eyewear terminal 16 is illustrated, but the technology of the present disclosure is not limited to this. Absent.
  • an ophthalmologic system 600 may be employed instead of the ophthalmologic system 10.
  • the ophthalmologic system 600 is different from the ophthalmologic system 10 in that the controller 18, the light branching unit 20, and the cables 25, 34, 36 are not provided. Further, the ophthalmologic system 600 is different from the ophthalmologic system 10 in that an eyewear terminal device 610 is provided instead of the eyewear terminal device 16.
  • a controller 352 in which a device having a function equivalent to the control device 18 and a device having a function equivalent to the light branching unit 20 are integrated is accommodated in the left temple 24L.
  • the cables corresponding to the cables 34 and 36 are also accommodated in the frame of the eyewear terminal device 350.
  • the frame of the eyewear terminal device 350 refers to, for example, the rim 22 and the temple 24.
  • the method of detecting the response reaction in the eyewear terminal device 610 there is a method of detecting the response reaction by the touch sensor (not shown) provided on the temple 24 being touched by the patient.
  • the method of detecting the response reaction in the eye wear terminal device 610 there is a method of detecting the response reaction using a voice recognition device.
  • the speech recognition apparatus “YES” (utterance of intention display when feeling a mark (light)) and “NO” (utterance of intention display when a mark (light) is not felt)
  • the response reaction is detected by recognizing
  • only the response button 19 may be separately configured to be held by the patient, and the response result by the response button 19 may be transmitted to the eyewear terminal device 610.
  • the controller 352 may be provided on the right side temple 24R. Further, a device having a function equivalent to the control device 18 and a device having a function equivalent to the light branching unit 20 may be separately accommodated in the frame of the eyewear terminal device 350. In this case, the frame corresponding to the cable 25, that is, the cable connecting the device having the function corresponding to the control device 18 and the device having the function corresponding to the light branching unit 20 is also accommodated in the frame of the eyewear terminal device 350. Be done.
  • the cables 25, 34 and 36 and the light branching unit 20 become unnecessary, which can contribute to the downsizing of the entire device.
  • the wearable terminal device 500 according to the second embodiment can also be a wireless wearable terminal device like the wearable terminal device 610 shown in FIG. That is, a wearable terminal apparatus including an eyewear terminal apparatus having at least the optical system 507 among the devices corresponding to the right-eye light management unit 510R, the left-eye light management unit 510L, the optical system 507, and the control device 503 is adopted. It may be done. Also in this case, it can contribute to the miniaturization of the entire device.
  • the shutters 121 and 127 are illustrated, but the technology of the present disclosure is not limited to this, and instead of the shutters 121 and 127, transmission of light such as a liquid crystal shutter is controlled. It is possible to adopt a device capable of
  • the technique of this indication is not limited to this.
  • the IR laser light source 114D is not necessary.
  • the technique of this indication is not limited to this, for example, it replaces with a laser beam, and the light by a super luminescent diode (Super Luminescent Diode) is used. It may be adopted.
  • Super Luminescent Diode Super Luminescent Diode
  • response button 19 was illustrated in said each embodiment, the technique of this indication is not limited to this.
  • a touch panel display, a keyboard, a mouse or the like may be used.
  • the visual field loss map may be created by the management device 14.
  • the processing unit 171 generates association information in which the perceptual information is associated with the mark projection position information related to the perceptual information, and the generated association information is managed by the management device 14 via the wireless communication unit 112.
  • the management apparatus 14 may create the visual field loss map based on the association information.
  • the mark projection position information related to the perceptual information refers to mark projection position information corresponding to the position at which the mark is projected at the timing when the response button 19 is pressed.
  • the processing unit 171 transmits the mark projection position information corresponding to the position where the mark is projected at the timing when the response button 19 is pressed, to the management apparatus 14 via the wireless communication unit 112, and the management apparatus 14 projects the mark.
  • the visual field loss map may be created based on the position information.
  • the laser light source unit 113 which is an example of the first light source according to the technology of the present disclosure, as light sources of different modalities (a light source for SLO imaging and a light source for OCT imaging)
  • the IR laser light source 114D which is an example of the 2nd light source which concerns on is illustrated
  • the technique of this indication is not limited to this.
  • the laser light source unit 113 and the IR laser light source 114D two light sources having different wavelengths may be used.
  • the wavelength of R band, the wavelength of B band, the wavelength of G band, and the wavelength of IR band are mentioned, for example.
  • both of the two light sources are light sources for SLO, and one light source performs SLO imaging by irradiating the retina 46L with laser light having a wavelength of R band, and the other light source emits retinal light from the other light source.
  • the SLO imaging may be performed by irradiating a laser beam having a wavelength of G band to 46R. The same applies to the case of performing OCT imaging on both eyes.
  • the MEMS mirror 54, 56, 60, 62 was illustrated in each said embodiment, the technique of this indication is not limited to this.
  • an electrically reflective surface such as a galvano mirror and / or a polygon mirror, instead of or in combination with at least one of the MEMS mirrors 54, 56, 60, 62 A mirror whose position can be controlled may be used.
  • the terminal side program 124A (524A) was read from the secondary storage part 124 was illustrated in said each embodiment, it is not necessary to necessarily memorize
  • the terminal-side program 124A (524A) may be stored in an arbitrary portable storage medium 700 such as an SSD, a USB memory, or a DVD-ROM.
  • the terminal-side program 124A (524A) of the storage medium 700 is installed in the wearable terminal 12 (502), and the installed terminal-side program 124A (524A) is executed by the CPU 120.
  • the terminal side program 124A is stored in a storage unit such as another computer or server device connected to the wearable terminal 12 (502) via a communication network (not shown).
  • a storage unit such as another computer or server device connected to the wearable terminal 12 (502) via a communication network (not shown).
  • (524A) may be installed at the request of the wearable terminal 12 (502).
  • the installed terminal-side program 124A (524A) is executed by the CPU 120.
  • the management device program is read from the secondary storage unit 94.
  • the secondary storage unit 94 does not have to store the management device program from the beginning.
  • the management apparatus side program may first be stored in an arbitrary portable storage medium 750 such as an SSD, a USB memory, or a DVD-ROM.
  • the management apparatus side program of the storage medium 750 is installed in the management apparatus 14, and the installed management apparatus side program is executed by the CPU 90.
  • the management device side program is stored in a storage unit such as another computer or server device connected to the management device 14 via a communication network (not shown), and the management device side program receives a request from the management device 14. It may be installed accordingly. In this case, the installed management device program is executed by the CPU 90.
  • the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process described in the above embodiment are merely examples. Therefore, needless to say, unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the scope of the present invention.
  • the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process are realized by the software configuration using a computer
  • the technology of the present disclosure It is not limited to this.
  • at least one of terminal management processing, terminal processing, server processing, display control processing, and communication error handling processing only by hardware configuration such as FPGA or ASIC. Processing may be performed.
  • At least one of the terminal management process, the terminal side process, the server side process, the display control process, and the communication error handling process may be executed by a combination of a software configuration and a hardware configuration.
  • hardware resources that execute various processes are hardware that executes various processes by executing a program, for example.
  • a CPU that is a general purpose processor that functions as a wear resource can be mentioned.
  • a dedicated electric circuit which is a processor having a circuit configuration such as an FPGA, a PLD, or an ASIC designed for exclusive use may be mentioned.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • the hardware resources for executing various processes may be one of the above-described plurality of types of processors, or may be a combination of two or more processors of the same type or different types.
  • the processing unit 180, the acquisition unit 182, and the display control unit 184 of the management apparatus 14 illustrated in FIG. 14 as one example are not wearable ophthalmic equipment but a visual field inspection / SLO that allows both eyes to be observed in a stationary type.
  • the present invention is also applicable to a management apparatus communicably connected to an apparatus having an OCT function (for example, a stationary ophthalmic apparatus). That is, the process executed by the management device 14 can also be performed by a device having a visual field inspection / SLO / OCT function capable of observing both eyes in a stationary manner.
  • a and / or B is synonymous with “at least one of A and B”. In other words, “A and / or B” may mean only A, only B, or a combination of A and B. Further, in the present specification, the same concept as “A and / or B” is applied also in the case where three or more matters are expressed by “and / or” in a linked manner.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼科機器は、被検眼に対する検査用の光を発する第1光源及び第2光源のうちの少なくとも一方を有する光源を含み、前記光源からの光を射出する射出部と、前記射出部から射出された光を、右眼網膜及び/又は左眼網膜に導く光学系と、前記光が前記右眼網膜及び/又は前記左眼網膜に照射されるように前記射出部及び前記光学系を制御する制御部と、を含む。

Description

眼科機器、管理方法、及び管理装置
 本開示の技術は、眼科機器、管理方法、及び管理装置に関する。
 本明細書において、眼科とは、眼に対処する医学の分科を指す。また、本明細書において、SLOとは、“Scanning Laser Ophthalmoscope”の略称を指す。また、本明細書において、OCTとは、“Optical Coherence Tomograph”の略称を指す。
 特開2016-22150号公報には、照射光学系と、生体情報検出部と、評価情報生成部と、制御部と、を含む視機能検査装置が開示されている。
 特開2016-22150号公報に記載の視機能検査装置において、照射光学系は、レーザ光源から出力されたレーザ光の光路に配置された光スキャナを含み、光スキャナを経由したレーザ光を被検眼の網膜に照射する。また、生体情報検出部は、レーザ光の照射に対する被検者の反応を表す生体情報を反復的に検出する。また、制御部は、生体情報の反復的な検出が行われているときに、網膜の一の刺激点へのレーザ光の照射強度を単調的に変化させるように照射光学系を制御する。
 また、特開2016-22150号公報に記載の視機能検査装置において、評価情報生成部は、検出された生体情報に基づいて、被検眼の視機能に関する評価情報を生成する。具体的には、評価情報生成部は、レーザ光の照射強度の単調的な変化に応じた生体情報の時系列変化に基づいて、一の刺激点における感度情報を生成する。また、評価情報生成部は、網膜の複数の刺激点のそれぞれについて生成された感度情報に基づいて、複数の刺激点における感度情報の分布を評価情報として生成する。
 本開示の技術の第1態様に係る眼科機器は、被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含み、前記光源からの光を射出する射出部と、前記射出部から射出された光を右眼網膜に導く右眼用光学系と、前記射出部から射出された光を左眼網膜に導く左眼用光学系と、を有する光学系と、前記光が前記右眼網膜及び/又は前記左眼網膜に照射されるように前記射出部及び前記光学系を制御する制御部と、を含む。
 本開示の技術の第2態様に係る眼科機器は、被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含む光管理部と、前記光を右眼網膜に導く右眼用光学系と、前記光を左眼網膜に導く左眼用光学系と、を有する光学系を含むアイウエア端末と、前記光管理部からの光を前記右眼用光学系及び/又は前記左眼用光学系へ導く光分岐部と、前記光管理部、前記光学系及び前記光分岐部を制御する制御部と、を含む。
 本開示の技術の第3態様に係る眼科機器は、右眼用検査光を射出する右眼用射出部と、左眼用検査光を射出する左眼用射出部と、前記右眼用検査光を右眼網膜に導く右眼用光学系と、前記左眼用検査光を左眼網膜に導く左眼用光学系とを有する光学系と、前記右眼用検査光が前記右眼網膜に照射され、前記左眼用検査光が前記左眼網膜に照射されるように前記右眼用射出部、前記左眼用射出部、及び前記光学系を制御する制御部と、を含む。
 本開示の技術の第4態様に係る管理方法は、被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含み、前記光源からの光を射出する射出部と、前記射出部から射出された光を右眼網膜に導く右眼用光学系と、前記射出部から射出された光を左眼網膜に導く左眼用光学系と、を有する光学系と、前記光が前記右眼網膜及び/又は前記左眼網膜に照射されるように前記射出部及び前記光学系を制御する制御部とを含む眼科機器 を管理する管理方法であって、検査対象眼を指示する指示情報と、眼科検査の種類を特定する検査種類特定情報を含む眼科検査情報を前記眼科機器に送信し、前記眼科機器による前記検査の結果を示す検査結果情報を前記眼科機器から取得することを含む。
 本開示の技術の第5態様に係る管理装置は、本開示の技術の第1の態様に係る眼科機器とのデータ送受信を行う通信部と、制御部と、を備えた管理装置であって、前記制御部は、検査対象眼を指示する指示情報と、眼科検査の種類を特定する検査種類特定情報とを含む眼科検査情報を前記眼科機器に送信し、前記眼科機器による前記検査の結果を示す検査結果情報を前記眼科機器から取得する。
第1実施形態に係る眼科システムの全体構成の一例を示す概念図である。 第1実施形態に係る眼科システムに含まれるウエアラブル端末装置の構成の一例を示す平面視概略構成図である。 第1実施形態に係る眼科システムに含まれるウエアラブル端末装置及び管理装置の電気系のハードウェア構成の一例を示すブロック図である。 第1及び第2実施形態に係る眼科システムに含まれるサーバ装置及びビューワの電気系のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る眼科システムのウエアラブル端末装置に含まれる光管理部の構成の一例を示す概略構成図である。 第1実施形態に係る眼科システムのウエアラブル端末装置に含まれる光分岐部の構成の一例を示す概略構成図である。 第1~第3実施形態に係る端末管理処理の流れの一例を示すフローチャートである。 図7Aに示すフローチャートの続きである。 第1~第3実施形態に係る端末側処理の流れの一例を示すフローチャートである。 第1実施形態に係る端末側処理に含まれる視野検査処理の流れの一例を示すフローチャートである。 図9Aに示すフローチャートの続きである。 第1実施形態に係る端末側処理に含まれるSLO画像検査処理の流れの一例を示すフローチャートである。 第1実施形態に係る端末側処理に含まれるOCT画像検査処理の流れの一例を示すフローチャートである。 第1~第3実施形態に係るサーバ側処理の流れの一例を示すフローチャートである。 第1~第3実施形態に係る表示制御処理の流れの一例を示すフローチャートである。 第1~第3実施形態に係る通信エラー対応処理の流れの一例を示すフローチャートである。 第1~第3実施形態に係る表示制御処理が実行されることでディスプレイに表示される進行状況画面の態様の一例を示す概略画面図である。 第1~第3実施形態に係る眼科システムの要部機能の一例を示すブロック図である。 第1実施形態に係る眼科システムに含まれるウエアラブル端末装置と管理装置とサーバ装置とビューワとの間の主なやり取りの一例を示すシーケンス図である。 第2実施形態に係る眼科システムに含まれるウエアラブル端末装置の構成の一例を示す平面視概略構成図である。 第2実施形態に係る眼科システムに含まれるウエアラブル端末装置及び管理装置の電気系のハードウェア構成の一例を示すブロック図である。 第2実施形態に係る眼科システムに含まれるウエアラブル端末装置の右眼用光管理部(左眼用光管理部)の構成の一例を示す概略構成図である。 第2実施形態に係る端末側処理に含まれる視野検査処理の流れの一例を示すフローチャートである。 第2実施形態に係る端末側処理に含まれるSLO画像検査処理の流れの一例を示すフローチャートである。 第2実施形態に係る端末側処理に含まれるOCT画像検査処理の流れの一例を示すフローチャートである。 第1及び第2実施形態に係る眼科システムの変形例を示す概念図である。 第1及び第2実施形態に係る端末側プログラムがウエアラブル端末装置にインストールされる態様の一例を示す概念図である。 第1及び第2実施形態に係る管理装置側プログラムが管理装置にインストールされる態様の一例を示す概念図である。 第3実施形態に係る眼科システムの全体構成の一例を示す概念図である。 第3実施形態に係る眼科システムのウエアラブル端末装置に含まれる光管理部の構成の一例を示す概略構成図である。
 以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。
 先ず、以下の説明で使用される用語の意味について説明する。以下の説明において、MEMSとは、“Micro Electro Mechanical Systems”の略称を指す。また、以下の説明において、I/Fとは、“Interface”の略称を指す。また、以下の説明において、I/Oとは、インプット・アウトプット・インタフェースの略称を指す。また、以下の説明において、USBとは、“universal serial bus”の略称を指す。また、以下の説明において、IDとは、“IDentification”の略称を指す。
 また、以下の説明において、CPUとは、“Central Processing Unit”の略称を指す。また、以下の説明において、RAMとは、“Random Access Memory”の略称を指す。また、以下の説明において、HDDとは、“Hard Disk Drive”の略称を指す。また、以下の説明において、EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。また、以下の説明において、SSDとは、“Solid State Drive”の略称を指す。また、以下の説明において、DVD-ROMとは、“Digital Versatile Disc Read Only Memory”の略称を指す。
 また、以下の説明において、ASICとは、“Application Specific Integrated Circuit”の略称を指す。また、以下の説明において、FPGAとは、“Field-Programmable Gate Array”の略称を指す。また、以下の説明において、“PLD”とは、“Programmable Logic Device”の略称を指す。また、以下の説明において、LANとは、“Local Area Network”の略称を指す。
 また、本実施形態において、左右方向とは、例えば、患者の右眼の瞳孔の中心と左眼の瞳孔の中心とを通る直線の方向を指す。なお、以下では、説明の便宜上、「左右方向」を「X方向」とも称し、被検眼の瞳孔の中心から被検眼の後極に向かう方向を「Z方向」と称し、X方向及びZ方向の双方に対して垂直な方向を「Y方向」と称する。
 [第1実施形態]
 一例として図1に示すように、眼科システム10は、患者に対する眼科系の検査、すなわち、被検眼44(図2参照)に対する検査(以下、単に「眼科検査」と称する)に供するシステムである。本実施形態では、眼科検査には、視野検査及び画像検査が含まれる。視野検査とは、患者(被検者)の視野の検査を指す。画像検査は、患者(被検者)の眼底を撮影して得られた眼底画像を用いた検査を指す。画像検査には、被検眼44(図2参照)の網膜46(図2参照)に対するSLOによる平面視撮影で得られたSLO画像を用いたSLO画像検査と、網膜46に対するOCTによる断面視撮影で得られたOCT画像を用いたOCT画像検査とが含まれる。
 ここで、平面視撮影とは、網膜46に対して、R(赤色)、G(緑色)、及びB(青色)による3原色のレーザ光である3原色レーザ光が2次元状に走査されることで網膜46の平面画像を得るための撮影を指す。本実施形態では、3原色レーザ光を例に挙げて説明するが、本開示の技術はこれに限定されるものではなく、例えば、R、G、及びBのうちの単色によるレーザ光であってもよいし、2色によるレーザ光であってもよい。また、断面視撮影とは、レーザ光である近赤外光(以下、IRレーザ光と称する)が網膜に対して走査されることで網膜46の断層画像を得るための撮影を指す。なお、本明細書において、“IR”とは、“near-infrared”を意味する。
 なお、3原色レーザ光は、本開示の技術に係る「被検眼に対する検査用の光」及び「SLO用光源からの光」の一例である。また、IRレーザ光は、本開示の技術に係る「被検眼に対する検査用の光」及び「OCT用光源からの光」の一例である。以下では、説明の便宜上、「3原色レーザ光」及び「IRレーザ光」を区別して説明する必要がない場合、「検査光」とも称する。以下では、説明の便宜上、IRレーザ光がOCT画像検査で用いられているが、本開示の技術はこれに限定されるものではなく、SLO画像検査でも用いることが可能である。
 眼科システム10は、複数台のウエアラブル端末装置12と、管理装置14と、サーバ装置15と、ビューワ17と、を含む。なお、ウエアラブル端末装置12は、本開示の技術に係る眼科機器の一例である。
 ウエアラブル端末装置12は、本開示の技術に係るアイウエア端末の一例であるアイウエア端末装置16、制御装置18、及び光分岐部20を含む。
 アイウエア端末装置16は、患者に装着される眼鏡型の端末装置の一種である。ここで言う「患者」とは、眼底に疾患を有する患者を指す。なお、患者は、本開示の技術に係る被検者の一例である。
 アイウエア端末装置16は、一般的な眼鏡と同様に、リム22及びテンプル24を備えている。また、アイウエア端末装置16は、光学系27を備えている。
 リム22は、光学系27を保持している。テンプル24は、左側テンプル24Lと右側テンプル24Rとに大別される。左側テンプル24Lの一端部は、リム22の左端部に取り付けられており、右側テンプル24Rは、リム22の右端部に取り付けられている。
 左側テンプル24Lは、耳掛け部24L1を有する。右側テンプル24Rは、耳掛け部24R1を有する。耳掛け部24L1は、患者の左耳に掛けられ、耳掛け部24R1は、患者の右耳に掛けられる。
 耳掛け部24L1には、スピーカ140が設けられている。スピーカ140は、制御装置18の制御下で、音声を出力する。スピーカ140は、患者の鼓膜に音波を直接当てるスピーカであってもよいし、振動を患者の鼓膜に間接的に伝達する骨伝導式のスピーカであってもよい。なお、スピーカ140は、患者の聴覚に働きかけることで患者に情報を通知する通知部の一例である。
 制御装置18は、例えば、患者が把持したり、患者が自身の衣服又は身体等に装着したりして用いられる。制御装置18は、応答ボタン19を備えている。なお、応答ボタン19は、本開示の技術に係る受付部(応答部)の一例である。ここでは、応答ボタン19を例示しているが、本開示の技術はこれに限定されない。例えば、応答ボタン19に代えてタッチパネルを用いてもよいし、患者がレーザ光を知覚したことに応答する場合の患者の音声をマイクで取得し、マイクで取得した音声を認識する音声認識装置を用いてもよい。この場合、タッチパネル及び音声認識装置は、患者からの働きかけに応じて、後述する応答情報を出力する。
 応答ボタン19は、患者によって操作され、患者による操作に応じた情報を出力する。応答ボタン19は、3原色レーザ光が被検眼44(図2参照)の網膜46(図2参照)に照射された場合に3原色レーザ光を患者が検知したか否かの操作を受け付ける。換言すると、応答ボタン19は、患者がレーザ光を知覚したことに応答する場合の患者による操作を受け付ける。すなわち、応答ボタンの応答情報とマーク投影位置情報を対応させる処理を行う。
 応答ボタン19は、医療サービス者の問い掛けに対して患者が応える場合に患者によって押下されることもある。なお、ここで言う「医療サービス者」とは、例えば、眼科で医師の指示のもとに視能検査を行う視機能訓練士の資格を持った医療技術者を指す。応答ボタン19と制御装置18とは無線及び/又は有線通信可能に接続されており、応答ボタン19が操作されたことによる応答情報が制御装置18に送信される。なお、制御装置18には1つの応答ボタン19が機器番号などの番号で対応付けられている。無線通信としては、例えば、Wi-Fi(登録商標)又はBluetooth(登録商標)等による通信が挙げられる。有線通信としては、ケーブルによる通信が挙げられる。
 制御装置18は、管理装置14に対して無線通信可能な状態で接続されており、管理装置14と各種情報の授受を行う。制御装置18は、ケーブル25を介して光分岐部20に接続されており、光分岐部20を制御する。なお、制御装置18は、管理装置14に対して無線通信可能な状態で接続されていてもよい。
 ケーブル25は、光ファイバ30及びバスライン32を含む。制御装置18は、光ファイバ30を介して光分岐部20に検査光を供給し、バスライン32を介して光分岐部20を制御する。
 光学系27は、光分岐部20を備えている。光分岐部20は、ケーブル34,36を介してアイウエア端末装置16に接続されている。ケーブル34は、右側テンプル24Rに接続されており、ケーブル36は、左側テンプル24Lに接続されている。ケーブル34,36は共にバスライン32を含む。従って、制御装置18は、バスライン32を介してアイウエア端末装置16と各種電気信号の授受を行う。
 ケーブル34は、光ファイバ38を含み、ケーブル36は、光ファイバ40を含む。光分岐部20は、制御装置18から光ファイバ30を介して供給された検査光を光ファイバ38及び/又は光ファイバ40に分岐させる。光分岐部20により分岐されて得られた一方の検査光は、光ファイバ38を介してアイウエア端末装置16に供給され、光分岐部20により分岐されて得られた他方の検査光は、光ファイバ40を介してアイウエア端末装置16に供給される。
 光学系27は、反射ミラー42を備えている。反射ミラー42は、本開示の技術に係る反射部材の一例である。反射ミラー42は、光分岐部20からケーブル34,36を介して供給された検査光を反射させることで、一例として図2に示すように検査光を患者の被検眼44の網膜46に導く。なお、一例として図2に示すように、被検眼44は、右眼44Rと左眼44Lとに大別される。また、網膜46は、本開示の技術に係る右側網膜の一例である網膜46Rと、本開示の技術に係る左側網膜の一例である網膜46Lとに大別される。
 反射ミラー42は、右眼用反射ミラー42Rと左眼用反射ミラー42Lとに大別される。右眼用反射ミラー42Rは、アイウエア端末装置16が正しく装着された状態の患者の右眼44Rの前方に位置するようにリム22に保持されている。左眼用反射ミラー42Lは、アイウエア端末装置16が正しく装着された状態の患者の左眼44Lの前方に位置するようにリム22に保持されている。
 右眼用反射ミラー42Rは、光分岐部20から光ファイバ38を介して供給された検査光を反射させることで、一例として図2に示すように、検査光を患者の右眼44Rの網膜46Rに導く。左眼用反射ミラー42Lは、光分岐部20から光ファイバ40を介して供給された検査光を反射させることで、一例として図2に示すように、患者の左眼44Lの網膜46Lに導く。
 アイウエア端末装置16は、右眼用インカメラ48R及び左眼用インカメラ48Lを備えている。右眼用インカメラ48R及び左眼用インカメラ48Lは、制御装置18の制御下で、被写体を撮影する。
 右眼用インカメラ48R及び左眼用インカメラ48Lは、リム22の上縁部に取り付けられている。右眼用インカメラ48Rは、Y方向において右眼用反射ミラー42Rとずれた位置に設けられており、右眼44Rの前方領域の斜め上方から被写体として右眼44Rの前眼部を撮影する。左眼用インカメラ48Lは、Y方向において左眼用反射ミラー42Lとずれた位置に設けられており、左眼44Lの前方領域の斜め上方から被写体として左眼44Lの前眼部を撮影する。なお、右眼用インカメラ48R及び左眼用インカメラ48Lは、本開示の技術に係る前眼部カメラの一例である。また、ここでは、右眼用インカメラ48R及び左眼用インカメラ48Lを例示したが、本開示の技術はこれに限定されない。例えば、右眼用インカメラ48R及び左眼用インカメラ48Lに代えて、右眼44Rの前眼部と左眼44Lの前眼部との双方を撮影する単一のカメラを適用してもよい。
 管理装置14は、複数台のウエアラブル端末装置12の各々による眼科検査の管理を一元的に行う。ここで、ウエアラブル端末装置12による眼科検査とは、換言すると、ウエアラブル端末装置12を用いた眼科検査を意味する。また、ここで、眼科検査の管理とは、例えば、眼科検査に用いられる検査光の管理、3原色レーザ光が網膜46に照射されることで、照射された3原色レーザ光を患者が視覚的に知覚したことを示す知覚情報の管理、ウエアラブル端末装置12との通信の管理、及び、ウエアラブル端末装置12による眼科検査の進捗状況をウエアラブル端末装置12毎に把握して後述する進捗状況画面190を表示する管理等を含む管理を指す。
 制御装置18は、管理装置14からの指示に従って、検査光を、光ファイバ30,38,40を介してアイウエア端末装置16に供給する。
 なお、本実施形態では、ウエアラブル端末装置12と管理装置14との間で無線通信が行われる例を挙げて説明しているが、本開示の技術はこれに限定されるものではない。例えば、ウエアラブル端末装置12と管理装置14との間で有線通信が行われるようにしてもよい。
 サーバ装置15は、管理装置14及び/又はビューワ17等の外部装置からの要求に応じた情報の提供及び/又は情報処理を行い、且つ、複数の患者の個人情報を一元的に管理する。サーバ装置15は、ケーブル23を介して管理装置14及びビューワ17に接続されており、管理装置14及びビューワ17の各々との間で各種情報の授受を行う。ケーブル23の一例としては、LANケーブルが挙げられる。なお、本実施形態では、サーバ装置15と管理装置14との間で有線通信が行われる場合を例示しているが、本開示の技術はこれに限定されるものではなく、サーバ装置15と管理装置14との間で無線通信が行われるようにしてもよい。
 一例として図2に示すように、光学系27は、検査光を網膜46R及び/又は網膜46Lに導く。光学系27は、スキャナ28及び反射ミラー42を有する。スキャナ28は、制御装置18から光分岐部20を介いて供給された検査光を走査する。反射ミラー42は、スキャナ28により走査された検査光を網膜46に反射させる。
 光学系27は、右眼用光学系27Rと左眼用光学系27Lとを有する。光分岐部20は、制御装置18から光ファイバ30を介して供給された検査光を右眼用光学系27Rと左眼用光学系27Lとに分岐させる。
 右眼用光学系27Rは、光分岐部20から光ファイバ38を介して供給された検査光を網膜46Rに導く。左眼用光学系27Lは、光分岐部20から光ファイバ40を介して供給された検査光を網膜46Lに導く。
 スキャナ28は、右眼用スキャナ28Rと左眼用スキャナ28Lとを有する。右眼用光学系27Rは、右眼用スキャナ28Rと右眼用反射ミラー42Rとを有する。左眼用光学系27Lは、左眼用スキャナ28Lと左眼用反射ミラー42Lとを有する。
 右眼用スキャナ28Rは、MEMSミラー54,56を有し、右眼用光授受部52を介して供給されたレーザ光を走査する。右眼用光授受部52は、レーザ光分岐部20から光ファイバ38を介して供給されたレーザ光を照射する。右眼用光授受部52によるレーザ光の照射方向には、MEMSミラー54が配置されており、MEMSミラー54は、右眼用光授受部52から照射されたレーザ光を反射させることで、MEMSミラー56に導く。MEMSミラー56は、MEMSミラー54によって導かれたレーザ光を反射させることで、右眼用反射ミラー42Rに導く。
 ここで、例えば、MEMSミラー54はY方向にレーザ光を走査し、MEMSミラー56はX方向にレーザ光を走査する。MEMSミラー54,56により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
 なお、MEMSミラー54をX方向の走査とし、MEMSミラー56をY方向の走査とするようにしてもよいことは言うまでもない。
 更に、右眼用スキャナ28Rは、反射ミラー42RとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
 右眼用反射ミラー42Rは、右眼用スキャナ28Rにより走査された検査光を網膜46Rに反射させる。
 また、右眼用光授受部52は、後述の右眼底光を取り込み、取り込んだ右眼底光を光ファイバ38、光分岐部20、及び光ファイバ30を介して光管理部116に供給する。
 右眼用反射ミラー42Rは、湾曲面42R1を有する。湾曲面42R1は、アイウエア端末装置16が装着された状態の患者の右眼44Rから見て凹状に形成された面であり、MEMSミラー56によって導かれた検査光を反射させることで、右眼44Rの瞳孔下の水晶体64Rを通して右眼44Rの網膜46Rに検査光を導く。
 左眼用スキャナ28Lは、MEMSミラー60,62を有し、左眼用光授受部58を介して供給されたレーザ光を走査する。左眼用光授受部58は、レーザ光分岐部20から光ファイバ40を介して供給されたレーザ光を照射する。左眼用光授受部58によるレーザ光の照射方向には、MEMSミラー60が配置されており、MEMSミラー60は、左眼用光授受部58から照射されたレーザ光を反射させることで、MEMSミラー62に導く。MEMSミラー62は、MEMSミラー60によって導かれたレーザ光を反射させることで、左眼用反射ミラー42Lに導く。
 ここで、例えば、MEMSミラー60はY方向にレーザ光を走査し、MEMSミラー62はX方向にレーザ光を走査する。MEMSミラー60,62により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
 なお、MEMSミラー60をX方向の走査、MEMSミラー62をY方向の走査とするようにしてもよいことは言うまでもない。
 更に、左眼用スキャナ28Lは、反射ミラー42LとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
 図2に示す例では、MEMSミラー54,56,60,62が例示されているが、本開示の技術はこれに限定されるものではない。例えば、MEMSミラー54,56,60,62に代えて、又は、MEMSミラー54,56,60,62のうちの少なくとも1つと共に、ガルバノミラー及び/又はポリゴンミラー等の、電気的に反射面の位置を制御可能なミラーを用いてもよい。
 左眼用反射ミラー42Lは、左眼用スキャナ28Lにより走査された検査光を網膜46Lに反射させる。
 また、左眼用光授受部58は、後述の左眼底光を取り込み、取り込んだ左眼底光を光ファイバ40、光分岐部20、及び光ファイバ30を介して光管理部116に供給する。
 左眼用反射ミラー42Lは、湾曲面42L1を有する。湾曲面42L1は、アイウエア端末装置16が装着された状態の患者の左眼44Lから見て凹状に形成された面であり、MEMSミラー62によって導かれた検査光を反射させることで、左眼46Rの瞳孔下の水晶体64Lを通して左眼44Lの網膜46Lに検査光を導く。
 なお、以下では、説明の便宜上、水晶体64R,64Lを区別して説明する必要がない場合、「水晶体64」と称する。
 光学系27は、右眼用スライド機構70R、左眼用スライド機構70L、右眼用駆動源72R、及び左眼用駆動源72Lを備えている。右眼用駆動源72R及び左眼用駆動源72Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。なお、以下では、説明の便宜上、右眼用駆動源72R及び左眼用駆動源72Lを区別して説明する必要がない場合、「ミラー駆動源72」と称する。
 右眼用スライド機構70Rは、リム22に取り付けられており、右眼用反射ミラー42Rを左右方向にスライド可能に保持している。右眼用スライド機構70Rは、右眼用駆動源72Rに接続されており、右眼用駆動源72Rによって生成された動力を受けることで、右眼用反射ミラー42Rを左右方向にスライドさせる。
 左眼用スライド機構70Lは、リム22に取り付けられており、左眼用反射ミラー42Lを左右方向にスライド可能に保持している。左眼用スライド機構70Lは、左眼用駆動源72Lに接続されており、左眼用駆動源72Lによって生成された動力を受けることで、左眼用反射ミラー42Lを左右方向にスライドさせる。
 なお、本実施形態に係る眼科システム10では、マックスウェル視光学系によって被検眼44の網膜46に対してレーザ光に基づく映像が投影される。ここで言う「マックスウェル視光学系」とは、被検眼44の瞳孔下の水晶体64でレーザ光が収束され、水晶体64で収束されたレーザ光が被検眼44の網膜46に照射されることで、レーザ光に基づく映像が被検眼44の網膜46に投影される光学系を指す。本実施形態に係る眼科システム10では、スキャナ28及びミラー駆動源72が制御装置18によって制御されることで、マックスウェル視光学系が実現される。
 一例として図3に示すように、管理装置14は、主制御部80、無線通信部82、受付デバイス84、タッチパネル・ディスプレイ86、及び外部I/F88を備えている。なお、主制御部80は、本開示の技術に係る管理装置側制御部の一例である。
 主制御部80は、CPU90、一次記憶部92、二次記憶部94、バスライン96、及びI/O98を含む。CPU90、一次記憶部92、及び二次記憶部94は、バスライン96を介して接続されている。バスライン96には、I/O98が接続されている。なお、本実施形態では、CPU90として単数のCPUを採用しているが、CPU90に代えて複数のCPUを採用してもよい。
 CPU90は、管理装置14の全体を制御する。一次記憶部92は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部92の一例としては、RAMが挙げられる。二次記憶部94は、管理装置14の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部94の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
 無線通信部82は、I/O98に接続されている。CPU90は、制御装置18への送信対象とされる電気信号を無線通信部82に出力する。無線通信部82は、CPU90から入力された電気信号を電波で制御装置18に送信する。また、無線通信部82は、制御装置18からの電波を受信し、受信した電波に応じた電気信号をCPU90に出力する。なお、無線通信部82は、本開示の技術に係る通信部の一例である。すなわち、無線通信部82は、ウエアラブル端末装置12に対して、後述の制御部170(図14参照)を制御する制御情報であって、患者の両眼のうちの眼科検査の検査対象眼を指示する指示情報を有する制御情報をウエアラブル端末装置12に対して送信する。
 受付デバイス84は、タッチパネル84A、キーボード84B、及びマウス84Cを含み、タッチパネル84A、キーボード84B、及びマウス84Cは、I/O98に接続されている。従って、CPU90は、タッチパネル84A、キーボード84B、及びマウス84Cの各々によって受け付けられた各種指示を把握することができる。
 外部I/F88は、サーバ装置15、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU90との間の各種情報の送受信を司る。なお、図3に示す例では、外部I/F88は、ケーブル23を介してサーバ装置15に接続されている。
 タッチパネル・ディスプレイ86は、ディスプレイ86A及びタッチパネル84Aを含む。ディスプレイ86Aは、本開示の技術に係る表示部の一例である。ディスプレイ86Aは、I/O98に接続されており、CPU90の制御下で、映像を含む各種情報を表示する。タッチパネル84Aは、透過型のタッチパネルであり、ディスプレイ86Aに重ねられている。
 二次記憶部94は、端末管理プログラム94A、表示制御プログラム94B、及び通信エラー対応プログラム94Cを記憶している。以下では、説明の便宜上、端末管理プログラム94A、表示制御プログラム94B、及び通信エラー対応プログラム94Cを区別して説明する必要がない場合、これらを「管理装置側プログラム」と称する。
 CPU90は、二次記憶部94から管理装置側プログラムを読み出し、読み出した管理装置側プログラムを一次記憶部92に展開する。そして、CPU90は、一次記憶部92に展開した管理装置側プログラムを実行する。
 制御装置18は、前述した応答ボタン19の他に、主制御部110、無線通信部112、及び光管理部116を備えている。主制御部110、無線通信部112、及び光管理部116は、同一の筐体内に収容されている。なお、主制御部110は、本開示の技術に係る制御部の一例である。
 主制御部110は、CPU120、一次記憶部122、二次記憶部124、バスライン126、及びI/O128を含む。CPU120、一次記憶部122、及び二次記憶部124は、バスライン126を介して接続されている。バスライン126には、I/O128が接続されている。なお、本実施形態では、CPU120として単数のCPUを採用しているが、CPU120に代えて複数のCPUを採用してもよい。
 CPU120は、ウエアラブル端末装置12の全体を制御する。一次記憶部122は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部122の一例としては、RAMが挙げられる。二次記憶部124は、ウエアラブル端末装置12の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部124の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
 応答ボタン19は、I/O128に接続されており、応答ボタン19が押下されると、応答信号が応答ボタン19からCPU120に出力される。
 無線通信部112は、ウエアラブル端末装置12による眼科検査の管理を管理装置14に対して行わせるように管理装置14との間で無線通信を行う。無線通信部112は、I/O128に接続されている。CPU120は、管理装置14への送信対象とされる電気信号を無線通信部112に出力する。無線通信部112は、CPU120から入力された電気信号を電波で管理装置14に送信する。また、無線通信部112は、管理装置14からの電波を受信し、受信した電波に応じた電気信号をCPU120に出力する。
 光管理部116は、本開示の技術に係る射出部の一例であり、光ファイバ30を介して光分岐部20に接続されている。光管理部116は、検査光を生成し、生成した検査光を、光ファイバ30を介して光分岐部20に射出する。
 一例として図5に示すように、光管理部116は、光源114、光源制御回路115、及び光検出部117を備えている。光源制御回路115は、I/O128に接続されている。また、光源制御回路115は、光源114に接続されている。光源制御回路115は、CPU120の指示に従って光源制御信号を光源114に供給することで、光源114を制御する。
 光源114は、レーザ光源ユニット113、IRレーザ光源114D、及びミラーユニット130を含む。レーザ光源ユニット113は、本開示の技術に係る第1光源及びSLO用光源の一例であり、IRレーザ光源114Dは、本開示の技術に係る第2光源及びOCT用光源の一例である。レーザ光源ユニット113は、R光源114A、G光源114B、及びB光源114Cを備えており、可視光を発する。
 R光源114Aは、R、G、及びBのうちのRのレーザ光であるRレーザ光を射出する。G光源114Bは、R、G、及びBのうちのGのレーザ光であるGレーザ光を射出する。B光源114Cは、R、G、及びBのうちのBのレーザ光であるBレーザ光を射出する。IRレーザ光源114Dは、IRレーザ光を射出する。
 ミラーユニット130は、第1ミラー130A、第2ミラー130B、及び第3ミラー130Cを備えている。第1ミラー130A、第2ミラー130B、及び第3ミラー130Cのうち、第2ミラー130Bは、ダイクロイックミラーであり、Bレーザ光を透過させ、且つ、Gレーザ光を反射する。第3ミラー130Cは、ダイクロイックミラーであり、Rレーザ光を透過させ、且つ、Gレーザ光及びBレーザ光を反射する。
 第1ミラー130Aは、B光源114CによるBレーザ光の射出方向に配置されており、B光源114Cから射出されたBレーザ光を反射させることで、第2ミラー130BにBレーザ光を導く。
 第2ミラー130Bは、G光源114BによるGレーザ光の射出方向であり、且つ、第1ミラー130Aで反射されたBレーザ光の進行方向に配置されている。第2ミラー130Bは、G光源114Bから射出されたGレーザ光を反射させることで、第1ミラー130AにGレーザ光を導き、且つ、第1ミラー130Aで反射されたBレーザ光を透過させることで、第1ミラー130AにBレーザ光を導く。
 第3ミラー130Cは、R光源114AによるRレーザ光の射出方向であり、且つ、第2ミラー130Bで反射されたGレーザ光の進行方向であり、且つ、第2ミラー130Bを透過したGレーザ光の進行方向に配置されている。第3ミラー130Cは、R光源114Aから射出されたRレーザ光を透過させる。また、第3ミラー130Cは、Rレーザ光と同方向にGレーザ光及びBレーザ光を反射させることで、Rレーザ光、Gレーザ光及びBレーザ光を外部に射出する。従って、光源114からは外部に3原色レーザ光が射出される。
 光検出部117は、ビームスプリッタ129,135及びミラー137,143を備えている。また、光検出部117は、SLO光検出部131及びOCT光検出部133を備えている。
 ビームスプリッタ135は、光源114から射出されたIRレーザ光の射出方向に配置されている。ミラー137は、光源114から射出された3原色レーザ光の射出方向に配置されている。ビームスプリッタ135は、光源114からのIRレーザ光の一部を反射させることでミラー137に導き、且つ、IRレーザ光の一部を透過させることで参照光としてOCT光検出部133に供給される。
 ミラー137は、ダイクロイックミラーであり、光源114からのレーザ光を透過させ、且つ、ビームスプリッタ135によって導かれたIRレーザ光を反射させる。
 ビームスプリッタ129は、ダイクロイックミラーであり、ミラー137によって導かれた検査光の進行方向、すなわち、ミラー137を透過したレーザ光及びミラー137によって反射されたIRレーザ光の進行方向に配置されている。
 ビームスプリッタ129は、ミラー137によって導かれた検査光を反射させることで、検査光を光ファイバ30に導く。また、ビームスプリッタ129は、眼底光を透過させる。眼底光とは、被検眼44の眼底からの反射光を指す。眼底光は、光ファイバ30からビームスプリッタ129に導かれる。なお、検査光は、左眼用光と右眼用光とに大別される。ここで、左眼用光とは、左眼用光学系27Lに対して用いられる検査光を指し、右眼用光とは、右眼用光学系27Rに対して用いられる検査光を指す。
 なお、眼底光は、左眼底光と右眼底光とに大別される。左眼底光とは、左眼44Lの眼底からの反射光、すなわち、左眼用光が左眼44Lの眼底(例えば、網膜46L(図2参照))で反射されて得られた光を指す。右眼底光とは、右眼44Rの眼底からの反射光、すなわち、右眼用光が右眼44Rの眼底(例えば、網膜46R(図2参照))で反射されて得られた光を指す。
 左眼底光は、左眼44LがSLO撮影された場合の左眼SLO光と左眼44LがOCT撮影された場合の左眼OCT光(信号光)とに大別される。ここで、SLO撮影とは、網膜46を被写体としたSLOによる撮影を指す。OCT撮影とは、網膜46を被写体としたOCTによる撮影を指す。左眼SLO光とは、レーザ光が網膜46Lで反射されて得られた光を指す。左眼OCT光とは、IRレーザ光が網膜46Lで反射されて得られた光を指す。
 右眼底光は、右眼44RがSLO撮影された場合の右眼SLO光と右眼44RがOCT撮影された場合の右眼OCT光(信号光)とに大別される。右眼SLO光とは、レーザ光が網膜46Rで反射されて得られた光を指す。右眼OCT光とは、IRレーザ光が網膜46Rで反射されて得られた光を指す。
 なお、以下では、説明の便宜上、左眼SLO光と右眼SLO光とを区別して説明する必要がない場合、「SLO光」と称する。また、以下では、説明の便宜上、左眼OCT光と右眼OCT光とを区別して説明する必要がない場合、「OCT光」と称する。
 ミラー143は、ダイクロイックミラーであり、SLO撮影の場合はSLO光(信号光)をSLO光検出部131に導き、COT撮影の場合はOCT光(信号光)をOCT光検出部133に導き、同じ眼でSLO撮影とOCT撮影とが同時に行われる場合は眼底光をSLO光とOCT光とに分離し、SLO光を光検出部131に導き、OCT光をOCT光検出部133に導く。すなわち、ミラー143は、ビームスプリッタ129を透過した右眼底光のうちの右眼SLO光を反射させることでSLO光検出部131に導き、右眼OCT光を透過させることでOCT光検出部133に導く。また、ミラー143は、ビームスプリッタ129を透過した左眼底光のうちの左眼SLO光を反射させることでSLO光検出部131に導き、左眼OCT光を透過させることでOCT光検出部133に導く。
 SLO光検出部131は、SLO光を検出する。SLO光検出部131は、I/O128に接続されており、SLO光の検出結果を示すSLO検出情報をCPU120に出力する。なお、SLO検出情報は、左眼SLO光の検出結果を示す左眼SLO検出情報と右眼SLO光の検出結果を示す右眼SLO検出情報とに大別される。本実施形態では、SLO検情報に基づいて平面の二次元眼底画像が生成される。
 OCT光検出部133は、参照光とOCT光(信号光)とが干渉した干渉光を検出する。OCT光検出部133は、I/O128に接続されており、干渉光の検出結果を示すOCT検出情報をCPU120に出力する。なお、OCT検出情報は、左眼OCT光に基づく検出結果を示す左眼OCT検出情報と右眼OCT光に基づく検出結果を示す右眼OCT検出情報とに大別され、網膜46の断面画像及び/又は網膜46の立体形状を示す立体画像を描画するためのOCTデータを含む。
 一例として図3に示すように、バスライン32は、I/O128に接続されており、光分岐部20は、バスライン32に接続されている。従って、光分岐部20は、CPU120の制御下で動作する。
 一例として図6に示すように、光分岐部20は、右眼用シャッタ121R、左眼用シャッタ121L、第3スライド機構122R、第4スライド機構122L、右眼シャッタ用駆動源134R、左眼シャッタ用駆動源134L、ビームスプリッタ136、及び反射ミラー138を備えている。
 なお、以下では、説明の便宜上、右眼用シャッタ121R及び左眼用シャッタ121Lを区別して説明する必要がない場合、「シャッタ121」と称する。
 ビームスプリッタ136は、光管理部116から光ファイバ30を介して供給された検査光である左眼用光を反射させ、且つ、透過させる。ビームスプリッタ136で反射した左眼用光は、光ファイバ40(図1及び図2参照)に向けて進行する。また、ビームスプリッタ136には、光ファイバ40を介して左眼底光が供給され、ビームスプリッタ136は、左眼底光を反射させることで光ファイバ30に導く。
 反射ミラー138は、ビームスプリッタ136を透過した検査光である右眼用光を反射させる。反射ミラー138で反射した右眼用光は、光ファイバ38(図1及び図2参照)に向けて進行する。また、ビームスプリッタ136には、光ファイバ38を介して右眼底光が供給され、ビームスプリッタ136は、右眼底光を反射させることで光ファイバ30に導く。
 第3スライド機構122Rは、右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライド可能に保持している。第1位置P1とは、右眼用光を通過させて光ファイバ38に導き、右眼底光を通過させて反射ミラー138に導く位置を指し、第2位置P2とは、右眼用光及び右眼底光を遮蔽する位置を指す。
 第4スライド機構122Lは、左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライド可能に保持している。第3位置P3とは、左眼用光を通過させて光ファイバ40に導き、左眼底光を通過させてビームスプリッタに導く位置を指し、第4位置P4とは、左眼用光及び左眼底光を遮蔽する位置を指す。
 右眼シャッタ用駆動源134R及び左眼シャッタ用駆動源134Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。右眼シャッタ用駆動源134R及び左眼シャッタ用駆動源134Lは、バスライン32に接続されており、右眼シャッタ用駆動源134R及び左眼シャッタ用駆動源134Lは、CPU120の制御下で作動する。
 第3スライド機構122Rは、右眼シャッタ用駆動源134Rに接続されており、右眼シャッタ用駆動源134Rによって生成された動力を受けることで右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライドさせる。
 第4スライド機構122Lは、左眼シャッタ用駆動源134Lに接続されており、左眼シャッタ用駆動源134Lによって生成された動力を受けることで左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライドさせる。
 なお、図6に示す例では、右眼用シャッタ121Rが第1位置P1に配置されているので、右眼用光は光ファイバ38に供給され、右眼底光が反射ミラー138に導かれる。また、図6に示す例では、左眼用シャッタ121Lが第4位置P4に配置されているので、左眼用光及び左眼底光は左眼用シャッタ121Lによって遮蔽される。
 一例として図3に示すように、スピーカ140は、バスライン32に接続されており、CPU120の制御下で音声を出力する。
 バスライン32には、右眼用駆動源72R及び左眼用駆動源72Lが接続されており、CPU120は、右眼用駆動源72R及び左眼用駆動源72Lを制御する。
 バスライン32には、右眼用インカメラ48R及び左眼用インカメラ48Lが接続されており、CPU120は、左眼用インカメラ48L及び右眼用インカメラ48Rとの間で各種情報の授受を行う。
 バスライン32には、右眼用光授受部52、左眼用光授受部58、及びMEMSミラー54,56,60,62が接続されており、CPU120は、右眼用光授受部52、左眼用光授受部58、及びMEMSミラー54,56,60,62を制御する。
 バスライン32には、装着検出器139が接続されている。装着検出器139は、例えば、感圧センサである。装着検出器139は、アイウエア端末装置16のフレームに設けられており、アイウエア端末装置16が正しく装着されたことを検出する。CPU120は、装着検出器139での検出結果を取得する。なお、アイウエア端末装置350のフレームとは、例えば、リム22及びテンプル24を指す。
 二次記憶部124は、端末側プログラム124Aを記憶している。CPU120は、二次記憶部124から端末側プログラム124Aを読み出し、読み出した端末側プログラム124Aを一次記憶部122に展開する。そして、CPU120は、一次記憶部122に展開した端末側プログラム124Aを実行する。
 一例として図4に示すように、サーバ装置15は、主制御部150、受付デバイス154、タッチパネル・ディスプレイ156、及び外部I/F158を備えている。
 主制御部150は、CPU160、一次記憶部162、二次記憶部164、バスライン166、及びI/O168を含む。CPU160、一次記憶部162、及び二次記憶部164は、バスライン166を介して接続されている。バスライン166には、I/O168が接続されている。なお、本実施形態では、CPU160として単数のCPUを採用しているが、CPU160に代えて複数のCPUを採用してもよい。
 CPU160は、サーバ装置15の全体を制御する。一次記憶部162は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部162の一例としては、RAMが挙げられる。二次記憶部164は、サーバ装置164の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部164の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
 受付デバイス154は、タッチパネル154A、キーボード154B、及びマウス154Cを含み、タッチパネル154A、キーボード154B、及びマウス154Cは、I/O168に接続されている。従って、CPU160は、タッチパネル154A、キーボード154B、及びマウス154Cの各々によって受け付けられた各種指示を把握することができる。
 外部I/F158は、管理装置14、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU160との間の各種情報の送受信を司る。なお、図4に示す例では、外部I/F158は、ケーブル23を介して管理装置14の外部I/F88に接続されている。
 タッチパネル・ディスプレイ156は、ディスプレイ156A及びタッチパネル154Aを含む。ディスプレイ86Aは、I/O168に接続されており、CPU160の制御下で、映像を含む各種情報を表示する。タッチパネル154Aは、透過型のタッチパネルであり、ディスプレイ156Aに重ねられている。
 二次記憶部164は、患者情報164A及びサーバ側プログラム164Bを記憶している。
 患者情報164Aは、患者に関する情報である。本実施形態において、患者情報164Aには、患者のプロフィール情報164A1(例えば、患者を特定するID、患者の名前、患者の性別、患者の年齢、身体情報、過去の治療歴、来院状況など現在の患者情報から、疾患のリスクや身体状態など)と、患者に対して行われた検眼情報164A2(例えば、角膜屈折力、角膜波面収差、視力、近視/遠視/乱視、視野、眼軸長、眼底写真などの別の検眼機器(屈折力測定器、眼軸長測定器、視力検査器、前眼部測定器、後眼部測定器など)により得られた患者の右眼/左眼に関する情報)と、を含む。
 一例として図4に示すように、ビューワ17は、主制御部17A、タッチパネル・ディスプレイ17B、受付デバイス17D、及び外部I/F17Mを備えている。
 主制御部17Aは、CPU17H、一次記憶部17I、二次記憶部17J、バスライン17K、及びI/O17Lを含む。CPU17H、一次記憶部17I、及び二次記憶部17Jは、バスライン17Kを介して接続されている。バスライン17Kには、I/O17Lが接続されている。なお、本実施形態では、CPU17Hとして単数のCPUを採用しているが、CPU17Hに代えて複数のCPUを採用してもよい。
 CPU17Hは、ビューワ17の全体を制御する。一次記憶部17Iは、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部17Iの一例としては、RAMが挙げられる。二次記憶部17Jは、ビューワ17の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部17Jの一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。二次記憶部164は、ビューワ側プログラム17J1を記憶している。
 受付デバイス17Dは、タッチパネル17E、キーボード17F、及びマウス17Gを含み、タッチパネル17E、キーボード17F、及びマウス17Gは、I/O17Lに接続されている。従って、CPU17Hは、タッチパネル17E、キーボード17F、及びマウス17Gの各々によって受け付けられた各種指示を把握することができる。
 外部I/F17Mは、管理装置14、サーバ装置15、パーソナル・コンピュータ、及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU17Hとの間の各種情報の送受信を司る。なお、図4に示す例では、外部I/F17Mは、ケーブル23を介して管理装置14の外部I/F88及びサーバ装置15の外部I/F158に接続されている。
 タッチパネル・ディスプレイ17Bは、ディスプレイ17C及びタッチパネル17Eを含む。ディスプレイ17Cは、I/O17Lに接続されており、CPU17Hの制御下で、映像を含む各種情報を表示する。タッチパネル17Eは、透過型のタッチパネルであり、ディスプレイ17Cに重ねられている。
 CPU160は、二次記憶部164からサーバ側プログラム164Bを読み出し、読み出したサーバ側プログラム164Bを一次記憶部162に展開する。そして、CPU160は、一次記憶部162に展開したサーバ側プログラム164Bを実行する。
 ウエアラブル端末装置12に含まれる主制御部110のCPU120は、端末側プログラム124Aを実行することで、一例として図14に示すように、制御部170及び処理部171として動作する。
 処理部171は、CPU120を制御部170として動作させるために必要な処理を行う。制御部170は、検査光が網膜46R及び/又は網膜46Lに対して照射されるように光管理部116及び光学系27を制御する。
 管理装置14に含まれる主制御部80のCPU90は、端末管理プログラム94Aを実行することで、一例として図14に示すように、処理部180及び取得部182として動作する。また、CPU90は、表示制御プログラム94Bを実行することで、一例として図15に示すように、処理部180及び表示制御部184として動作する。
 処理部180は、CPU90を取得部182及び表示制御部184として動作させるために必要な処理を行う。取得部182は、無線通信部82,112を介してウエアラブル端末装置12と管理装置14とが通信を行うことで、知覚情報及び/又は眼底画像情報をウエアラブル端末装置12から取得する。ここで、眼底画像情報とは、例えば、後述の視野欠損マップ情報、SLO画像、及びOCT画像を指す。
 表示制御部184は、眼科検査の進捗状況に応じた画面である進捗状況画面190(図13参照)を生成し、生成した進捗状況画面190を含む画像を示す画像信号を出力する。ディスプレイ86Aは、表示制御部184から入力された画像信号に基づいて進捗状況画面190を表示する。すなわち、表示制御部184は、ディスプレイ86Aに対して、進捗状況画面190を表示させるように、ディスプレイ86Aを制御する。表示制御部184は、無線通信部82,112を介してウエアラブル端末装置12と管理装置14とが通信を行うことで、ウエアラブル端末装置12から眼科検査の進捗状況を示す進捗状況情報を取得する。表示制御部184は、進捗状況情報に基づいて進捗状況画面190を生成し、生成した進捗状況画面190をディスプレイ86Aに対して表示させるようにディスプレイ86Aを制御する。
 なお、本実施形態では、一例として図13に示すように、進捗状況画面190は、第1進捗状況画面190A、第2進捗状況画面190B、第3進捗状況画面190C、第4進捗状況画面190D、第5進捗状況画面190E、及び第6進捗状況画面190Fに大別される。すなわち、ディスプレイ86Aには、第1進捗状況画面190A、第2進捗状況画面190B、第3進捗状況画面190C、第4進捗状況画面190D、第5進捗状況画面190E、及び第6進捗状況画面190Fが表示される。
 次に、眼科システム10の本開示の技術に係る部分の作用について説明する。
 先ず、端末管理処理の実行開始の指示が受付デバイス84によって受け付けられた場合にCPU90が端末管理プログラム94Aを実行することで実現される端末管理処理について図7A及び図7Bを参照して説明する。
 また、以下では、説明の便宜上、少なくとも1名の患者がウエアラブル端末装置12を適切に装備していることを前提として説明する。
 また、以下では、説明の便宜上、固視標が患者に対して視認可能な状態で提示されていることを前提として説明する。
 図7Aに示す端末管理処理では、先ず、ステップ200で、処理部180は、受付デバイス84及び/又はサーバ装置15によって必要な情報が全て受け付けられたか否かを判定する。ここで言う「必要な情報」とは、検査対象眼指示情報、患者ID、及びアイウエアID等の眼科検査に要する情報を指す。検査対象眼指示情報とは、右眼44R及び左眼44Lのうちの検査対象の被検眼44を指示する情報を指す。患者IDとは、患者を一意に特定可能な情報を指す。アイウエアIDとは、患者に装着されたウエアラブル端末装置12を一意に特定可能な情報を指す。
 ステップ200において、受付デバイス84によって必要な情報が全て受け付けられていない場合は、判定が否定されて、ステップ202へ移行する。
ステップ200において、受付デバイス84によって必要な情報が全て受け付けられた場合は、判定が肯定されて、ステップ206へ移行する。
 ステップ202で、処理部180は、不足情報をディスプレイ86Aに対して表示させ、その後、ステップ204へ移行する。ここで、不足情報とは、例えば、眼科検査に要する情報として不足している情報が何かを示すメッセージを指す。
 ステップ204で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。端末管理処理に係る終了条件とは、端末管理処理を終了する条件を指す。端末管理処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は端末管理処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
 ステップ204において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ200へ移行する。ステップ204において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
 ステップ206で、処理部180は、患者情報164Aの送信を要求する送信要求情報をサーバ装置15に送信し、その後、ステップ208へ移行する。
 本ステップ206の処理が実行されることで、後述のサーバ側処理に含まれるステップ256の処理によりサーバ装置15から患者情報等が送信される。
 ここで、患者情報等とは、少なくとも患者情報164A及び検査手順情報を含む情報を指す。検査手順情報には、視野検査を行うか否かを示す情報、SLO画像検査を行うか否かを示す情報、及びOCT画像検査を行うか否かの情報が含まれる。また、検査手順情報には、順序パターン情報も含まれる。順序パターン情報とは、視野検査、SLO画像検査、及びOCT画像検査のうちの複数の検査を行う順序のパターン(以下、「順序パターン」と称する)を示す情報を指す。
 順序パターンとしては、例えば、右眼44R及び左眼44Lの各々に対して、視野検査、SLO画像検査、及びOCT画像検査のうちの少なくとも2つの検査を組み合わせたパターンが挙げられる。なお、以下では、説明の便宜上、視野検査のみを行う場合、SLO画像検査のみを行う場合、OCT画像検査のみを行う場合、視野検査、そしてSLO画像検査、その次にOCT画像検査の順で検査を行う場合を例に挙げて説明する。
 ステップ208で、処理部180は、図10に示すサーバ側処理に含まれるステップ255Aの処理が実行されることで送信された患者情報等が無線通信部82によって受信されたか否かを判定する。ステップ208において、患者情報等が受信されていない場合は、判定が否定されて、ステップ210へ移行する。ステップ206において、患者情報等が受信された場合は、判定が肯定されて、ステップ212へ移行する。
 ステップ210で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ210において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ208へ移行する。ステップ210において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
 ステップ212で、処理部180は、無線通信部82,112を介して制御装置18と通信を行うことで、アイウエア端末装置16が患者に正しく装着されているか否かを判定する。ステップ212において、アイウエア端末装置16が患者に正しく装着されていない場合は、判定が否定されて、ステップ214へ移行する。ステップ212において、アイウエア端末装置16が患者に正しく装着されている場合は、判定が肯定されて、ステップ216へ移行する。なお、アイウエア端末装置16が患者に正しく装着されているか否かは、装着検出器139による検出結果に基づいて判定される。
 ステップ214で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ214において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ212へ移行する。ステップ214において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
 ステップ216で、処理部180は、制御装置18と無線通信を行うことで、右眼用インカメラ48R及び左眼用インカメラ48Lに対して、被検眼44の前眼部の撮影を開始させ、その後、図7Bに示すステップ217へ移行する。
 以下では、説明の便宜上、右眼用インカメラ48Rによって右眼44Rの前眼部が撮影されて得られた画像を右眼前眼部画像と称し、左眼用インカメラ48Lによって左眼44Lの前眼部が撮影されて得られた画像を左眼前眼部画像と称する。また、以下では、説明の便宜上、右眼前眼部画像及び左眼前眼部画像を区別して説明する必要がない場合、単に「前眼部画像」と称する。
 なお、本実施形態において、左眼用インカメラ48Lによる左眼44Lの前眼部の撮影、及び右眼用インカメラ48Rによる右眼44Rの前眼部の撮影は、60fps(フレーム/秒)のフレームレートで行われる。すなわち、左眼用インカメラ48L及び右眼用インカメラ48Rを作動させることにより、被検眼44の前眼部を被写体とした動画像が処理部180によって取得される。
 ステップ217で、処理部217は、調整指示情報をウエアラブル端末装置12に送信し、その後、ステップ218へ移行する。ここで、調整指示情報とは、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しをウエアラブル端末装置12に指示する情報を指す。
 ステップ218(図7B参照)で、処理部180は、制御装置18と無線通信を行うことで、スピーカ140に対してテスト用の音声を出力させ、スピーカ140の音声が良好か否かを判定する。テスト用の音声とは、例えば、「音が聞こえたら応答ボタンを押して下さい」等の音声を指す。従って、例えば、スピーカ140の音声が良好か否かは、スピーカ140からテスト用の音声が出力されている間に、患者によって応答ボタン19が押されたか否かによって判定される。
 ステップ218において、スピーカ140の音声が良好でない場合は、判定が否定されて、ステップ220へ移行する。ステップ218において、スピーカ140の音声が良好の場合は、判定が肯定されて、ステップ222へ移行する。
 ステップ220で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ220において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ218へ移行する。ステップ220において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
 ステップ222で、処理部180は、ステップ208で受信された患者情報等に含まれる前述の検査手順情報を参照して、眼科検査のうちの視野検査のみを行うか否かを判定する。ステップ222において、眼科検査のうちの視野検査のみを行わない場合は、判定が否定されて、ステップ226へ移行する。ステップ222において、眼科検査のうちの視野検査のみを行う場合は、判定が肯定されて、ステップ224へ移行する。
 ステップ224で、処理部180は、視野検査指示情報をウエアラブル端末装置12に送信し、その後、ステップ236へ移行する。なお、視野検査指示情報とは、ウエアラブル端末装置12に対して後述の視野検査処理(図9A及び図9B)の実行を指示する情報を指す。また、視野検査指示情報には、ステップ200において受け付けられた必要な情報と、ステップ208において無線通信部82によって受信された患者情報等とが含まれる。
 本実施形態では、端末側プログラム124Aに視野検査用の複数のマーク投影位置情報が組み込まれている。マーク投影位置情報とは、網膜46にマークを投影する位置(以下、「マーク投影位置」又は「投影位置」とも言う)を示す情報を指す。具体的には、マークを表示させる二次元平面をXY座標や極座標rθ、三次元空間をXYZ座標、極座標rθφ座標で表す情報である。
 ここで言う「マーク」とは、例えば、正常な網膜46であれば白色点として知覚されるマークを指す。網膜46へのマークの投影は、可視光のレーザ光の照射により実現される。
 また、マークの投影位置情報とともにレーザ光の明るさ(強度)を示す情報を組み合わせて、マーク投影情報を視野検査用に保持しておいてもよい。投影位置と明るさ情報とが組み合わされることにより、網膜の感度の情報を視野検査で得ることが可能となる。
 また、端末側プログラム124A内の複数のマーク投影位置情報は、制御装置18の制御部170によってスキャナ28の制御に用いられる。すなわち、スキャナ28が制御部170によって複数のマーク投影位置情報に従って制御されることで、複数のマーク投影位置情報の各々により示される位置(マーク投影位置情報に従った投影位置)にレーザ光が照射される。
 以下では、説明の便宜上、網膜46にマークを投影する位置を「マーク投影位置」と称する。マーク投影位置は、本開示の技術に係る「特定位置」の一例である。
 ステップ226で、処理部180は、ステップ208で受信された患者情報等に含まれる前述の検査手順情報を参照して、眼科検査のうちのSLO画像検査のみを行うか否かを判定する。ステップ224において、眼科検査のうちのSLO画像検査のみを行わない場合は、判定が否定されて、ステップ230へ移行する。ステップ226において、眼科検査のうちのSLO画像検査のみを行う場合は、判定が肯定されて、ステップ228へ移行する。
 ステップ228で、処理部180は、SLO画像検査指示情報をウエアラブル端末装置12に送信し、その後、ステップ236へ移行する。なお、SLO画像検査指示情報とは、ウエアラブル端末装置12に対して後述のSLO画像検査処理(図9C)の実行を指示する情報を指す。また、SLO画像検査指示情報には、ステップ200において受け付けられた必要な情報と、ステップ208において無線通信部82によって受信された患者情報等とが含まれる。
 ステップ230で、処理部180は、ステップ208で受信された患者情報等に含まれる前述の検査手順情報を参照して、眼科検査のうちのOCT画像検査のみを行うか否かを判定する。ステップ230において、眼科検査のうちのOCT画像検査のみを行わない場合は、判定が否定されて、ステップ234へ移行する。ステップ230において、眼科検査のうちのOCT画像検査のみを行う場合は、判定が肯定されて、ステップ232へ移行する。
 ステップ232で、処理部180は、OCT画像検査指示情報をウエアラブル端末装置12に送信し、その後、ステップ236へ移行する。なお、OCT画像検査指示情報とは、ウエアラブル端末装置12に対して後述のOCT画像検査処理(図9D)の実行を指示する情報を指す。また、OCT画像検査指示情報には、ステップ200において受け付けられた必要な情報と、ステップ208において無線通信部82によって受信された患者情報等とが含まれる。
 ステップ234で、処理部180は、連続検査指示情報をウエアラブル端末装置12に送信し、その後、ステップ236へ移行する。なお、連続検査指示情報とは、ウエアラブル端末装置12に対して後述の連続検査処理(図8)の実行を指示する情報を指す。連続検査とは、例えば、視野検査、そしてSLO画像検査、その次にOCT画像検査の順で行われる一連の検査を指す。また、連続検査指示情報には、ステップ200において受け付けられた必要な情報と、ステップ208において無線通信部82によって受信された患者情報等とが含まれる。
 なお、本実施形態では、連続検査として、視野検査、そしてSLO画像検査、その次にOCT画像検査の順で行われる一連の検査を例示しているが、本開示の技術はこれに限定されるものではない。連続検査は、例えば、視野検査、SLO画像検査、及びOCT画像検査のうちの少なくとも2以上の検査の組み合わせであってもよい。
 ステップ236で、取得部182は、ウエアラブル端末装置12から送信される検査結果情報が無線通信部82によって受信されたか否かを判定する。なお、検査結果情報は、後述の端末側処理に含まれるステップ270の処理が処理部171によって実行されることでウエアラブル端末装置12から送信される。後述の端末側処理に含まれるステップ270の処理が処理部171によって実行されることでウエアラブル端末装置12から送信される検査結果情報とは、視野欠損マップ情報、SLO画像、及び/又はOCT画像を指す。
 ここで、ウエアラブル端末装置12から検査結果情報として送信される視野欠損マップ情報は、後述の視野検査処理に含まれるステップ256Vの処理が制御部170によって実行されることで作成される。また、ウエアラブル端末装置12から検査結果情報として送信されるSLO画像は、図9Cに示すステップ262C及び/又はステップ262Iで網膜46に対してSLO撮影が行われることによって得られる。更に、ウエアラブル端末装置12から検査結果情報として送信されるOCT画像は、図9Dに示すステップ266C及び/又は266Iで網膜46に対してOCT撮影が行われることによって得られる。
 SLO画像は、SLO低解像度画像とSLO高解像度画像とに大別される。SLO低解像度画像は、低解像度のSLO画像であり、図9Cに示すステップ262CでSLO低解像度撮影が実行されることによって得られる。SLO高解像度画像は、高解像度のSLO画像であり、図9Cに示すステップ262IでSLO高解像度撮影が実行されることによって得られる。SLO低解像度撮影とは、網膜46を被写体としたSLOによる低解像度での撮影を指す。また、SLO高解像度撮影とは、網膜46を被写体としたSLOによる高解像度での撮影を指す。
 OCT画像は、OCT低解像度画像とOCT高解像度画像とに大別される。OCT低解像度画像は、低解像度のOCT画像であり、図9Dに示すステップ266CでOCT低解像度撮影が実行されることによって得られる。OCT高解像度画像は、高解像度のOCT画像であり、図9Dに示すステップ266IでOCT高解像度撮影が実行されることによって得られる。OCT低解像度撮影とは、網膜46を被写体としたOCTによる低解像度での撮影を指す。また、OCT高解像度撮影とは、網膜46を被写体としたOCTによる高解像度での撮影を指す。
 なお、本実施形態において、「低解像度」とは、1画素あたりの撮影対象領域が広く、撮影されて得られた1つの画像において広い領域での眼底画像を得る解像度を指す。これに対して、本実施形態において、「高解像度」とは、1画素あたりの撮影対象領域が狭く、撮影されて得られた1つの画像において狭い領域での高精細な眼底画像を得る解像度を指す。ここで、「広い領域」とは、例えば、予め定められた領域よりも広い領域を指す。また、「狭い領域」とは、例えば、予め定められた領域よりも狭い領域を指す。更に、「高精細な眼底画像」とは、例えば、少なくとも低解像度で撮影して得られた画像よりも高精細な眼底画像を指す。
 ステップ236において、ウエアラブル端末装置12から送信される検査結果情報が無線通信部82によって受信されていない場合は、判定が否定されて、ステップ242へ移行する。ステップ236において、ウエアラブル端末装置12から送信される検査結果情報が無線通信部82によって受信された場合は、判定が肯定されて、ステップ237へ移行する。
 ステップ242で、処理部180は、端末管理処理に係る終了条件を満足したか否かを判定する。ステップ242において、端末管理処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ236へ移行する。ステップ242において、端末管理処理に係る終了条件を満足した場合は、判定が肯定されて、端末管理処理を終了する。
 ステップ237で、取得部182は、ステップ236において無線通信部82によって受信された検査結果情報を取得し、その後、ステップ238へ移行する。
 ステップ238で、処理部180は、制御装置18と無線通信を行うことで、右眼用インカメラ48R及び左眼用インカメラ48Lに対して、被検眼44の前眼部の撮影を終了させ、その後、ステップ240へ移行する。
 ステップ240で、処理部180は、ステップ237で取得部182によって取得された検査結果情報をサーバ装置15に送信し、その後、端末管理処理を終了する。
 次に、ウエアラブル端末装置12の主電源(図示省略)が投入された場合にCPU120が端末側プログラム124Aを実行することで実現される端末側処理について図8を参照して説明する。
 図8に示す端末側処理では、ステップ250で、処理部171は、管理装置14からの制御情報が無線通信部112によって受信されたか否かを判定する。ここで、制御情報は、制御部170を制御する情報であり、前述の視野検査指示情報、SLO画像検査指示情報、OCT画像検査指示情報、又は連続検査指示情報である。
 ステップ250において、管理装置14からの制御情報が無線通信部112によって受信されていない場合は、判定が否定されて、ステップ251へ移行する。ステップ250において、管理装置14からの制御情報が無線通信部112によって受信された場合は、判定が肯定されて、ステップ254へ移行する。
 ステップ251Aで、処理部171は、端末管理処理に含まれるステップ217の処理が実行されることによって管理装置14から送信される調整指示情報が無線通信部112によって受信されたか否かを判定する。ステップ251Aにおいて、調整指示情報が無線通信部112によって受信されていない場合は、判定が否定されて、ステップ252へ移行する。ステップ251Aにおいて、調整指示情報が無線通信部112によって受信された場合は、判定が肯定されて、ステップ251Bへ移行する。
 ステップ251Bで、制御部170は、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しを行った後、ステップ252へ移行する。
 ステップ251Bでは、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しを行うために、先ず、最新の右眼前眼部画像と最新の左眼前眼部画像とに基づいて瞳孔間距離が制御部170によって検出される。そして、ウエアラブル端末装置12のアイウエアID及び検出された瞳孔間距離等に基づいて、制御部170によって、反射ミラー42の位置の調整、レーザ光の光軸の補正、及び原点出しが行われる。なお、ここで、瞳孔間距離とは、右眼前眼部画像により示される右眼44Rの前眼部内の瞳孔と左眼前眼部画像により示される左眼44Lの前眼部内の瞳孔との間の距離を指す。また、反射ミラー42の位置は、ミラー駆動源72が制御部170によって制御されることで調整される。また、レーザ光の光軸の補正及び原点出しは、スキャナ28が制御部170によって制御されることで実現される。
 ステップ252で、処理部171は、端末側処理に係る終了条件を満足したか否かを判定する。端末側処理に係る終了条件とは、端末側処理を終了する条件を指す。端末側処理に係る終了条件の一例としては、所定時間が経過したとの条件、管理装置14から終了指示を示す情報を受信したとの条件、及び/又は端末側処理を強制的に終了せざるを得ない不具合がCPU120によって検出されたとの条件等が挙げられる。
 ステップ252において、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ250へ移行する。ステップ252において、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
 ステップ254で、処理部171は、ステップ250で無線通信部112によって受信された制御情報が視野検査情報か否かを判定する。ステップ254において、ステップ250で無線通信部112によって受信された制御情報が視野検査情報でない場合は、ステップ258へ移行する。ステップ254において、ステップ250で無線通信部112によって受信された制御情報が視野検査情報の場合は、判定が肯定されて、ステップ256へ移行する。
 ステップ256で、制御部170は、一例として図9A及び図9Bに示す視野検査処理を実行し、その後、ステップ270へ移行する。
 ステップ258で、処理部171は、ステップ250で無線通信部112によって受信された制御情報がSLO画像検査情報か否かを判定する。ステップ258において、ステップ250で無線通信部112によって受信された制御情報がSLO画像検査情報でない場合は、ステップ264へ移行する。ステップ258において、ステップ250で無線通信部112によって受信された制御情報がSLO画像検査情報の場合は、判定が肯定されて、ステップ262へ移行する。
 ステップ262で、制御部170は、一例として図9Cに示すSLO画像検査処理を実行し、その後、ステップ270へ移行する。
 ステップ264で、処理部171は、ステップ250で無線通信部112によって受信された制御情報がOCT画像検査情報か否かを判定する。ステップ264において、ステップ250で無線通信部112によって受信された制御情報がOCT画像検査情報でない場合は、ステップ268へ移行する。ステップ264において、ステップ250で無線通信部112によって受信された制御情報がOCT画像検査情報の場合は、判定が肯定されて、ステップ266へ移行する。
 ステップ266で、制御部170は、一例として図9Dに示すOCT画像検査処理を実行し、その後、ステップ270へ移行する。
 ステップ268で、制御部170は、連続検査処理を実行し、その後、ステップ270へ移行する。本ステップ268で実行される連続検査処理は、例えば、ステップ256で実行される視野検査処理、ステップ262で実行されるSLO画像検査処理、及びステップ266で実行されるOCT画像検査処理の順で実行される処理である。
 なお、ここでは、視野検査処理、そしてSLO画像検査処理、その次にOCT画像検査処理の順で実行される処理を連続検査処理の一例として挙げているが、本開示の技術はこれに限定されるものではない。例えば、視野検査処理、SLO画像検査処理、及びOCT画像検査処理のうちの少なくとも2以上の処理が連続検査処理として実行されるようにしてもよい。視野検査処理、SLO画像検査処理、及びOCT画像検査処理のうちの何れの組み合わせの処理が実行されるかは、連続検査情報に含まれる前述の患者情報等に基づいて定められる。具体的には、患者情報等に含まれる前述の検査手順情報に基づいて定められる。
 一例として図9Aに示すように、視野検査処理では、ステップ256Aで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、シャッタ121を移動させる必要があるか否かを判定する。
 ステップ256Aにおいて、シャッタ121を移動させる必要がない場合は、判定が否定されて、ステップ256Cへ移行する。ステップ256Aにおいて、シャッタ121を移動させる必要がある場合は、判定が肯定されて、ステップ256Bへ移行する。
 ステップ256Bで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいてシャッタ121を移動させ、その後、ステップ256Cへ移行する。
 ステップ256Cで、制御部170は、光管理部114及び光学系27に対して、検査対象眼の網膜46への3原色レーザ光による走査を開始させ、その後、ステップ256Dへ移行する。
 ステップ256Dで、制御部170は、端末側プログラム124A内の複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示されるマーク投影位置に3原色レーザ光が到達したか否かを判定する。なお、本ステップ256Dでは、「1つのマーク投影位置情報」として、ステップ256Mにおいて判定が肯定された場合、再び同じマーク投影位置情報が用いられる。また、本ステップ256Dでは、「1つのマーク投影位置情報」として、ステップ256Nにおいて判定が否定された場合、複数のマーク投影位置情報のうちの未使用のマーク投影位置情報が用いられる。
 本実施形態では、本ステップ256Dにおいて複数のマーク投影位置情報が用いられる順序は予め定められているが、本開示の技術はこれに限定されるものではない。例えば、管理装置14を介して医療サービス者によって指示されたマーク投影位置情報が本ステップ256Dで用いられるようにしてもよい。また、本ステップ256Dで用いられるマーク投影位置情報の順序が、管理装置14を介して医療サービス者によって変更されるようにしてもよい。
 ステップ256Dにおいて、端末側プログラム124A内の複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示されるマーク投影位置に3原色レーザ光が到達していない場合は、判定が否定されて、ステップ256Eへ移行する。ステップ256Dにおいて、複数のマーク投影位置情報のうちの1つのマーク投影位置情報により示されるマーク投影位置に3原色レーザ光が到達した場合は、判定が肯定されて、ステップ256Fへ移行する。
 ステップ256Eにおいて、制御部170は、端末側処理に係る終了条件を満足したか否かを判定する。ステップ256Eにおいて、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ256Dへ移行する。ステップ256Eにおいて、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
 ステップ256Fで、制御部170は、光源制御回路115を介してレーザ光源ユニット113を制御することで、網膜46に対してマークを投影させ、その後、ステップ256Gへ移行する。なお、ここで、マークが投影される位置は、ステップ256Dで用いられた最新のマーク投影位置情報により示されるマーク投影位置である。
 ステップ256Gで、制御部170は、応答ボタン19が押されたか否かを判定する。なお、応答ボタン19が押されたか否かは、応答ボタン19から応答信号が入力されたか否かによって判定される。
 ステップ256Gにおいて、応答ボタン19が押されていない場合は、判定が否定されて、ステップ256Hへ移行する。ステップ256Gにおいて、応答ボタン19が押された場合は、判定が肯定されて、ステップ256Jへ移行する。
 ステップ256Jで、制御部170は、最新のマーク投影位置情報を一次記憶部122に記憶し、その後、ステップ256Kへ移行する。ここで、最新のマーク投影位置情報とは、ステップ256Dで用いられた最新のマーク投影位置情報を指し、換言すると、応答ボタン19が押されたタイミングで網膜46に投影されているマークに関するマーク投影位置情報を指す。
 ステップ256Hで、制御部170は、ステップ256Fの処理が実行されてから予め定められた時間(例えば、2秒)が経過したか否かを判定する。ステップ256Hにおいて、ステップ256Fの処理が実行されてから予め定められた時間が経過していない場合は、判定が否定されて、ステップ256Gへ移行する。ステップ256Hにおいて、ステップ256Fの処理が実行されてから予め定められた時間が経過した場合は、判定が肯定されて、ステップ256Iへ移行する。
 ステップ256Iで、制御部170は、端末側処理に係る終了条件を満足したか否かを判定する。ステップ256Iにおいて、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ256Kへ移行する。ステップ256Iにおいて、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
 ステップ256Kで、制御部170は、患者の視線が固視標からずれているか否かを判定する。患者の視線が固視標からずれているか否かは、最新の前眼部画像に基づいて判定される。
 ステップ256Kにおいて、患者の視線が固視標からずれている場合は、判定が肯定されて、ステップ256Lへ移行する。ステップ256Kにおいて、患者の視線が固視標からずれていない場合は、判定が否定されて、ステップ256Nへ移行する。
 ステップ256Lで、制御部170は、スピーカ140に対して、視線誘導音声を出力させ、その後、ステップ256Mへ移行する。
 視線誘導音声とは、視線を固視標の方向へ誘導する音声を指す。視線誘導音声は、視線と固視標との位置関係に応じて生成される。視線の位置は、最新の前眼部画像に基づいて特定される。なお、視線誘導音声の一例としては、「固視標を見て下さい。」という内容の音声、又は、「もう少し右側を向いて下さい。」という内容の音声等が挙げられる。
 ステップ256Mで、制御部170は、患者の視線と固視標とのずれが解消されたか否かを判定する。患者の視線と固視標とのずれが解消されたか否かは、最新の前眼部画像に基づいて判定される。
 ステップ256Mにおいて、患者の視線と固視標とのずれが解消されていない場合は、判定が否定されて、ステップ256Lへ移行する。ステップ256Mにおいて、患者の視線と固視標とのずれが解消された場合は、判定が肯定されて、ステップ256Dへ移行する。
 ステップ256Nで、制御部170は、全てのマーク投影位置にマークが投影されたか否かを判定する。ステップ256Nにおいて、全てのマーク投影位置にマークが投影されていない場合は、判定が否定されて、ステップ256Nへ移行する。ステップ256Nにおいて、全てのマーク投影位置にマークが投影された場合は、判定が肯定されて、図9Bに示すステップ256Rへ移行する。
 ステップ256Rで、制御部170は、視野検査が未実施の検査対象眼があるか否かを判定する。視野検査が未実施の検査対象眼があるか否かは、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報と現時点でのシャッタ121の位置とに基づいて判定される。
 ステップ256Rにおいて、視野検査が未実施の検査対象眼がある場合は、判定が肯定されて、ステップ256Sへ移行する。ステップ256Rにおいて、視野検査が未実施の検査対象眼がない場合は、判定が否定されて、ステップ256Uへ移行する。
 ステップ256Sで、制御部170は、スピーカ140に対して、変更通知音声を出力させ、その後、ステップ256Tへ移行する。変更通知音声とは、検査対象眼が変更されることを患者に通知する音声を指す。なお、変更通知音声の一例としては、「右眼の視野検査が終わりましたので、次に左眼の視野検査を行います。」という内容の音声が挙げられる。
 ステップ256Tで、制御部170は、光管理部114及び光学系27を制御することで、光管理部114及び光学系27に対して、検査対象眼の網膜46への3原色レーザ光による走査を終了させ、その後、ステップ256Bへ移行する。
 ステップ256Uで、制御部170は、光管理部114及び光学系27を制御することで、光管理部114及び光学系27に対して、検査対象眼の網膜46への3原色レーザ光による走査を終了させ、その後、ステップ256Vへ移行する。
 ステップ256Vで、制御部170は、ステップ256Jの処理が実行されることで一次記憶部122に記憶されたマーク投影位置情報に基づいて視野欠損マップ情報を作成し、その後、視野検査処理を終了する。視野欠損マップ情報とは、患者ID、及び視野欠損マップを描くための情報、及び視野欠損マップの画像等を含む情報を指す。視野欠損マップとは、患者の視野の欠損箇所を特定可能なマップを指す。図14に示す第2進捗状況画面190Bの画像表示領域190B3には、視野欠損マップ240が表示されている。視野欠損マップ240では、無彩色の濃淡で欠損箇所と正常箇所とが表現されており、主な欠損箇所は、黒色で表示されている。
 なお、ウエアラブル端末装置12又は管理装置14によって視野欠損マップ240が作成されるだけなく、サーバ装置15によって視野欠損マップが改めて描画され、視野検査結果レポートが作成されるようにしてもよい。また、例えば、同じ患者(患者IDが同一の患者)の視野欠損マップ情報だけで視野欠損マップが作成されるのではなく、眼底画像上に視野の欠損エリアが重畳表示されたり、3D-OCT画像上に視野の欠損エリアが重畳表示されたりするようにしてもよい。
 次に、図9Cに示すSLO画像検査処理について説明する。なお、図9Cに示すSLO画像検査処理では、説明の便宜上、事前に視野検査処理が実行されていることを前提として説明する。
 図9Cに示すSLO画像検査処理では、ステップ262Aで、制御部170は、SLO画像検査情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、シャッタ121を移動させる必要があるか否かを判定する。
 ステップ262Aにおいて、シャッタ121を移動させる必要がない場合は、判定が否定されて、ステップ262Cへ移行する。ステップ262Aにおいて、シャッタ121を移動させる必要がある場合は、判定が肯定されて、ステップ262Bへ移行する。
 ステップ262Bで、制御部170は、SLO画像検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいてシャッタ121を移動させ、その後、ステップ262Cへ移行する。
 ステップ262Cで、制御部170は、SLO低解像度撮影を実行し、その後、ステップ262Dへ移行する。本ステップ262Cでは、SLO低解像度撮影の撮影対象領域として、例えば、デフォルトで定められた範囲(例えば、事前に定められた範囲)が採用されている。
 ステップ262Dで、制御部170は、SLO画像が良好か否かを判定する。ステップ262Dにおいて、SLO画像が良好でない場合は、判定が否定されて、ステップ262Eへ移行する。ステップ262Dにおいて、SLO画像が良好な場合は、判定が肯定されて、ステップ262Fへ移行する。
 ステップ262Eで、制御部170は、ステップ262Dの判定対象となったSLO画像がSLO高解像度画像か否かを判定する。ステップ262Eにおいて、ステップ262Dの判定対象となったSLO画像がSLO低解像度画像の場合は、判定が否定されて、ステップ262Cへ移行する。ステップ262Eにおいて、ステップ262Dの判定対象となったSLO画像がSLO高解像度画像の場合は、判定が肯定されて、ステップ262Iへ移行する。
 ステップ262Fで、制御部170は、視野検査において異常があったか否かを判定する。すなわち、視野検査での異常の有無は、図9Bに示す視野検査処理に含まれるステップ256Vの処理が実行されることで作成された視野欠損マップ情報に基づいて判定される。
 ステップ262Fにおいて、視野検査において異常がなかった場合は、判定が否定されて、ステップ262Gへ移行する。ステップ262Fにおいて、視野検査において異常があった場合は、判定が肯定されて、ステップ262Hへ移行する。
 ステップ262Gで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、全ての検査対象眼についてSLO低解像度撮影が実行されたか否かを判定する。ステップ262Gにおいて、全ての検査対象眼についてSLO低解像度撮影が実行されていない場合は、判定が否定されて、ステップ262Bへ移行する。ステップ262Gにおいて、全ての検査対象眼についてSLO低解像度撮影が実行された場合は、判定が肯定されて、SLO画像検査処理を終了する。
 ステップ262Hで、制御部170は、視野欠損マップに基づいて1つ以上の異常領域を特定し、その後、ステップ262Kへ移行する。本ステップ262H及び後述のステップ266H(図9D参照)において、異常領域とは、例えば、網膜46の全領域のうち、視野欠損マップで「異常あり」と判定された領域を含む所定範囲を指す。なお、本ステップ262Hの処理で用いられる視野欠損マップは、図9Bに含まれるステップ256Vの処理が実行されることで作成された視野欠損マップ情報に含まれている。
 ステップ262Kで、制御部170は、ステップ262Hで特定された全ての異常領域に対して後述のステップ262IでのSLO高解像撮影が完了した否かを判定する。ステップ262Kにおいて、ステップ262Hで特定された全ての異常領域に対して後述のステップ262IでのSLO高解像撮影が完了した場合は、判定が肯定されて、ステップ262Gへ移行する。ステップ262Kにおいて、ステップ262Hで特定された全ての異常領域に対して後述のステップ262IでのSLO高解像撮影が完了していない場合は、判定が否定されて、ステップ262Lへ移行する。
 ステップ262Lで、制御部170は、現時点で採用されている撮影対象領域を最新の撮影対象領域に更新し、その後、ステップ262Iへ移行する。本ステップ262Lにおいて、最新の撮影対象領域とは、例えば、網膜46の全領域のうち、ステップ262Hの処理が実行されることで特定された異常領域を含む領域を指す。
 ステップ262Iで、制御部170は、SLO高解像度撮影を実行し、その後、SLO画像検査処理を終了する。なお、SLO高解像度撮影による撮影対象領域は、ステップ262Lの処理が実行されることで更新された撮影対象領域である。
 次に、図9Dに示すOCT画像検査処理について説明する。なお、図9Dに示すOCT画像検査処理では、説明の便宜上、事前に視野検査処理が実行されていることを前提として説明する。
 図9Dに示すOCT画像検査処理では、ステップ266Aで、制御部170は、OCT画像検査情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、シャッタ121を移動させる必要があるか否かを判定する。
 ステップ266Aにおいて、シャッタ121を移動させる必要がない場合は、判定が否定されて、ステップ266Cへ移行する。ステップ266Aにおいて、シャッタ121を移動させる必要がある場合は、判定が肯定されて、ステップ266Bへ移行する。
 ステップ266Bで、制御部170は、OCT画像検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいてシャッタ121を移動させ、その後、ステップ266Cへ移行する。
 ステップ266Cで、制御部170は、OCT低解像度撮影を実行し、その後、ステップ266Dへ移行する。本ステップ266Cでは、OCT低解像度撮影の撮影対象領域として、例えば、デフォルトで定められた範囲(例えば、事前に定められた範囲)が採用されている。
ステップ266Dで、制御部170は、OCT画像が良好か否かを判定する。ステップ266Dにおいて、OCT画像が良好でない場合は、判定が否定されて、ステップ266Eへ移行する。ステップ266Dにおいて、OCT画像が良好な場合は、判定が肯定されて、ステップ266Fへ移行する。
 ステップ266Eで、制御部170は、ステップ266Dの判定対象となったOCT画像がOCT高解像度画像か否かを判定する。ステップ266Eにおいて、ステップ266Dの判定対象となったOCT画像がOCT低解像度画像の場合は、判定が否定されて、ステップ266Cへ移行する。ステップ266Eにおいて、ステップ266Dの判定対象となったOCT画像がOCT高解像度画像の場合は、判定が肯定されて、ステップ266Iへ移行する。
 ステップ266Fで、制御部170は、視野検査において異常があったか否かを判定する。すなわち、視野検査での異常の有無は、図9Bに示す視野検査処理に含まれるステップ256Vの処理が実行されることで作成された視野欠損マップ情報に基づいて判定される。
 ステップ266Fにおいて、視野検査において異常がなかった場合は、判定が否定されて、ステップ266Gへ移行する。ステップ266Fにおいて、視野検査において異常があった場合は、判定が肯定されて、ステップ266Hへ移行する。
 ステップ266Gで、制御部170は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、全ての検査対象眼についてOCT低解像度撮影が実行されたか否かを判定する。ステップ266Gにおいて、全ての検査対象眼についてOCT低解像度撮影が実行されていない場合は、判定が否定されて、ステップ266Bへ移行する。ステップ266Gにおいて、全ての検査対象眼についてOCT低解像度撮影が実行された場合は、判定が肯定されて、OCT画像検査処理を終了する。
 ステップ266Hで、制御部170は、視野欠損マップに基づいて1つ以上の異常領域を特定し、その後、ステップ266Kへ移行する。
 ステップ266Kで、制御部170は、ステップ266Hで特定された全ての異常領域に対して後述のステップ266IでのOCT高解像度撮影が完了したか否かを判定する。ステップ266Kにおいて、ステップ266Hで特定された全ての異常領域に対して後述のステップ266IでのOCT高解像度撮影が完了した場合は、判定が肯定されて、ステップ266Gへ移行する。ステップ266Kにおいて、ステップ266Hで特定された全ての異常領域に対して後述のステップ266IでのOCT高解像度撮影が完了していない場合は、判定が否定されて、ステップ266Lへ移行する。
 ステップ266Lで、制御部170は、現時点で採用されている撮影対象領域を最新の撮影対象領域に更新し、その後、ステップ266Iへ移行する。本ステップ266Lにおいて、最新の撮影対象領域とは、例えば、網膜46の全領域のうち、ステップ266Hの処理が実行されることで特定された異常領域のうち、第1の線により特定される網膜46の膜厚方向の断層領域、及び、第2の線により特定される網膜46の膜厚方向の断層領域が挙げられる。第1の線とは、異常領域の中心線を横切る所定長の線を指す。また、第2の線とは、第1の線に垂直な所定長の線を指す。
 ステップ266Iで、制御部170は、OCT高解像度撮影を実行し、その後、OCT画像検査処理を終了する。なお、OCT高解像度撮影による撮影対象領域は、ステップ266Lの処理が実行されることで更新された撮影対象領域である。
 図8に示すステップ270で、処理部171は、無線通信部112を介して前述の検査結果情報(視野欠損マップ情報、SLO画像、及び/又はOCT画像)を管理装置14に送信し、その後、端末側処理を終了する。
 次に、サーバ装置15の主電源(図示省略)が投入された場合にCPU160がサーバ側プログラム164Bを実行することで実現されるサーバ側処理について図10を参照して説明する。
 図10に示すサーバ側処理では、先ず、ステップ255Aで、CPU160は、管理装置情報を受信したか否かを判定する。管理装置情報とは、端末管理処理が管理装置14のCPU90によって実行されることでサーバ装置15に送信された情報を指す。
 ステップ255Aにおいて、管理装置情報を受信していない場合は、判定が否定されて、ステップ255Fへ移行する。ステップ255Aにおいて管理装置情報を受信した場合は、判定が肯定されて、ステップ255Bへ移行する。
 ステップ255Bで、CPU160は、ステップ255Aで受信した管理装置情報が送信要求情報か否かを判定する。ステップ255Bにおいて、ステップ255Aで受信した管理装置情報が送信要求情報でない場合、すなわち、ステップ255Aで受信した管理装置情報が視野欠損マップ情報の場合は、判定が否定されて、ステップ255Dへ移行する。ステップ255Bにおいて、ステップ255Aで受信した管理装置情報が送信要求情報の場合は、判定が肯定されて、ステップ255Eへ移行する。
 ステップ255Dで、CPU160は、視野欠損マップ情報に基づいて、視野検査の結果を示すレポートである視野検査結果レポートを作成し、作成した視野検査結果レポートを二次記憶部164に記憶し、その後、ステップ255Fへ移行する。作成された視野検査結果レポートは、例えば、ビューワ17等の外部機器から要求があった場合にビューワ17に送信される。
 ステップ255Eで、CPU160は、前述した患者情報等を管理装置14に送信し、その後、ステップ255Fへ移行する。なお、患者情報等に含まれる患者情報164Aは、二次記憶部164から取得される。また、患者情報等に含まれる検査手順情報は、例えば、受付デバイス154で受け付けられた指示に従って生成されたり、又は、外部I/F158を介してUSBメモリ、パーソナル・コンピュータ、及び/又はサーバ装置等の外部装置から取得されたりする。
 ステップ255Fで、CPU160は、サーバ側処理に係る終了条件を満足したか否かを判定する。サーバ側処理に係る終了条件とは、サーバ側処理を終了する条件を指す。サーバ側処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス154が終了指示を受け付けたとの条件、及び/又はサーバ側処理を強制的に終了せざるを得ない不具合がCPU160によって検出されたとの条件等が挙げられる。
 ステップ255Fにおいて、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ255Fへ移行する。ステップ258において、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、サーバ側処理を終了する。
 次に、端末管理処理の実行が開始されることでCPU90が表示制御プログラム94Bを実行することによって実現される表示制御処理について図11を参照して説明する。
 以下では、説明の便宜上、図7Aに示す端末管理処理に含まれるステップ200の処理が実行されることで、受付デバイス84によって必要な情報が全て受け付けられていることを前提として説明する。
 また、以下では、説明の便宜上、管理装置14は最大で6台のウエアラブル端末装置12を管理することができることを前提として説明する。なお、6台は、あくまでも一例の台数であり、様々な最大管理台数をとることができる。更に、以下では、説明の便宜上、管理装置14と6台のウエアラブル端末装置12との通信が確立されている状態であることを前提とし、表示制御処理については、6台のウエアラブル端末装置12のうちの1台のウエアラブル端末装置12を例に挙げて説明する。
 また、以下では、説明の便宜上、低解像度同時撮影と高解像度同時撮影とを区別して説明する必要がない場合、「同時撮影」と称する。また、以下では、説明の便宜上、SLO低解像度撮影とSLO高解像度撮影とを区別して説明する必要がない場合、「SLO撮影」と称する。また、以下では、説明の便宜上、OCT低解像度撮影とOCT高解像度撮影とを区別して説明する必要がない場合、「OCT撮影」と称する。
 更に、以下では、説明の便宜上、SLO低解像度画像とSLO高解像度画像とを区別して説明する必要がない場合、「SLO画像」と称し、OCT低解像度画像とOCT高解像度画像とを区別して説明する必要がない場合、「OCT画像」と称する。
 図11に示す表示制御処理では、ステップ400で、表示制御部184は、一例として図13に示すように、ディスプレイ86Aに対して進捗状況画面190の表示を開始させ、その後、ステップ402へ移行する。
 ステップ402で、表示制御部184は、装置情報を受信したか否かを判定する。ここで言う「装置情報」とは、ウエアラブル端末装置12と通信を行うことでウエアラブル端末装置12の処理部171から無線通信部112を介して送信された端末情報と、サーバ装置15と通信を行うことでサーバ装置15から送信された患者情報等とを指す。端末情報は、ウエアラブル端末装置12に関する情報である。ここで、ウエアラブル端末装置12に関する情報とは、例えば、眼科検査の進捗状況に関する情報を指す。眼科検査の進捗状況に関する情報には、最新の前眼部画像と、視野検査の進捗の程度を示す進捗程度情報と、アイウエア端末装置16が患者に正しく装着されているか否かを示すアイウエア着脱情報と、が含まれる。また、アイウエア端末装置16において、SLO撮影が行われた場合、装置情報には、SLO画像が含まれる。また、アイウエア端末装置16において、OCT撮影が行われた場合、装置情報には、OCT画像が含まれる。
 ステップ402において、装置情報を受信していない場合は、判定が否定されて、ステップ416へ移行する。ステップ402において、装置情報を受信した場合は、判定が肯定されて、ステップ404へ移行する。
 ステップ404で、表示制御部184は、受信した装置情報が端末情報か否かを判定する。ステップ404において、受信した装置情報が端末情報でない場合、すなわち、受信した装置情報が患者情報164Aの場合は、判定が否定されて、ステップ412へ移行する。ステップ404において、受信した装置情報が端末情報の場合は、判定が肯定されて、ステップ406へ移行する。
 ステップ406で、表示制御部184は、受信した端末情報に関連する情報が進捗状況画面190に表示されているか否かを判定する。ステップ406において、受信した端末情報に関連する情報が進捗状況画面190に表示されていない場合は、判定が否定されて、ステップ408へ移行する。ステップ406において、受信した端末情報に関連する情報が進捗状況画面190に表示されている場合は、判定が肯定されて、ステップ410へ移行する。
 ステップ408で、表示制御部184は、ディスプレイ86Aに対して、端末情報に関連する情報の表示を開始させ、その後、ステップ416へ移行する。これにより、進捗状況画面190には、端末情報に関連する情報が表示される。
 一例として図13に示すように、第1進捗状況画面190Aは、端末ID表示領域190A1、進捗状況表示領域190A2、画像表示領域190A3、アイウエア着用状況表示領域190A4、及び患者情報表示領域190A5を有する。端末ID表示領域190A1、進捗状況表示領域190A2、画像表示領域190A3、アイウエア着用状況表示領域190A4には、端末情報に関連する情報が表示され、患者情報表示領域190A5には、患者情報164Aが表示される。また、進捗状況表示領域190A2には、検査対象眼指示情報等に基づく情報も表示される。
 端末ID表示領域190A1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第1番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。なお、本実施形態では、受信した端末情報に対応するアイウエア端末装置16のアイウエアIDが端末IDとして採用されている。
 進捗状況表示領域190A2には、主に視野検査の進行状況が表示される。図13に示す例では、視野検査対象眼を特定可能な情報として、「視野検査対象:両眼」という内容の情報と、現在の検査状況を特定可能な情報として、「左眼:OCT撮影中」という内容の情報と、進捗状況の程度を示すインジケータと、が表示されている。進捗状況表示領域190A2では、インジケータが検査中の位置を指し示している。また、進捗状況表示領域190A2に、「検査内容:視野/SLO/OCT」という内容の情報が表示されており、これは、検査対象眼指示情報等に基づく情報の一例である。また、進捗状況表示領域190A2には、検査対象眼を示す「検査対象:両眼」という内容の情報も表示されており、これも、検査対象眼指示情報等に基づく情報の一例である。
 画像表示領域190A3には、被検眼44の特徴を示す被検眼特徴情報として前眼部画像、SLO画像、OCT画像、及び/又は視野欠損マップ240が表示される。なお、後述の画像表示領域190B3,190C3,190D3,190F3についても同様である。
 画像表示領域190A3には、患者情報表示領域190A5に表示されている患者情報164Aにより特定される患者の最新の前眼部画像が表示される。患者情報表示領域190A5に表示されている患者情報164Aにより特定される患者とは、換言すると、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を現時点で使用している患者を指す。図13に示す例では、右眼前眼部画像と左眼前眼部画像とが表示されており、検査対象眼でない左眼前眼部画像がグレイアウト表示されている。
 アイウエア着用状況表示領域190A4には、アイウエア端末装置16が患者に装着された状態であるか否かを示す情報が表示される。図13に示す例では、アイウエア端末装置16が患者に装着されていることを示す「着用中」という内容の情報が表示されている。また、アイウエア着用状況表示領域190A4の背景色は、進捗状況に応じて変化する。例えば、背景色は、白色、黄色、桃色、及び灰色の何れかである。白色は、視野検査前であることを表し、黄色は、視野検査中であることを表し、桃色は、視野検査が完了したことを表し、灰色は、視野検査の検査対象眼が指示されていないことを表す。
 なお、図13に示す例では、第1進捗状況画面190Aは、端末IDが“EA”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第2進捗状況画面190Bは、端末IDが“EC”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第3進捗状況画面190Cは、端末IDが“YV”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第4進捗状況画面190Dは、端末IDが“MI”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。また、第5進捗状況画面190Eは、端末IDが“GZ”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。更に、第6進捗状況画面190Eは、端末IDが“YW”のアイウエア端末装置16を含むウエアラブル端末装置12に対応する画面である。
 第2進捗状況画面190Bは、端末ID表示領域190B1、進捗状況表示領域190B2、画像表示領域190B3、アイウエア着用状況表示領域190B4、及び患者情報表示領域190B5を有する。
 図13に示す例において、端末ID表示領域190B1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第2番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190B2には、左眼44Lに対してOCT撮影が行われていることを示す「左眼:OCT撮影中」という内容の情報が表示されている。また、進捗状況表示領域190B2には、検査の内容及び順序を示す「検査内容:視野/SLO/OCT」という内容の情報も表示されている。進捗状況表示領域190B2には、検査対象眼を示す「両眼」という内容の情報も表示されている。また、進捗状況表示領域190B2では、インジケータが検査完了の位置を指し示している。
 また、画像表示領域190B3には、被検眼44に関する視野欠損マップ240、網膜46に関するSLO画像、網膜46Rに関するOCT画像、及び左眼前眼部画像が表示されている。また、アイウエア着用状況表示領域190B4には、アイウエア端末装置16が患者に装着されていないことを示す情報として、「非着用」という内容の情報が表示されている。
 第3進捗状況画面190Cは、端末ID表示領域190C1、進捗状況表示領域190C2、画像表示領域190C3、アイウエア着用状況表示領域190C4、及び患者情報表示領域190C5を有する。
 図13に示す例において、端末ID表示領域190C1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第3番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190B2には、左眼44Lに対してSLO撮影が行われていることを示す「左眼:SLO撮影中」という内容の情報が表示されている。また、進捗状況表示領域190C2には、検査の内容及び順序を示す「検査内容:視野/SLO」という内容の情報も表示されている。また、進捗状況表示領域190C2には、検査対象眼を示す「左眼のみ」という内容の情報も表示されている。また、進捗状況表示領域190C2では、インジケータが検査中の位置を指し示している。画像表示領域190C3には、左眼44Lに関する視野欠損マップ240及び左眼前眼部画像が表示されている。
 また、アイウエア着用状況表示領域190C4には、アイウエア端末装置16が患者に装着されていることを示す情報として、「着用中」という内容の情報と、「Error」という内容の情報とが表示されている。なお、「Error」という内容の情報の表示は、後述のステップ452のエラー処理が実行されることで実現される。
 第4進捗状況画面190Dは、端末ID表示領域190D1、進捗状況表示領域190D2、画像表示領域190D3、アイウエア着用状況表示領域190D4、及び患者情報表示領域190D5を有する。
 図13に示す例において、端末ID表示領域190D1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第4番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190D2には、「音声案内中」という内容の情報が表示されている。「音声案内中」とは、例えば、図9Aに示すステップ256L又は図9Bに示すステップ256Sの処理が実行されることでスピーカ140から出力される音声によって患者が案内されている状態を指す。また、進捗状況表示領域190D2には、検査の内容及び順序を示す「検査内容:視野/SLO/OCT」という内容の情報も表示されている。また、進捗状況表示領域190C2には、検査対象眼を示す「両眼」という内容の情報も表示されている。
 また、画像表示領域190D3には、患者情報表示領域190D5に表示されている患者情報164Aにより特定される患者の最新の前眼部画像が表示されている。また、アイウエア着用状況表示領域190D4には、アイウエア端末装置16が患者に装着されていることを示す情報として、「着用中」という内容の情報が表示されている。
 図13に示す例において、端末ID表示領域190E1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第5番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。
 図13に示す例では、端末IDが“GZ”のアイウエア端末装置16を含むウエアラブル端末装置12が充電中のため、第5進捗状況画面190Eには、充電中であることを視覚的に認識可能な情報として「充電中」という内容の情報が表示されている。また、第5進捗状況画面190Eには、バッテリの容量を示す情報として、「バッテリ88%」という内容の情報と、バッテリの容量を示すインジケータとが表示されている。
 図13に示す例において、端末ID表示領域190F1には、管理装置14との通信が確立されている6台のウエアラブル端末装置12のうちの第6番目のウエアラブル端末装置12を一意に特定可能な端末IDが表示される。進捗状況表示領域190F2には、左眼44Rに対してSLO撮影が行われていることを示す「左眼:SLO撮影中」という内容の情報が表示されている。また、進捗状況表示領域190F2には、検査の内容及び順序を示す「検査内容:SLO/OCT」という内容の情報も表示されている。また、進捗状況表示領域190F2には、検査対象眼を示す「左眼のみ」という内容の情報も表示されている。また、進捗状況表示領域190F2では、インジケータが検査中の位置を指し示している。
 また、画像表示領域190F3には、被検眼44に関する視野欠損マップ、右眼前眼部画像、網膜46Lに関するSLO画像、及び網膜46Lに関するOCT画像が表示されている。また、アイウエア着用状況表示領域190F4には、アイウエア端末装置16が患者に装着されていることを示す情報として、「着用中」という内容の情報と、「Error」という内容の情報とが表示されている。
 図11に示すステップ410で、表示制御部184は、ディスプレイ86Aに対して、端末情報に関連する情報の表示内容を更新させ、その後、ステップ416へ移行する。これにより、端末ID表示領域190A1、進捗状況表示領域190A2、画像表示領域190A3、及びアイウエア着用状況表示領域190A4の表示内容が更新される。
 例えば、アイウエア端末装置16が患者から外されると、アイウエア着用状況表示領域190A4には、第2進捗状況画面190Bのアイウエア着用状況表示領域190B4に示すように、「非着用」という内容の情報が表示される。また、後述のステップ452のエラー処理が実行されると、第3進捗状況画面190Cのアイウエア着用状況表示領域190C4に示すように、「Error」という内容の情報が表示される。また、OCT撮影が完了すると、「OCT撮影完了」という内容の情報が表示される。また、予定されている検査が全て終了すると、インジケータにより全検査完了の位置が指し示される。更に、スピーカ140からの音声による案内中の場合は、第4進捗状況画面190Dの進捗状況表示領域190D2に示すように、「音声案内中」という内容の情報が表示される。
 ステップ412で、表示制御部184は、患者情報164Aが非表示状態か否かを判定する。例えば、表示制御部184は、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を使用している患者に関する患者情報164Aが患者情報表示領域190A5に表示されていないか否かを判定する。
 ステップ412において、患者情報164Aが非表示状態の場合は、判定が肯定されて、ステップ414へ移行する。ステップ412において、患者情報164Aが非表示状態でない場合、すなわち、患者情報164Aが表示されている場合は、判定が否定されて、ステップ416へ移行する。
 ステップ414で、表示制御部184は、ディスプレイ86Aに対して患者情報164Aの表示を開始させ、その後、ステップ416へ移行する。これにより、例えば、端末ID表示領域190A1に表示されている端末IDにより特定されるウエアラブル端末装置12を使用している患者に関する患者情報164Aであれば、患者情報164Aは患者情報表示領域190A5に表示される。
 ステップ416で、表示制御部184は、表示制御処理に係る終了条件を満足したか否かを判定する。表示制御処理に係る終了条件とは、表示制御処理を終了する条件を指す。表示制御処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は表示制御処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
 ステップ416において、表示制御処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ402へ移行する。ステップ416において、表示制御処理に係る終了条件を満足した場合は、判定が肯定されて、ステップ418へ移行する。
 ステップ418で、表示制御部184は、ディスプレイ86Aに対して進捗状況画面190の表示を終了させ、その後、表示制御処理を終了する。
 次に、端末管理処理の実行が開始されることでCPU90が通信エラー対応プログラム94Cを実行することによって実現される通信エラー対応処理について図12を参照して説明する。以下、通信エラー対応処理については、説明の便宜上、図13に示す進捗状況画面190Cの端末ID表示領域190C1に表示されている端末IDにより特定されるウエアラブル端末装置12、管理装置14、及びサーバ装置15を例に挙げて説明する。
 図12に示す通信エラー対応処理では、ステップ450で、表示制御部184は、通信エラーが発生したか否かを判定する。ここで言う「通信エラー」とは、例えば、ウエアラブル端末装置12と管理装置14との間での通信上のエラー、又は、管理装置14とサーバ装置15との間での通信上のエラーを指す。通信上のエラーとは、例えば、意図しないタイミングで通信が切断される現象を指す。
 ステップ450において、通信エラーが発生していない場合は、判定が否定されて、ステップ454へ移行する。ステップ450において、通信エラーが発生した場合は、判定が肯定されて、ステップ452へ移行する。
 ステップ452で、表示制御部184は、エラー処理を実行し、その後、ステップ454へ移行する。エラー処理とは、例えば、アイウエア着用状況表示領域190C4に「Error」という内容の情報が表示されるようにディスプレイ86Aを制御する処理を指す。また、エラー処理の他の例としては、「通信エラーが発生しました」等の音声をスピーカ(図示省略)に対して出力させる処理が挙げられる。
 ステップ454で、表示制御部184は、通信エラー対応処理に係る終了条件を満足したか否かを判定する。通信エラー対応処理に係る終了条件とは、通信エラー対応処理を終了する条件を指す。通信エラー対応処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は通信エラー対応処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
 ステップ454において、通信エラー対応処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ450へ移行する。ステップ454において、通信エラー処理に係る終了条件を満足した場合は、判定が肯定されて、通信エラー対応処理を終了する。
 次に、ウエアラブル端末装置12と、管理装置14と、サーバ装置15との間での処理の流れの一例について図15を参照しながら説明する。
 一例として図15に示すように、管理装置14は、患者情報等の送信をサーバ装置15に要求する(S1)。サーバ装置15は、管理装置14からの要求に応じて患者情報等を管理装置14に送信する(S2)。
 管理装置14は、サーバ装置15から送信された患者情報等を受信すると、準備処理を実行する(S3)。ここで、準備処理とは、例えば、図7A及び図7Bに示すステップ212~ステップ220の処理を指す。管理装置14は、準備処理中に、各種情報の送信をウエアラブル端末装置12に対して要求する(S4)。各種情報とは、例えば、ウエアラブル端末装置12の動作状況を示す情報等を指す。各種情報としては、例えば、被検眼44の前眼部の撮影が開始されたか否かを示す情報、瞳孔間距離が検出されたか否かを示す情報、及び/又は応答ボタン19が押されたか否かを示す情報等を指す。
 ウエアラブル端末装置12は、管理装置14からの要求に応じて各種情報を管理装置14に送信する(S5)。管理装置14は、準備処理を完了すると、ウエアラブル端末装置12に対して視野検査の実行を要求する(S6)。
 ウエアラブル端末装置12は、一例として図9A及び図9Bに示すように端末側処理を実行することで、管理装置14からの要求に応じて検査対象眼に対して視野検査を実行する(S7)。ウエアラブル端末装置12は、視野検査の結果を管理装置14に送信する(S8)。ここで、「視野検査の結果」とは、例えば、マーク投影位置情報及び知覚情報を指す。なお、「視野検査の結果」は、応答ボタン19が押されたタイミングで投影されたマークの位置に関するマーク投影位置情報のみであってもよい。
 上記第1実施形態では、一例として図9Bに示すように、ウエアラブル端末装置12が視野欠損マップ情報を作成しているが、本開示の技術はこれに限定されるものではなく、例えば、図15に示すように、管理装置14が視野欠損マップ情報を作成してもよい。
 すなわち、図15に示す例では、管理装置14が、視野検査の結果に基づいて視野欠損マップ240(図13参照)を作成する(S9)。このように、管理装置14にて視野欠損マップ240が作成されると、管理装置14は、作成した視野欠損マップ240を含む情報である視野欠損マップ情報をサーバ装置15に送信する(S10)。
 サーバ装置15は、管理装置14から送信された視野欠損マップ情報を受信し、受信した視野欠損マップ情報に基づいて視野検査の結果を示す視野検査結果レポートを作成する(S11)。また、サーバ装置15は、作成した視野検査結果レポートを二次記憶部94に記憶する(S12)。そして、サーバ装置15は、作成した視野検査結果レポートをビューワ17に送信する(S13)。
 ビューワ17は、視野検査結果レポートを受信し、受信した視野検査結果レポートをディスプレイ17Cに表示する(S14)。
 一方、管理装置14は、画像検査の実行をウエアラブル端末装置12に要求する(S15)。ウエアラブル端末装置12は、管理装置14からの要求に応じて画像検査を実行する(S16)。ウエアラブル端末装置12は、画像検査の結果を管理装置14に送信する(S17)。
 管理装置14は、ウエアラブル端末装置12から送信された画像検査の結果に基づいて画像検査情報を生成し、生成した画像検査情報をサーバ装置15に送信する(S18)。
 サーバ装置15は、画像検査情報を受信し、受信した画像検査情報に基づいて画像検査の結果を示す画像検査レポートを作成する(S19)。サーバ装置15は、作成した画像検査レポートを二次記憶部164に記憶する(S20)。そして、サーバ装置15は、作成した画像検査レポートをビューワ17に送信する(S21)。
 ビューワ17は、画像検査レポートを受信し、受信した画像検査レポートをディスプレイ17Cに表示する(S20)。なお、上記のS14及びS20に示したビューワ17による処理は、CPU17Hがビューワ側プログラム17J1を読み出し、読み出したビューワ側プログラム17J1を実行することで実現される処理である。
 以上説明したように、ウエアラブル端末装置12は、レーザ光源ユニット113及びIRレーザ光源114Dを有する光源114を含み、光源114からの検査光を射出する光管理部116を備えている。また、ウエアラブル端末装置12は、光管理部116から射出された光を網膜46R及び/又は網膜46Lに導く光学系27を備えている。そして、検査光が網膜46R及び/又は網膜46Lに照射されるように光管理部116及び光学系27を制御する制御部170を備えている。従って、ウエアラブル端末装置12によれば、眼科検査の効率的な実施に寄与することができる。
 また、ウエアラブル端末装置12では、光学系27が、光管理部116から射出された検査光を網膜46Rに導く右眼用光学系27Rと、光管理部116から射出された検査光を網膜46Lに導く左眼用光学系27Lと、を有する。従って、ウエアラブル端末装置12によれば、左眼44L用の光源と右眼44R用の光源とを別々に確保しなくても両眼に対して眼科検査を実施することができる。
 また、ウエアラブル端末装置12では、光源114がレーザ光源ユニット113を含み、制御部170が、レーザ光源ユニット113からの3原色レーザ光を網膜46内の特定位置に照射することで視野検査が行われるように光管理部116及び光学系27を制御する。従って、ウエアラブル端末装置12によれば、レーザ光源ユニット113を視野検査に供することができる。
 また、ウエアラブル端末装置12では、光源114がレーザ光源ユニット113を含み、制御部170が、レーザ光源ユニット113からの3原色レーザ光が網膜46に対して走査されることで網膜46のSLO撮影が行われるように光管理部116及び光学系27を制御する。従って、ウエアラブル端末装置12によれば、レーザ光源ユニット113をSLO撮影に供することができる。
 また、ウエアラブル端末装置12では、光源114がIRレーザ光源114Dを含み、制御部170が、IRレーザ光源からのIRレーザ光が網膜46に対して走査されることで網膜46のOCT撮影が行われるように光管理部116及び光学系27を制御する。従って、ウエアラブル端末装置12によれば、IRレーザ光源114DをOCT撮影に供することができる。
 また、ウエアラブル端末装置12では、制御部170が、前述した第1順序パターンで視野検査、SLO撮影、及びOCT撮影が行われるように光管理部116及び光学系27を制御する。従って、ウエアラブル端末装置12によれば、視野検査の結果に基づいてSLO撮影及びOCT撮影を順次に実施することができる。
 また、ウエアラブル端末装置12は、3原色レーザ光を走査するスキャナ28と、スキャナ28により走査された3原色レーザ光を網膜46に反射させる反射ミラー42と、を備えている。従って、ウエアラブル端末装置12によれば、白内障の患者、すなわち、水晶体が白濁している患者であっても、視野検査に要する3原色レーザ光を視覚的に知覚させることができる。
 また、ウエアラブル端末装置12は、被検眼44の前眼部を撮影する右眼用インカメラ48R及び左眼用インカメラ48Lを備えている。そして、制御部170は、右眼用インカメラ48R及び左眼用インカメラ48Lによって撮影されて得られた右眼前眼部画像及び左眼前眼部画像に基づいて瞳孔間距離を検出し、検出した瞳孔間距離に基づいて反射ミラー42の位置を制御する。従って、ウエアラブル端末装置12によれば、瞳孔間距離が異なる患者であっても、視野検査を精度良く実施することができる。
 また、ウエアラブル端末装置12は、3原色レーザ光が網膜46に照射された場合に3原色レーザ光を患者が知覚したか否かを示す操作を受け付ける応答ボタン19を備えている。そして、ウエアラブル端末装置12は、応答ボタン19によって受け付けられ操作に応じた情報を出力する処理部171を備えている。なお、上記第1実施形態では、処理部171が知覚情報を管理装置14に送信している。従って、ウエアラブル端末装置12によれば、医療サービス者は網膜46内での3原色レーザ光の不感位置を容易に把握することができる。
 また、ウエアラブル端末装置12は、管理装置14に対して視野検査の管理を行わせるように管理装置14との間で通信を行う無線通信部112を備えている。従って、ウエアラブル端末装置12によれば、視野検査の管理に関する処理負荷を軽減することができる。
 なお、視野検査の管理は、例えば、視野検査に用いられる3原色レーザ光の管理と、3原色レーザ光が網膜46に照射されることで、照射された3原色レーザ光を患者が視覚的に知覚したことを示す知覚情報の管理と、を含む管理である。従って、ウエアラブル端末装置12は、少なくとも視野検査に用いられる3原色レーザ光の管理と知覚情報の管理とに関する処理負荷を軽減することができる。
 また、管理装置14は、制御情報をウエアラブル端末装置12に送信する無線通信部82を備えている。そして、管理装置14は、検査光が網膜46R及び/又は網膜46Lに照射されることで行われた眼科検査の結果である視野欠損マップ240、SLO画像、及び/又はOCT画像をウエアラブル端末装置12から取得する取得部182を備えている。従って、管理装置14によれば、眼科検査の効率的な実施に寄与することができる。
 また、管理装置14は、眼科検査の進捗状況に応じた進捗状況画面190をディスプレイ86Aに対して表示させるようにディスプレイ86Aを制御する表示制御部184を備えている。従って、ウエアラブル端末装置12は、医療サービス者に対して眼科検査の進捗状況を容易に把握させることができる。
 また、管理装置14では、表示制御部184が、進捗状況画面90に対して、眼科検査の進捗の程度を示す進捗程度情報として機能するインジケータを表示させるようにディスプレイ86Aを制御する。また、表示制御部184は、進捗状況画面90に対して、被検眼44の特徴を示す被検眼特徴情報として前眼部画像、SLO画像、OCT画像、及び/又は視野欠損マップ240を表示させるようにディスプレイ86Aを制御する。従って、ウエアラブル端末装置12は、医療サービス者に対して眼科検査の進捗状況の詳細を容易に把握させることができる。
 また、管理装置14では、無線通信部82が、複数台のウエアラブル端末装置12の各々と無線通信を行うことで、ウエアラブル端末装置12の各々に対して検査対象眼指示情報と患者情報164Aとを送信する。そして、取得部182は、複数台のウエアラブル端末装置12の各々と無線通信を行うことで、ウエアラブル端末装置12の各々から眼科検査の結果である視野欠損マップ240、SLO画像、及び/又はOCT画像を取得する。従って、ウエアラブル端末装置12は、1人の医療サービス者が複数人の患者に対して眼科検査を並行して実施することができる。
 [第2実施形態]
 上記第1実施形態では、光管理部116が検査光及び眼底光を管理する例を挙げて説明したが、本第2実施形態では、一例として図16に示すように、右眼用光管理部510R及び左眼用光管理部510Lによって検査光及び眼底光を管理する場合について説明する。なお、本第2実施形態では、上記第1実施形態と同一の構成要素については同一の符号を付し、その説明を省略し、上記第1実施形態と異なる部分について説明する。
 一例として図16に示すように本第2実施形態に係る眼科システム500は、眼科システム10に比べ、ウエアラブル端末装置12に代えてウエアラブル端末装置502を有する点が異なる。
 ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、制御装置18に代えて制御装置503を有する点、アイウエア端末装置16に代えてアイウエア端末装置506を有する点、及び光分岐部20を有しない点が異なる。また、ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、光ファイバ30,38,40を有しない点が異なる。なお、眼科システム500も、眼科システム10と同様に、ウエアラブル端末装置502を複数台有しており、各々のウエアラブル端末装置502は、管理装置14と無線通信可能な状態で接続される。
 アイウエア端末装置506は、アイウエア端末装置16に比べ、光学系27に代えて光学系507を有する点、スキャナ28に代えてスキャナ508を有する点、
 光学系507は、光学系27に比べ、右眼用光学系27Rに代えて右側用光学系507Rを有する点、及び左眼用光学系27Lに代えて左側用光学系507Lを有する点が異なる。また、光学系507は、光学系27に比べ、スキャナ28に代えてスキャナ508を有する点が異なる。
 スキャナ508は、スキャナ28に比べ、右眼用スキャナ28Rに代えて右眼用スキャナ508Rを有する点、及び左眼用スキャナ28Lに代えて左眼用スキャナ508Lを有する点が異なる。
 右眼用スキャナ508Rは、右眼用スキャナ28Rに比べ、右眼用光授受部52に代えて右眼用光管理部510Rを有する点が異なる。また、左眼用スキャナ508Lは、左眼用スキャナ28Lに比べ、左眼用光授受部58に代えて左眼用光管理部510Lを有する点が異なる。つまり、右眼用光管理部510R及び左眼用光管理部510Lはアイウエア端末装置506に内蔵されている。
 一例として図17に示すように、制御装置503は、制御装置18に比べ、主制御部110に代えて主制御部509を有する点が異なる。主制御部509は、主制御部110に比べ、端末側プログラム124Aに代えて端末側プログラム524Aが二次記憶部124に記憶されている点が異なる。
 CPU120は、二次記憶部124から端末側プログラム524Aを読み出し、読み出した端末側プログラム524Aを一次記憶部162に展開する。そして、CPU120は、一次記憶部122に展開した端末側プログラム524Aを実行する。
 CPU120は、端末側プログラム524Aを実行することで、一例として図14に示すように、制御部570及び処理部171として動作する。制御部570は、制御部170に比べ、光学系27に代えて光学系507を制御する点が異なる。また、制御部570は、制御部170に比べ、光管理部116に代えて右眼用光管理部510R及び左眼用光管理部510Lを制御する点が異なる。
 右眼用光管理部510Rは、左眼用光管理部510Lに比べ、ウエアラブル端末装置12に対する取り付け位置が異なるものの、内部構成については、左眼用光管理部510Lと同様に構成されている。
 一例として図18に示すように、右眼用光管理部510Rは、光管理部116に比べ、光源制御回路115がバスラインに接続されている点が異なる。また、右眼用光管理部510Rは、光管理部116に比べ、光検出部117に代えて光検出部117Aを有する点が異なる。光検出部117Aは、光検出部117に比べ、駆動源制御回路119、検出シャッタ用駆動源123、ミラー用駆動源125、シャッタ127、第1スライド機構145、及び第2スライド機構147を有しない点が異なる。
 また、光管理部116は、光ファイバ30に対して右眼用光が供給され、光ファイバ30から右眼底光を受け入れているのに対し、右眼用光管理部510Rは、一例として図16に示すように、右眼用光をMEMSミラー54に射出する。また、一例として図16に示すように、右眼用光管理部510Rは、MEMSミラー54によって導かれた右眼底光を受け入れる。なお、右眼用光管理部510Rは、本開示の技術に係る右眼用射出部の一例である。また、ここで言う「右眼用光」は、本開示の技術に係る右眼用検査光の一例である。
 一例として図16に示すように、左眼用光管理部510Lは、本開示の技術に係る右眼用射出部の一例である。左眼用光管理部510Lは、左眼用光をMEMSミラー60に射出し、MEMSミラー60によって導かれた左眼底光を受け入れる。ここで言う「左眼用光」は、本開示の技術に係る左眼用検査光の一例である。
 なお、本第2実施形態に係るウエアラブル端末装置502では、右眼用光管理部フラグがオンされた場合に右眼用光管理部510Rの使用が許可され、左眼用光管理フラグがオンされた場合に左眼用光管理部510Lの使用が許可される。以下では、説明の便宜上、右眼用光管理部フラグ及び左眼用光管理部フラグを区別して説明する必要がない場合、「光管理部フラグ」と称する。
 次に、ウエアラブル端末装置502の主電源(図示省略)が投入された場合にCPU120が端末側プログラム524Aを実行することで実現される端末側処理について図19A~図19C及び図11Bを参照して説明する。
 なお、以下では、説明の便宜上、上記第1実施形態に係る端末管理処理と同一の処理については同一のステップ番号を付してその説明を省略する。
 本第2実施形態に係る端末側処理は、上記第1実施形態に係る端末側処理に比べ、図9A及び図9Bに示す視野検査処理に代えて図19A及び図9Bに示す視野検査処理を有する点が異なる。本第2実施形態に係る視野検査処理(図19A参照)は、上記第1実施形態に係る視野検査処理に比べ、ステップ256Aに代えてステップ256A1を有する点、及びステップ256Bに代えてステップ256B1を有する点が異なる。また、本第2実施形態に係る視野検査処理(図19A参照)は、上記第1実施形態に係る視野検査処理に比べ、ステップ256Cに代えてステップ256C1を有する点が異なる。更に、本第2実施形態に係る視野検査処理(図9B参照)は、上記第1実施形態に係る視野検査処理に比べ、ステップ256Uに代えてステップ256U1を有する点が異なる。
 また、本第2実施形態に係る端末側処理は、上記第1実施形態に係る端末側処理に比べ、図9Cに示すSLO画像検査処理に代えて図19Bに示すSLO画像検査処理を有する点が異なる。本第2実施形態に係るSLO画像検査処理(図19B)は、上記第1実施形態に係るSLO画像検査処理に比べ、ステップ262Aに代えてステップ262A1を有する点、及びステップ262Bに代えてステップ262B1を有する点が異なる。
 また、本第2実施形態に係る端末側処理は、上記第1実施形態に係る端末側処理に比べ、図9Dに示すOCT画像検査処理に代えて図19Cに示すOCT画像検査処理を有する点が異なる。本第2実施形態に係るOCT画像検査処理(図19C)は、上記第1実施形態に係るOCT画像検査処理に比べ、ステップ266Aに代えてステップ266A1を有する点、及びステップ266Bに代えてステップ266B1を有する点が異なる。
 図19Aに示すステップ256A1で、制御部570は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、現時点でオンされている光管理部フラグを変更する必要があるか否かを判定する。
 ステップ256A1において、現時点でオンされている光管理部フラグを変更する必要がない場合は、判定が否定されて、ステップ256C1へ移行する。ステップ256A1において、現時点でオンされている光管理部フラグを変更する必要がある場合は、判定が肯定されて、ステップ256B1へ移行する。
 なお、図19Bに示すステップ262A1及び図19Cに示すステップ266A1の各々についても、ステップ304Aの処理と同様の処理を行うので、説明を省略する。
 ステップ256B1で、制御部570は、視野検査指示情報に含まれる前述の必要な情報内の検査対象眼指示情報に基づいて、光管理部フラグの変更を行い、その後、ステップ256C1へ移行する。ここで、「光管理部フラグの変更」とは、オンされている光管理部フラグをオフしたり、オフされている光管理部フラグをオンしたりすることを指す。
 例えば、網膜46Rに対してレーザ光による走査が行われる場合、右眼用光管理部フラグをオンし、左眼用光管理部フラグをオフする。また、網膜46Lに対してレーザ光による走査が行われる場合、左眼用光管理部フラグをオンし、右眼用光管理部フラグをオフする。
 なお、図19Bに示すステップ262B1及び図19Cに示すステップ266B1の各々についても、ステップ306Aの処理と同様の処理を行うので、説明を省略する。
 ステップ256C1で、制御部570は、右眼用光管理部510R及び左眼用光管理部510Lのうち、現時点でオン状態の光管理部フラグに対応する一方に対して、レーザ光の照射を開始させることで、網膜46に対するレーザ光による走査を開始させる。例えば、現時点で右眼用光管理部フラグがオンされている場合、右眼用光管理部510Rからの右眼用レーザ光の照射を開始させることで、網膜46Rに対する右眼用レーザ光による走査を開始させる。また、例えば、現時点で左眼用光管理部フラグがオンされている場合、左眼用光管理部510Lからの左眼用レーザ光の照射を開始させることで、網膜46Lに対する左眼用レーザ光による走査を開始させる。
 図9Bに示すステップ256U1で、制御部570は、網膜46Rに対する右眼用レーザ光による走査が行われている場合に、右眼用光管理部510Rを制御することで、右眼用光管理部510Rによる走査を終了させる。また、制御部570は、網膜46Lに対する左眼用レーザ光による走査が行われている場合に、左眼用光管理部510Lを制御することで、左眼用光管理部510Lによる走査を終了させる。
 以上説明したように、ウエアラブル端末装置502は、右眼用光を網膜46Rに導き、且つ、左眼用光を網膜46Lに導く光学系507を備えている。そして、ウエアラブル端末装置502は、検査光が網膜46R及び/又は網膜46Lに照射されるように右眼用光管理部510R及び左眼用光管理部510Lを制御する制御部570を備えている。従って、ウエアラブル端末装置502によれば、眼科検査の効率的な実施に寄与することができる。また、ウエアラブル端末装置502によれば、右眼44R及び左眼44Lのうちの一方に対してSLO撮影を行いながら他方に対してOCT撮影を行うことができる。更に、ウエアラブル端末装置502によれば、右眼44R及び左眼44Lのうちの一方に対して視野検査を行いながら他方に対してSLO撮影及びOCT撮影のうちの少なくとも一方を行うことができる。
 [第3実施形態]
 上記第1実施形態では、光分岐部20を適用した場合について説明したが、本第3実施形態では、光分岐部20を用いずに本開示の技術を実現する例について説明する。なお、本第3実施形態では、上記第1実施形態と同一の構成要素については同一の符号を付し、その説明を省略し、上記第1実施形態と異なる部分について説明する。
 一例として図23に示すように、本第3実施形態に係る眼科システム800は、上記第1実施形態に眼科システム10に比べ、ウエアラブル端末装置12に代えてウエアラブル端末装置812を有する点が異なる。
 ウエアラブル端末装置812は、ウエアラブル端末装置12に比べ、光分岐部20を有しない点が異なる。また、ウエアラブル端末装置812は、ウエアラブル端末装置12に比べ、制御装置18に代えて制御装置818を有する点が異なる。更に、ウエアラブル端末装置812は、ウエアラブル端末装置12に比べ、ケーブル25に代えてケーブル25Aを有する点、ケーブル34に代えてケーブル34Aを有する点、及びケーブル36に代えてケーブル36Aを有する点が異なる。
 ケーブル25Aは、ケーブル25に比べ、光ファイバ30に代えて光ファイバ30A,30Bを有する点が異なる。ケーブル34Aは、ケーブル34に比べ、光ファイバ38に代えて光ファイバ30Aを有する点が異なる。ケーブル36Aは、ケーブル36に比べ、光ファイバ40に代えて光ファイバ36Bを有する点が異なる。すなわち、本第3実施形態では、ケーブル25Aが、分岐部αにてケーブル34A、36Aという2本のケーブルに枝分かれしている。
 制御装置818は、制御装置18に比べ、光管理部116に代えて光管理部819を有する点が異なる。
 一例として図24に示すように、光管理部916は、光管理部116に比べ、光検出部117に代えて光検出部917を有する点が異なる。光検出部917は、光検出部117に比べ、駆動源制御回路119、検出シャッタ用駆動源123、ミラー用駆動源125、シャッタ127、ミラー141、第1スライド機構145、及び第2スライド機構147を更に有する点が異なる。
 第2スライド機構147は、ビームスプリッタ129を第7位置P7と第8位置P8との間でスライド可能に保持している。第7位置P7とは、ミラー137によって導かれた検査光を反射させることで、左眼用光を光ファイバ30Bに導く位置を指す。第8位置P8とは、ミラー137によって導かれた検査光を反射させることで、右眼用光を光ファイバ30Aに導く位置を指す。
 第1スライド機構145は、シャッタ127を第5位置P5と第6位置P6との間でスライド可能に保持している。第5位置P5とは、第8位置P8のビームスプリッタ129によって導かれた右眼用光を通過させて光ファイバ30Aに導く位置を指す。第6位置P6とは、第7位置P7のビームスプリッタ129によって導かれた左眼用光を通過させて光ファイバ30Bに導く位置を指す。
 検出シャッタ用駆動源123及びミラー用駆動源125の一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。検出シャッタ用駆動源123及びミラー用駆動源125は、駆動源制御回路119に接続されており、駆動源制御回路119は、I/O128に接続されている。駆動源制御回路119には、CPU120から駆動源制御信号が入力され、駆動源制御回路119は、入力された駆動源制御信号に従って検出シャッタ用駆動源123及びミラー用駆動源125を制御する。例えば、駆動源制御回路119は、検出シャッタ用制御信号を検出シャッタ用駆動源123に供給することで検出シャッタ用駆動源123を制御し、ミラー用制御信号をミラー用駆動源125に供給することでミラー用駆動源125を制御する。
 第1スライド機構145は、検出シャッタ用駆動源123に接続されており、検出シャッタ用駆動源123によって生成された動力を受けることでシャッタ127を第5位置P5と第6位置P6との間でスライドさせる。
 第2スライド機構147は、ミラー用駆動源125に接続されており、ミラー用駆動源125によって生成された動力を受けることでビームスプリッタ129を第7位置P7と第8位置P8との間でスライドさせる。
 ミラー141は、反射ミラーであり、第8位置P8のビームスプリッタ129を透過した右眼底光を反射させることでミラー143に導く。ミラー143は、第7位置P7のビームスプリッタ129を透過した左眼底光の進行方向、及びミラー141で反射された右眼底光の進行方向に配置されている。
 ミラー143は、ダイクロイックミラーであり、眼底光をSLO光とOCT光とに分離し、SLO光を光検出部131に導き、OCT光をOCT光検出部133に導く。すなわち、ミラー143は、ミラー141によって導かれた右眼底光のうちの右眼SLO光を透過させることでSLO光検出部131に導き、右眼OCT光を反射させることでOCT光検出部133に導く。また、ミラー143は、第7位置のビームスプリッタ129を透過した左眼底光のうちの左眼SLO光を反射させることでSLO光検出部131に導き、左眼OCT光を透過させることでOCT光検出部133に導く。
 このように構成されたウエアラブル端末装置812では、光管理部916から光ファイバ30Aを介して右眼用光学系27Rに右眼用光が供給され、光管理部916から光ファイバ30Bを介して左眼用光学系27Lに左眼用光が供給される。
 なお、上記第1実施形態では、アイウエア端末装置16の外側に制御装置18及び光分岐部20が引き出されたウエアラブル端末装置12を例示したが、本開示の技術はこれに限定されるものではない。例えば、図20に示すように、眼科システム10に代えて眼科システム600を採用してもよい。
 眼科システム600は、眼科システム10に比べ、制御装置18、光分岐部20、及びケーブル25,34,36を有しない点が異なる。また、眼科システム600は、眼科システム10に比べ、アイウエア端末装置16に代えてアイウエア端末装置610を有する点が異なる。
 アイウエア端末装置610は、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とが一体化されたコントローラ352が左側テンプル24Lに収容されている。この場合、ケーブル34,36に相当するケーブルもアイウエア端末装置350のフレームに収容される。ここで、アイウエア端末装置350のフレームとは、例えば、リム22及びテンプル24を指す。
 アイウエア端末装置610で、応答反応を検出する方法の一例としては、テンプル24に設けられたタッチセンサ(図示省略)が患者によってタッチされることで応答反応を検出する方法が挙げられる。また、アイウエア端末装置610で、応答反応を検出する方法の他の例としては、音声認識装置を用いて応答反応を検出する方法が挙げられる。この場合、例えば、音声認識装置が、患者の「YES」(マーク(光)を感じた場合の意思表示の発話)及び「NO」(マーク(光)を感じなかった場合の意思表示の発話)を認識することで応答反応を検出する。また、応答ボタン19だけを別構成にして患者に把持させ、応答ボタン19による応答結果をアイウエア端末装置610に送信するようにしてもよい。
 コントローラ352は、右側テンプル24Rに設けられていてもよい。また、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とが別々にアイウエア端末装置350のフレームに収容されていてもよい。この場合、ケーブル25に相当するケーブル、すなわち、制御装置18に相当する機能を有する装置と、光分岐部20に相当する機能を有する装置とを接続するケーブルもアイウエア端末装置350のフレームに収容される。
 従って、アイウエア端末装置610によれば、ケーブル25,34,36及び光分岐部20が不要になるので、装置全体の小型化に寄与することができる。
 なお、上記第2実施形態に係るウエアラブル端末装置500についても、図20に示すウエアラブル端末装置610のように、ワイヤレスのウエアラブル端末装置にすることが可能である。すなわち、右眼用光管理部510R、左眼用光管理部510L、光学系507、及び制御装置503に相当する装置のうちの少なくとも光学系507を有するアイウエア端末装置を含むウエアラブル端末装置が採用されてもよい。この場合も、装置全体の小型化に寄与することができる。
 また、上記第1実施形態では、シャッタ121,127を例示したが、本開示の技術はこれに限定されるものではなく、シャッタ121,127に代えて、液晶シャッタ等の光の透過を制御することが可能なデバイスを採用してもよい。
 また、上記各実施形態では、光源114がレーザ光源ユニット113とIRレーザ光源114Dとを有する場合について説明したが、本開示の技術はこれに限定されるものではない。例えば、SLO撮影及び視野検査のみを実施可能にするのであれば、IRレーザ光源114Dは不要である。
 また、上記各実施形態では、レーザ光を例示したが、本開示の技術はこれに限定されるものではなく、例えば、レーザ光に代えて、スーパールミネッセントダイオード(Super Luminescent Diode)による光を採用してもよい。
 また、上記各実施形態では、応答ボタン19を例示したが、本開示の技術はこれに限定されるものではない。例えば、応答ボタン19に代えてタッチパネル・ディスプレイ、キーボード、又はマウス等を用いてもよい。
 また、上記各実施形態では、ウエアラブル端末装置12(502)で視野欠損マップが作成される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、図15に示すように、管理装置14で視野欠損マップが作成されるようにしてもよい。この場合、例えば、処理部171が知覚情報と知覚情報に関連するマーク投影位置情報とを対応付けた対応付け情報を生成し、生成した対応付け情報を、無線通信部112を介して管理装置14に送信し、管理装置14が対応付け情報に基づいて視野欠損マップを作成するようにしてもよい。なお、知覚情報に関連するマーク投影位置情報とは、応答ボタン19が押されたタイミングでマークが投影された位置に対応するマーク投影位置情報を指す。また、応答ボタン19が押されたタイミングでマークが投影された位置に対応するマーク投影位置情報を、処理部171が無線通信部112を介して管理装置14に送信し、管理装置14がマーク投影位置情報に基づいて視野欠損マップを作成するようにしてもよい。
 また、上記各実施形態では、モダリティが異なる光源(SLO撮影用の光源及びOCT撮影用の光源)として、本開示の技術に係る第1光源の一例であるレーザ光源ユニット113と、本開示の技術に係る第2光源の一例であるIRレーザ光源114Dとを例示したが、本開示の技術はこれに限定されるものではない。例えば、レーザ光源ユニット113及びIRレーザ光源114Dに代えて、波長が異なる2つの光源を用いてもよい。波長としては、例えば、R帯域の波長、B帯域の波長、G帯域の波長、及びIR帯域の波長が挙げられる。この場合、例えば、2つの光源がどちらもSLO用光源であり、一方の光源からは網膜46Lに対してR帯域の波長のレーザ光を照射することでSLO撮影を行い、他方の光源からは網膜46Rに対してG帯域の波長のレーザ光を照射することでSLO撮影を行うようにしてもよい。なお、両眼に対してOCT撮影を行う場合も同様である。
 また、上記各実施形態では、MEMSミラー54,56,60,62を例示したが、本開示の技術はこれに限定されるものではない。例えば、MEMSミラー54,56,60,62に代えて、又は、MEMSミラー54,56,60,62のうちの少なくとも1つと共に、ガルバノミラー及び/又はポリゴンミラー等の、電気的に反射面の位置を制御可能なミラーを用いてもよい。
 また、上記各実施形態では、端末側プログラム124A(524A)を二次記憶部124から読み出す場合を例示したが、必ずしも最初から二次記憶部124に記憶させておく必要はない。例えば、図21に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体700に先ずは端末側プログラム124A(524A)を記憶させておいてもよい。この場合、記憶媒体700の端末側プログラム124A(524A)がウエアラブル端末装置12(502)にインストールされ、インストールされた端末側プログラム124A(524A)がCPU120によって実行される。
 また、通信網(図示省略)を介してウエアラブル端末装置12(502)に接続される他のコンピュータ又はサーバ装置等の記憶部に端末側プログラム124A(524A)を記憶させておき、端末側プログラム124A(524A)がウエアラブル端末装置12(502)の要求に応じてインストールされるようにしてもよい。この場合、インストールされた端末側プログラム124A(524A)はCPU120によって実行される。
 また、上記各実施形態では、管理装置側プログラムを二次記憶部94から読み出す場合を例示したが、必ずしも最初から二次記憶部94に記憶させておく必要はない。例えば、図22に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体750に先ずは管理装置側プログラムを記憶させておいてもよい。この場合、記憶媒体750の管理装置側プログラムが管理装置14にインストールされ、インストールされた管理装置側プログラムがCPU90によって実行される。
 また、通信網(図示省略)を介して管理装置14に接続される他のコンピュータ又はサーバ装置等の記憶部に管理装置側プログラムを記憶させておき、管理装置側プログラムが管理装置14の要求に応じてインストールされるようにしてもよい。この場合、インストールされた管理装置側プログラムはCPU90によって実行される。
 また、上記実施形態で説明した端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、上記実施形態では、コンピュータを利用したソフトウェア構成により端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA又はASIC等のハードウェア構成のみによって、端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理のうちの少なくとも1つの処理が実行されるようにしてもよい。端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理のうちの少なくとも1つの処理がソフトウェア構成とハードウェア構成との組み合わせた構成によって実行されるようにしてもよい。
 つまり、端末管理処理、端末側処理、サーバ側処理、表示制御処理、及び通信エラー対応処理等の各種処理を実行するハードウェア資源としては、例えば、プログラムを実行することで各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、他のハードウェア資源としては、例えば、専用に設計されたFPGA、PLD、又はASICなどの回路構成を有するプロセッサである専用電気回路が挙げられる。また、これらのプロセッサのハードウェア的な構造としては、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。各種処理を実行するハードウェア資源は、上述した複数種類のプロセッサのうちの1つであってもよいし、同種または異種の2つ以上のプロセッサの組み合わせであってもよい。
 また、一例として図14に示す管理装置14の処理部180、取得部182、及び表示制御部184は、ウエアラブル型の眼科機器ではなく、据置型で両眼を観察することができる視野検査/SLO/OCT機能を有する装置(例えば、据置型眼科機器)と通信可能に接続された管理装置に対しても適用可能である。つまり、管理装置14によって実行される処理は、据置型で両眼を観察することができる視野検査/SLO/OCT機能を有する装置でも実行可能である。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (21)

  1.  被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含み、前記光源からの光を射出する射出部と、
     前記射出部から射出された光を右眼網膜に導く右眼用光学系と、前記射出部から射出された光を左眼網膜に導く左眼用光学系と、を有する光学系と、
     前記光が前記右眼網膜及び/又は前記左眼網膜に照射されるように前記射出部及び前記光学系を制御する制御部と、
     を含む眼科機器。
  2.  前記第1光源は可視光を発し、
     前記第2光源は近赤外光を発する請求項1に記載の眼科機器。
  3.  前記第1光源はSLO撮影用又は視野検査用の光源である請求項1又は請求項2に記載の眼科機器。
  4.  前記第2光源はSLO撮影用又はOCT撮影用の光源である請求項1又は請求項2に記載の眼科機器。
  5.  前記制御部は、前記第1光源からの光を前記被検眼の網膜の特定位置に照射することで視野検査が行われるように前記射出部及び前記光学系を制御する請求項1から請求項4の何れか1項に記載の眼科機器。
  6.  前記制御部は、前記第1光源からの光が前記被検眼の網膜に対して走査されることでSLO撮影が行われるように前記射出部及び前記光学系を制御する請求項1から請求項5の何れか1項に記載の眼科機器。
  7.  前記制御部は、前記第2光源からの光が前記被検眼の網膜に対して走査されることでOCT撮影が行われるように前記射出部及び前記光学系を制御する請求項1から請求項6の何れか1項に記載の眼科機器。
  8.  前記光学系は、視野検査光を前記右眼網膜に対して走査する右眼用スキャナと、前記視野検査光を前記左眼網膜に対して走査する左眼用スキャナと、を有する請求項1から請求項7の何れか1項に記載の眼科機器。
  9.  前記被検眼の前眼部を撮影する前眼部カメラを更に含み、
     前記右眼用スキャナは、前記視野検査光を前記右眼網膜に導く右眼用反射部材を有し、
     前記左眼用スキャナは、前記視野検査光を前記左眼網膜に導く左眼用反射部材を有する請求項8に記載の眼科機器。
  10.  前記制御部は、前記前眼部カメラにより撮影されて得られた前眼部画像に基づいて瞳孔間距離を検出し、検出した前記瞳孔間距離に基づいて前記右眼用反射部材及び/又は左眼用反射部材の位置を制御する請求項9に記載の眼科機器。
  11.  前記前眼部カメラは、右眼の前眼部を撮影する右眼用カメラ、及び左眼の前眼部を撮影する左眼用カメラである請求項9又は請求項10に記載の眼科機器。
  12.  前記制御部は、
     検査対象眼を指示する指示情報と、眼科検査の種類を特定する検査種類特定情報とを外部の管理装置より受信し、
     受信した検査種類特定情報に基づいて、前記射出部及び前記光学系を制御し、
     前記眼科検査の進捗状況に関する情報を前記管理装置に送信する
     請求項1から請求項11の何れか1項に記載の眼科機器。
  13.  被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含む光管理部と、
     前記光を右眼網膜に導く右眼用光学系と、前記光を左眼網膜に導く左眼用光学系と、を有する光学系を含むアイウエア端末と、
     前記光管理部からの光を前記右眼用光学系及び/又は前記左眼用光学系へ導く光分岐部と、
     前記光管理部、前記光学系及び前記光分岐部を制御する制御部と、
     を含む眼科機器。
  14.  前記光管理部と前記制御部は、一体化された制御装置であり、
     前記制御装置と前記光分岐部は、光ファイバを含むケーブルで接続されている請求項13に記載の眼科機器。
  15.  右眼用検査光を射出する右眼用射出部と、
     左眼用検査光を射出する左眼用射出部と、
     前記右眼用検査光を右眼網膜に導く右眼用光学系と、前記左眼用検査光を左眼網膜に導く左眼用光学系とを有する光学系と、
     前記右眼用検査光が前記右眼網膜に照射され、前記左眼用検査光が前記左眼網膜に照射されるように前記右眼用射出部、前記左眼用射出部、及び前記光学系を制御する制御部と、
     を含む眼科機器。
  16.  前記右眼用射出部、前記左眼用射出部及び前記光学系がアイウエア端末を構成し、
     前記アイウエア端末と前記制御部とが有線通信又は無線通信可能に接続されている請求項15に記載の眼科機器。
  17.  被検眼に対する検査用の光を発する第1光源及び第2光源を有する光源を含み、前記光源からの光を射出する射出部と、前記射出部から射出された光を右眼網膜に導く右眼用光学系と、前記射出部から射出された光を左眼網膜に導く左眼用光学系と、を有する光学系と、前記光が前記右眼網膜及び/又は前記左眼網膜に照射されるように前記射出部及び前記光学系を制御する制御部とを含む眼科機器 を管理する管理方法であって、
     検査対象眼を指示する指示情報と、眼科検査の種類を特定する検査種類特定情報を含む眼科検査情報を前記眼科機器に送信し、
     前記眼科機器による前記検査の結果を示す検査結果情報を前記眼科機器から取得することを含む管理方法。
  18.  前記眼科機器から送信される前記眼科検査の進捗状況に応じた進捗状況情報を取得し、
     前記進捗状況情報に基づいて進捗状況画面を生成し、
     生成した前記進捗状況画面を含む画像を示す画像信号を出力することを含む請求項17に記載の管理方法。
  19.  請求項1に記載の眼科機器とのデータ送受信を行う通信部と、
     制御部と、を備えた管理装置であって、
     前記制御部は、
     検査対象眼を指示する指示情報と、眼科検査の種類を特定する検査種類特定情報とを含む眼科検査情報を前記眼科機器に送信し、
     前記眼科機器による前記検査の結果を示す検査結果情報を前記眼科機器から取得する
     管理装置。
  20.  前記眼科機器から送信される前記眼科検査の進捗状況に応じた進捗状況情報を取得し、
     前記進捗状況情報に基づいて進捗状況画面を生成し、
     生成した前記進捗状況画面を含む画像を示す画像信号を出力する請求項19に記載の管理装置。
  21.  前記画像信号に基づいて前記進捗状況画面を表示する表示部を更に含む請求項20に記載の管理装置。
PCT/JP2018/033719 2017-09-11 2018-09-11 眼科機器、管理方法、及び管理装置 WO2019050049A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019541056A JP7052800B2 (ja) 2017-09-11 2018-09-11 眼科機器、管理方法、及び管理装置
US16/645,328 US11918286B2 (en) 2017-09-11 2018-09-11 Ophthalmic instrument, management method, and management device
JP2022061172A JP7355144B2 (ja) 2017-09-11 2022-03-31 眼科機器、管理方法、及び管理装置
JP2023153952A JP2023171817A (ja) 2017-09-11 2023-09-20 眼科機器、管理方法、及び管理装置
US18/428,731 US20240164635A1 (en) 2017-09-11 2024-01-31 Ophthalmic instrument, management method, and management device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-173945 2017-09-11
JP2017173945 2017-09-11

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/645,328 A-371-Of-International US11918286B2 (en) 2017-09-11 2018-09-11 Ophthalmic instrument, management method, and management device
US18/428,731 Continuation US20240164635A1 (en) 2017-09-11 2024-01-31 Ophthalmic instrument, management method, and management device

Publications (1)

Publication Number Publication Date
WO2019050049A1 true WO2019050049A1 (ja) 2019-03-14

Family

ID=65635337

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/033719 WO2019050049A1 (ja) 2017-09-11 2018-09-11 眼科機器、管理方法、及び管理装置

Country Status (3)

Country Link
US (2) US11918286B2 (ja)
JP (3) JP7052800B2 (ja)
WO (1) WO2019050049A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11918286B2 (en) * 2017-09-11 2024-03-05 Nikon Corporation Ophthalmic instrument, management method, and management device
WO2023200806A1 (en) * 2022-04-12 2023-10-19 Xenon Ophthalmics Inc. Apparatus for wavefront aberrometry

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290101A (ja) * 2000-04-06 2001-10-19 Tomohiko Hattori 奥行き方向視点調節意志検出と意志駆動方式および遠近自動補正眼鏡
JP2005137662A (ja) * 2003-11-07 2005-06-02 Nidek Co Ltd 眼科測定装置
JP2011502015A (ja) * 2007-11-05 2011-01-20 オーピーケーオー・インストルメンテーション 視力検査を行う方法
JP2011512916A (ja) * 2008-02-28 2011-04-28 カール ツァイス メディテック アクチエンゲゼルシャフト 眼の観察、検査、診断および/または治療のための眼科機器および方法
JP2014079507A (ja) * 2012-10-18 2014-05-08 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2014100254A (ja) * 2012-11-19 2014-06-05 Crewt Medical Systems Inc 視覚検査装置及び視覚検査プログラム
JP2016104306A (ja) * 2016-03-02 2016-06-09 株式会社トプコン 眼科撮影装置
JP2016140646A (ja) * 2015-02-04 2016-08-08 株式会社トーメーコーポレーション 眼科検査装置
JP2016536075A (ja) * 2013-08-10 2016-11-24 ホーガン,ジョシュア,ノエル ヘッドマウント式光コヒーレンストモグラフィ
JP2017029483A (ja) * 2015-08-03 2017-02-09 株式会社ニデック 眼科撮影装置
JP2018047044A (ja) * 2016-09-21 2018-03-29 株式会社トーメーコーポレーション 走査型レーザ検眼鏡
WO2018123741A1 (ja) * 2016-12-27 2018-07-05 株式会社Qdレーザ 網膜走査型検眼装置、網膜走査型検眼システム、網膜走査型検眼方法、アイウェア提供システム、アイウェア提供方法及び網膜走査型アイウェア

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4888579B2 (ja) 2010-04-21 2012-02-29 パナソニック電工株式会社 視機能検査装置
FI126008B (en) 2013-09-13 2016-05-31 Murata Manufacturing Co cardiac monitoring system
JP6518044B2 (ja) 2014-07-18 2019-05-22 株式会社トプコン 視機能検査装置および視機能検査システム
US10238280B2 (en) 2015-02-17 2019-03-26 Rohm Co., Ltd. Visual acuity test device and visual acuity test system
US11918286B2 (en) 2017-09-11 2024-03-05 Nikon Corporation Ophthalmic instrument, management method, and management device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290101A (ja) * 2000-04-06 2001-10-19 Tomohiko Hattori 奥行き方向視点調節意志検出と意志駆動方式および遠近自動補正眼鏡
JP2005137662A (ja) * 2003-11-07 2005-06-02 Nidek Co Ltd 眼科測定装置
JP2011502015A (ja) * 2007-11-05 2011-01-20 オーピーケーオー・インストルメンテーション 視力検査を行う方法
JP2011512916A (ja) * 2008-02-28 2011-04-28 カール ツァイス メディテック アクチエンゲゼルシャフト 眼の観察、検査、診断および/または治療のための眼科機器および方法
JP2014079507A (ja) * 2012-10-18 2014-05-08 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2014100254A (ja) * 2012-11-19 2014-06-05 Crewt Medical Systems Inc 視覚検査装置及び視覚検査プログラム
JP2016536075A (ja) * 2013-08-10 2016-11-24 ホーガン,ジョシュア,ノエル ヘッドマウント式光コヒーレンストモグラフィ
JP2016140646A (ja) * 2015-02-04 2016-08-08 株式会社トーメーコーポレーション 眼科検査装置
JP2017029483A (ja) * 2015-08-03 2017-02-09 株式会社ニデック 眼科撮影装置
JP2016104306A (ja) * 2016-03-02 2016-06-09 株式会社トプコン 眼科撮影装置
JP2018047044A (ja) * 2016-09-21 2018-03-29 株式会社トーメーコーポレーション 走査型レーザ検眼鏡
WO2018123741A1 (ja) * 2016-12-27 2018-07-05 株式会社Qdレーザ 網膜走査型検眼装置、網膜走査型検眼システム、網膜走査型検眼方法、アイウェア提供システム、アイウェア提供方法及び網膜走査型アイウェア

Also Published As

Publication number Publication date
JP2023171817A (ja) 2023-12-05
JPWO2019050049A1 (ja) 2020-10-29
JP7052800B2 (ja) 2022-04-12
US20200352432A1 (en) 2020-11-12
US11918286B2 (en) 2024-03-05
JP2022091937A (ja) 2022-06-21
US20240164635A1 (en) 2024-05-23
JP7355144B2 (ja) 2023-10-03

Similar Documents

Publication Publication Date Title
US9706920B2 (en) Ophthalmologic apparatus
US11026572B2 (en) Ophthalmic examination system and ophthalmic examination management server
JP7355144B2 (ja) 眼科機器、管理方法、及び管理装置
JP6566541B2 (ja) 眼科装置
WO2015019867A1 (ja) 眼科撮影装置
JP2013248376A (ja) 眼科装置
US10080496B2 (en) Ophthalmological device
US9848767B2 (en) Ophthalmological apparatus
US10959615B2 (en) Eye-fatigue examining device and eye-fatigue examining method
KR20170093645A (ko) 전자장치, 휴대단말기 및 그 제어방법
KR101942465B1 (ko) 망막 촬영 장치 및 이를 이용한 망막 촬영 방법
US20210153740A1 (en) Slit lamp microscope and ophthalmic system
JP7088198B2 (ja) 眼科機器、管理装置、及び眼科機器の管理方法
US8690327B2 (en) Image capture device for fundus and imaging method
JP2016049243A (ja) 眼科装置
WO2019044710A1 (ja) 眼科機器、画像生成装置、プログラム、及び眼科システム
JP2018051340A (ja) 眼科装置
JP6979276B2 (ja) 眼科装置及びその制御方法
JP2020048748A (ja) 検眼装置及び検眼方法
JP2020036984A (ja) 眼科検査システム及び眼科検査管理サーバ
JP2020044356A (ja) 眼科検査システム及び眼科検査管理サーバ
JP2020044355A (ja) 眼科検査システム及び眼科検査管理サーバ
JP2020036983A (ja) 眼科検査システム及び眼科検査管理サーバ
JP2017124214A (ja) 眼科装置
JP2018153547A (ja) 眼科装置及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18854893

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019541056

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18854893

Country of ref document: EP

Kind code of ref document: A1