WO2019044710A1 - 眼科機器、画像生成装置、プログラム、及び眼科システム - Google Patents

眼科機器、画像生成装置、プログラム、及び眼科システム Download PDF

Info

Publication number
WO2019044710A1
WO2019044710A1 PCT/JP2018/031384 JP2018031384W WO2019044710A1 WO 2019044710 A1 WO2019044710 A1 WO 2019044710A1 JP 2018031384 W JP2018031384 W JP 2018031384W WO 2019044710 A1 WO2019044710 A1 WO 2019044710A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
unit
optical system
intraocular lens
Prior art date
Application number
PCT/JP2018/031384
Other languages
English (en)
French (fr)
Inventor
研 富岡
翔太 宮崎
秀樹 尾原
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2019539458A priority Critical patent/JPWO2019044710A1/ja
Priority to US16/642,796 priority patent/US20200253468A1/en
Publication of WO2019044710A1 publication Critical patent/WO2019044710A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses, corneal implants; Implanting instruments specially adapted therefor; Artificial eyes
    • A61F2/16Intraocular lenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2240/00Manufacturing or designing of prostheses classified in groups A61F2/00 - A61F2/26 or A61F2/82 or A61F9/00 or A61F11/00 or subgroups thereof
    • A61F2240/001Designing or manufacturing processes
    • A61F2240/002Designing or making customized prostheses

Definitions

  • the technology of the present disclosure relates to an ophthalmic apparatus, an image generation device, a program, and an ophthalmic system.
  • ophthalmology refers to the medical branch that deals with the eye.
  • intraocular lens surgery in which an intraocular lens is inserted into an eye of an eye to be examined is simply referred to as "surgery”.
  • pre-surgery in which an intraocular lens is inserted into an eye of an eye to be examined is simply referred to as "surgery”.
  • post-surgery in which an intraocular lens is inserted into an eye of an eye to be examined.
  • post-operative post-operative
  • Patent Document 1 discloses an intraocular lens selection device for selecting an intraocular lens to be inserted into an eye of an eye to be examined.
  • the post-operative residual wavefront of the eye to be examined based on the corneal wavefront aberration of the cornea to be examined measured and obtained by the measuring means and the wavefront aberration of the intraocular lens model.
  • the aberration is calculated as an expected value for each intraocular lens model.
  • the post-operative residual wavefront aberration of the eye to be determined is set as a target value, and the target value and the predicted value obtained by calculation are an eye.
  • the intraocular lens model close to the target value is identified by being compared for each inner lens model.
  • the information of the specified intraocular lens model is displayed on a monitor.
  • An ophthalmologic apparatus includes: a light source; an optical system for guiding light emitted from the light source to a retina of the subject's eye; and optometric information of the subject's eye and an eye prescribed to the subject's eye
  • a communication unit that is generated based on intraocular lens information related to the inner lens and that receives a simulation image that corresponds to how the intraocular lens is prescribed to the subject's eye; and the communication unit receives the simulation image
  • a controller configured to control the light source and the optical system such that a simulation image is projected to the retina.
  • the intraocular lens is mounted on the subject eye based on the optometry information of the subject eye and the intraocular lens information on the intraocular lens prescribed to the subject eye It includes a generation unit that generates a simulation image corresponding to the appearance when prescribed, and an output unit that outputs the simulation image generated by the generation unit to a projection device.
  • an ophthalmologic system includes: a projection device configured to project an image on a retina of an eye to be examined; optometric information on the eye to be examined; and intraocular lens information on an intraocular lens prescribed to the eye to be examined And an image generation device for generating a simulation image corresponding to the appearance when the intraocular lens is prescribed to the eye based on the projection device, the projection device generating the simulation image by the image generation device The simulation image is projected to the retina.
  • BRIEF DESCRIPTION OF THE DRAWINGS It is a conceptual diagram which shows an example of the whole structure of the ophthalmologic system which concerns on embodiment.
  • BRIEF DESCRIPTION OF THE DRAWINGS It is a planar view schematic block diagram which shows an example of a structure of the wearable terminal device contained in the ophthalmologic system which concerns on embodiment. It is a block diagram showing an example of the hardware constitutions of the electric system of the ophthalmology system concerning an embodiment. It is a schematic block diagram which shows an example of a structure of the laser light source contained in the wearable terminal device of the ophthalmic system which concerns on embodiment.
  • MEMS refers to an abbreviation of "Micro Electro Mechanical Systems”.
  • I / F refers to the abbreviation of "InterFace”.
  • I / O refers to an abbreviation of input / output interface.
  • USB refers to an abbreviation of "Universal Serial Bus”.
  • ID refers to the abbreviation of "IDentification”.
  • CPU means an abbreviation of "Central Processing Unit”.
  • RAM means an abbreviation of "Random Access Memory”.
  • HDD refers to an abbreviation of "Hard Disk Drive”.
  • EEPROM refers to an abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • SSD refers to the abbreviation of "Solid State Drive”.
  • DVD-ROM refers to an abbreviation of "Digital Versatile Disc Read Only Memory”.
  • ASIC refers to an abbreviation of "Application Specific Integrated Circuit”.
  • FPGA refers to an abbreviation of "Field-Programmable Gate Array”.
  • the left-right direction indicates, for example, the direction of a straight line passing through the center of the pupil of the right eye of the patient and the center of the pupil of the left eye.
  • the “left and right direction” is also referred to as “X direction”
  • the direction from the center of the pupil of the subject's eye to the posterior pole of the subject's eye is referred to as “Z direction”.
  • the direction perpendicular to both is called "Y direction”.
  • the ophthalmologic system 10 is a system that projects an image including a still image / moving image on the retina of the patient's eye to be recognized before surgery on a patient to recognize how it looks after surgery.
  • the ophthalmologic system 10 includes a wearable terminal apparatus 12 which is an example of a projection apparatus and an ophthalmologic apparatus according to the technology of the present disclosure, and a server apparatus 14 which is an example of an image generation apparatus according to the technology of the present disclosure.
  • the wearable terminal 12 includes an eyewear terminal 16, a controller 18, and a laser beam branching unit 20.
  • the eyewear terminal device 16 is a kind of eyeglass-type terminal device worn on a patient.
  • patient refers to a patient of cataract who is scheduled to have an intraocular lens inserted into the eye after the crystalline lens has been removed.
  • a cataract patient is described as an example, but the technology of the present disclosure is not limited to this, and for example, a patient whose purpose is correction of myopia It is also good.
  • the intraocular lens is inserted into the subject's eye without removing the lens from the patient.
  • the eyewear terminal device 16 includes a rim 22 and a temple 24 in the same manner as general glasses.
  • the eyewear terminal device 16 also includes a patient projection unit 26.
  • the rim 22 holds the patient projection 26 in front of the patient's eye.
  • the temples 24 are roughly divided into left side temples 24L and right side temples 24R. One end of the left side temple 24L is attached to the left end of the rim 22, and the right side temple 24R is attached to the right end of the rim 22.
  • the left temple 24L is hung on the patient's left ear, and the right temple 24R is hung on the patient's right ear.
  • the control device 18 is used, for example, while the patient holds it or the patient wears it on his or her clothes or body.
  • the controller 18 is provided with a response button 19.
  • the response button 19 is pressed by the patient when the patient answers the medical service provider's inquiry.
  • medical service person refers to a person who provides a medical service to a patient by presenting an image to the patient using the ophthalmic system 10.
  • An example of a medical service provider is a doctor.
  • the control device 18 is connected to the server device 14 via a wireless communication unit 112 (see FIG. 3), which will be described later, in a wirelessly communicable state, and exchanges various information with the server device 14.
  • the control device 18 is connected to the laser beam branching unit 20 via the cable 25 and controls the laser beam branching unit 20.
  • the cable 25 includes an optical fiber 30 and a bus line 32.
  • the control device 18 includes a laser light source 114 (see FIG. 4) for emitting a laser beam, and controls the laser light source 114 to supply the laser beam to the laser beam branching unit 20 via the optical fiber 30. Further, the control device 18 controls the laser beam branching unit 20 via the bus line 32.
  • the laser beam branching unit 20 is connected to the eyewear terminal device 16 via the cables 34 and 36.
  • the cable 34 is connected to the right side temple 24R, and the cable 36 is connected to the left side temple 24L.
  • the cables 34, 36 both include a bus line 32. Accordingly, the control device 18 exchanges various electrical signals with the eyewear terminal device 16 via the bus line 32.
  • the cable 34 includes an optical fiber 38
  • the cable 36 includes an optical fiber 40.
  • the laser beam branching unit 20 selectively branches the laser beam supplied from the controller 18 through the optical fiber 30 into the optical fiber 38 and the optical fiber 40.
  • One laser beam obtained by splitting by the laser beam splitting unit 20 is supplied to the eyewear terminal device 16 through the optical fiber 38, and the other laser beam obtained by splitting by the laser beam splitting unit 20 is , And supplied to the eyewear terminal 16 via the optical fiber 40.
  • the patient projection unit 26 is provided with a reflection mirror 42.
  • the reflection mirror 42 is an example of a reflection member according to the technology of the present disclosure.
  • the reflection mirror 42 reflects the laser light supplied from the laser light branching unit 20 through the cables 34 and 36, and as shown in FIG. 2 as an example, the laser light is applied to the retina 46 of the patient's eye 44 to be examined. Lead.
  • the eye to be examined 44 includes a right eye 44R and a left eye 44L.
  • the reflection mirror 42 is roughly divided into a reflection mirror 42R for the right eye and a reflection mirror 42L for the left eye.
  • the right eye reflection mirror 42R is held by the rim 22 so as to be located in front of the patient's right eye 44R with the eyewear terminal 16 properly attached.
  • the left-eye reflection mirror 42L is held by the rim 22 so as to be positioned in front of the left eye 44L of the patient with the eyewear terminal 16 properly attached.
  • the right-eye reflection mirror 42R reflects the laser light supplied from the laser light branching unit 20 through the optical fiber 38, and as shown in FIG. 2 as an example, the laser light is transmitted to the retina of the patient's right eye 44R. Lead to 46R.
  • the left-eye reflection mirror 42L reflects the laser light supplied from the laser light branching unit 20 via the optical fiber 40, and guides it to the retina 46L of the patient's left eye 44L as shown in FIG. 2 as an example. .
  • the eyewear terminal device 16 includes an in-camera 48R for the right eye, an in-camera 48L for the left eye, and an out-camera 50.
  • the right-eye in-camera 48R, the left-eye in-camera 48L, and the out-camera 50 capture an object under the control of the control device 18.
  • the right-eye in-camera 48 R, the left-eye in-camera 48 L, and the out-camera 50 are attached to the upper edge of the rim 22.
  • the right-eye in-camera 48R is provided at a position shifted from the right-eye reflection mirror 42R in the Y direction, and photographs an anterior-eye portion of the right eye 44R as a subject from diagonally above the front region of the right eye 44R.
  • the left-eye in-camera 48L is provided at a position shifted from the left-eye reflection mirror 42L in the Y direction, and photographs an anterior-eye portion of the left eye 44L as a subject from diagonally above the front region of the left eye 44L.
  • the right-eye in-camera 48R and the left-eye in-camera 48L are examples of an anterior eye camera according to the technology of the present disclosure.
  • the out camera 50 is attached to the center of the upper edge of the rim 22 so as to be located, for example, in front of the eyelid of the patient with the eyewear terminal 16 attached.
  • the out camera 50 captures an external view. That is, the out-camera 50 captures an image of the front region beyond the patient projection unit 26 as a subject when viewed from the patient side with the eyewear terminal device 16 attached.
  • the "forward region" referred to herein indicates, for example, the field of view of the patient without wearing the eyewear terminal 16, that is, the real space region in the patient's gaze direction.
  • the out camera 50 is an example of a view camera according to the technology of the present disclosure.
  • the server device 14 generates an image including a still image or a moving image, and transmits the generated image to the control device 18.
  • the control device 18 receives an image transmitted from the server device 14, and supplies laser light corresponding to the received image to the eyewear terminal device 16 via the optical fibers 30, 38, 40.
  • wireless communication is performed between the wearable terminal device 12 and the server device 14
  • the technology of the present disclosure is not limited to this.
  • wired communication may be performed between the wearable terminal device 12 and the server device 14.
  • the eyewear terminal 16 includes an optical system 27.
  • the optical system 27 guides the laser light to the retina 46.
  • the optical system 27 has a scanner 28 and a reflection mirror 42.
  • the scanner 28 scans laser light supplied from the control device 18 via the laser light branching unit 20.
  • the reflection mirror 42 reflects the laser light scanned by the scanner 28 to the retina 46.
  • the optical system 27 has a right-eye optical system 27R and a left-eye optical system 27L.
  • the laser beam branching unit 20 branches the laser beam supplied from the control device 18 via the optical fiber 30 into the right-eye optical system 27R and the left-eye optical system 27L.
  • the right-eye optical system 27R guides the laser light emitted from the right-eye irradiation unit 52 from the laser light branching unit 20 via the optical fiber 38 to the retina 46R.
  • the left-eye optical system 27L guides the laser light supplied from the left-eye irradiation unit 58 from the laser light branching unit 20 via the optical fiber 40 to the retina 46L.
  • the scanner 28 has a right eye scanner 28R and a left eye scanner 28L.
  • the right-eye optical system 27R has a right-eye scanner 28R and a right-eye reflection mirror 42R.
  • the left-eye optical system 27L includes a left-eye scanner 28L and a left-eye reflection mirror 42L.
  • the right-eye scanner 28 R has MEMS mirrors 54 and 56 and scans laser light supplied via the right-eye irradiation unit 52.
  • the right-eye irradiation unit 52 irradiates the laser light supplied from the laser light branching unit 20 via the optical fiber 38.
  • the MEMS mirror 54 is disposed in the irradiation direction of the laser light by the right-eye irradiation unit 52, and the MEMS mirror 54 reflects the laser light emitted from the right-eye irradiation unit 52, whereby the MEMS mirror 56 is obtained.
  • Lead to The MEMS mirror 56 reflects the laser light guided by the MEMS mirror 54 and guides the laser light to the reflection mirror for right eye 42R.
  • the MEMS mirror 54 scans laser light in the Y direction
  • the MEMS mirror 56 scans laser light in the X direction.
  • the MEMS mirrors 54 and 56 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
  • the MEMS mirror 54 may scan in the X direction, and the MEMS mirror 56 may scan in the Y direction.
  • the right-eye scanner 28R may be configured as a reflection mirror 42R and a MEMS mirror 56 capable of scanning in the X and Y directions.
  • the right-eye reflection mirror 42R reflects the laser beam scanned by the right-eye scanner 28R to the retina 46R.
  • the right-eye reflection mirror 42R has a curved surface 42R1.
  • the curved surface 42R1 is a concave surface as viewed from the right eye 44R of the patient in a state in which the eyewear terminal device 16 is mounted, and reflects the laser light guided by the MEMS mirror 56. The laser light is guided to the retina 46R of the right eye 44R through the lens 64R under the pupil of the 44R.
  • the left-eye scanner 28 ⁇ / b> L includes the MEMS mirrors 60 and 62 and scans laser light supplied via the left-eye irradiation unit 58.
  • the irradiation unit 58 for the left eye irradiates the laser light supplied from the laser light branching unit 20 via the optical fiber 40.
  • the MEMS mirror 60 is disposed in the irradiation direction of the laser light by the irradiation unit 58 for the left eye, and the MEMS mirror 60 reflects the laser light irradiated from the irradiation unit 58 for the left eye, thereby the MEMS mirror 62 Lead to The MEMS mirror 62 reflects the laser light guided by the MEMS mirror 60 and guides the laser light to the left-eye reflection mirror 42L.
  • the MEMS mirror 60 scans laser light in the Y direction
  • the MEMS mirror 62 scans laser light in the X direction.
  • the MEMS mirrors 60 and 62 enable two-dimensional scanning with respect to the retina, and allow two-dimensional scanning of an image to be projected onto the retina.
  • the MEMS mirror 60 may be scanned in the X direction, and the MEMS mirror 62 may be scanned in the Y direction.
  • the left-eye scanner 28L may be configured as a reflection mirror 42L and a MEMS mirror 56 capable of scanning in the X and Y directions.
  • MEMS mirrors 54, 56, 60 and 62 are illustrated in the example shown in FIG. 2, the technology of the present disclosure is not limited thereto.
  • an electrically reflective surface such as a galvano mirror and / or a polygon mirror, instead of or in combination with at least one of the MEMS mirrors 54, 56, 60, 62 A mirror whose position can be controlled may be used.
  • the left-eye reflection mirror 42L reflects the laser beam scanned by the left-eye scanner 28L to the retina 46L.
  • the left-eye reflection mirror 42L has a curved surface 42L1.
  • the curved surface 42L1 is a concave surface as viewed from the left eye 44L of the patient in a state in which the eyewear terminal device 16 is mounted, and reflects the laser light guided by the MEMS mirror 62 to The laser light is guided to the retina 46L of the left eye 44L through the lens 64L under the pupil of the 46R.
  • lens 64 when it is not necessary to distinguish and describe the lenses 64R and 64L, it will be referred to as "lens 64".
  • the patient projection unit 26 further includes a right-eye slide mechanism 70R, a left-eye slide mechanism 70L, a right-eye drive source 72R, and a left-eye drive source 72L.
  • Examples of the right-eye drive source 72R and the left-eye drive source 72L include a stepping motor, a solenoid, and a piezoelectric element.
  • the drive source 72R for the right eye and the drive source 72L for the left eye are referred to as "mirror drive source 72" when it is not necessary to distinguish them.
  • the right-eye slide mechanism 70R is attached to the rim 22, and holds the right-eye reflection mirror 42R slidably in the left-right direction.
  • the right-eye slide mechanism 70R is connected to the right-eye drive source 72R, and slides the right-eye reflection mirror 42R in the left-right direction by receiving the power generated by the right-eye drive source 72R.
  • the left-eye slide mechanism 70L is attached to the rim 22, and holds the left-eye reflection mirror 42L slidably in the left-right direction.
  • the left-eye slide mechanism 70L is connected to the left-eye drive source 72L, and slides the left-eye reflection mirror 42L in the left-right direction by receiving the power generated by the left-eye drive source 72L.
  • an image based on laser light is projected onto the retina 46 of the eye to be examined 44 by the Maxwell vision optical system.
  • the “Maxwell vision optical system” mentioned here means that the laser light is converged by the lens 64 under the pupil of the eye to be examined 44 and the laser light converged by the lens 64 is irradiated to the retina 46 of the eye to be examined 44 , Refers to an optical system in which an image based on laser light is projected onto the retina 46 of the eye 44 to be examined.
  • the scanner 28 and the mirror drive source 72 are controlled by the control device 18, whereby a Maxwell vision optical system is realized.
  • the server device 14 includes a main control unit 80, a wireless communication unit 82, a reception device 84, a touch panel display 86, and an external I / F 88.
  • the main control unit 80 is an example of a computer according to the technology of the present disclosure.
  • the main control unit 80 includes a CPU 90, a primary storage unit 92, a secondary storage unit 94, a bus line 96, and an I / O 98.
  • the CPU 90, the primary storage unit 92, and the secondary storage unit 94 are connected via a bus line 96.
  • An I / O 98 is connected to the bus line 96.
  • the CPU 90 controls the entire server device 14.
  • the primary storage unit 92 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 92 is a RAM.
  • the secondary storage unit 94 is a non-volatile memory storing programs for controlling basic operations of the server apparatus 14 and various parameters. Examples of the secondary storage unit 94 include an HDD, an EEPROM, or a flash memory.
  • the wireless communication unit 82 is connected to the I / O 98.
  • the CPU 90 outputs an electrical signal to be transmitted to the control device 18 to the wireless communication unit 82.
  • the wireless communication unit 82 transmits the electric signal input from the CPU 90 to the control device 18 by radio waves.
  • the wireless communication unit 82 also receives a radio wave from the control device 18 and outputs an electrical signal corresponding to the received radio wave to the CPU 90.
  • the reception device 84 is an example of a reception unit according to the technology of the present disclosure.
  • the reception device 84 includes a touch panel 84A, a keyboard 84B, and a mouse 84C, and the touch panel 84A, the keyboard 84B, and the mouse 84C are connected to the I / O 98. Therefore, the CPU 90 can grasp various instructions received by each of the touch panel 84A, the keyboard 84B, and the mouse 84C.
  • the external I / F 88 is connected to an external device such as a personal computer and / or a USB memory, and sends and receives various information between the external device and the CPU 90.
  • the touch panel display 86 includes a display 86A and a touch panel 84A.
  • the display 86A is an example of a display unit according to the technology of the present disclosure.
  • the display 86A is connected to the I / O 98, and displays various information including an image under the control of the CPU 90.
  • the touch panel 84A is a transmissive touch panel and is superimposed on the display 86A.
  • the secondary storage unit 94 stores patient information 94A, intraocular lens information 94B, and a server-side program 94C.
  • the patient information 94A is information on the patient.
  • the patient information 94A includes patient profile information 94A1 (for example, an ID for identifying a patient, a patient's name, a patient's gender, a patient's age, physical information, past treatment history, visit status, etc.
  • optometry information 94A2 for example, corneal refractive power, corneal wavefront aberration, visual acuity, myopia / hyperopia / astigmatism, visual field, axial length, fundus
  • Information about the right eye / left eye of the patient obtained by another optometry device such as a photograph (refractive power measuring instrument, axial length measuring instrument, visual acuity measuring instrument, anterior segment measuring instrument, posterior segment measuring instrument, etc.)
  • the optometry information 94A2 is an example of the “trospection information of the eye to be examined” according to the technology of the present disclosure.
  • the optometry information may be stored in an ophthalmologic server (not shown) and may be acquired by the server device 14 from the ophthalmologic server via the wireless communication unit 82 or the external I / F 88.
  • the intraocular lens information 94 B is information on an intraocular lens prescribed to the eye to be examined 44, and in other words, it can also be said to be information indicating characteristics of the intraocular lens to be inserted into the eye to be examined 44.
  • the intraocular lens information 94B is stored in the secondary storage unit 94 for each of the different intraocular lenses.
  • the intraocular lens information 94B is an example of intraocular lens information according to the technology of the present disclosure.
  • the intraocular lens information 94 B includes the model name, manufacturer's name, A constant of the intraocular lens, postoperative ACD: predicted anterior chamber depth (unit: mm), SA (corrected spherical aberration of the intraocular lens) ): Contains information such as spherical aberration (unit: ⁇ m), whether or not it is a colored lens, and the material of the lens.
  • SA indicates a spherical aberration that is corrected when the intraocular lens is inserted into the eye to be examined 44. Note that the method of obtaining SA varies depending on the manufacturer and is already widely known, so the description thereof is omitted here.
  • the server-side program 94C is an example of a program according to the technology of the present disclosure.
  • the CPU 90 reads the server-side program 94C from the secondary storage unit 94, and expands the read server-side program 94C in the primary storage unit 92. Then, the CPU 90 executes the server-side program 94C developed in the primary storage unit 92.
  • the CPU 90 By executing the server-side program 94C, the CPU 90 operates as a processing unit 99, an acquisition unit 100, a generation unit 102, an output unit 104, and a display control unit 106 as shown in FIG. 10 as an example.
  • the processing unit 99 performs processing necessary for operating the CPU 90 as the acquisition unit 100, the generation unit 102, the output unit 104, and the display control unit 106.
  • the acquisition unit 100 acquires an original video according to an instruction accepted by the acceptance device 84 from a plurality of original videos different in scene.
  • the generation unit 102 generates a simulation image by converting or processing the original image acquired by the acquisition unit 100 based on the optometry information 94A2 and the intraocular lens information 94B.
  • the output unit 104 performs wireless communication with the wearable terminal apparatus 12 via the wireless communication unit 83, and outputs the simulation image generated by the generation unit 102 to the wearable terminal apparatus 12.
  • the display control unit 106 controls the display 86A to display the original image and the simulation image on the display 86A.
  • the original video is an example of an original image according to the technology of the present disclosure.
  • the CPU 90 operates as the processing unit 99, the acquisition unit 100, the generation unit 102, the output unit 104, and the display control unit 106, but the technology of the present disclosure is limited thereto. It is not a thing.
  • distributed processing may be performed by a plurality of processors, such as a main CPU and an image processor.
  • the main CPU may operate as the processing unit 99 and the acquisition unit 100
  • the image processing processor may operate as the generation unit 102, the output unit 104, and the display control unit 106.
  • the control device 18 includes a main control unit 110, a wireless communication unit 112, a laser light source 114, and a light source control circuit 116 in addition to the response button 19 described above.
  • the main control unit 110 is an example of a computer according to the technology of the present disclosure.
  • the main control unit 110 includes a CPU 120, a primary storage unit 122, a secondary storage unit 124, a bus line 126, and an I / O 128.
  • the CPU 120, the primary storage unit 122, and the secondary storage unit 124 are connected via a bus line 126.
  • the I / O 128 is connected to the bus line 126.
  • the CPU 120 controls the entire wearable terminal 12.
  • the primary storage unit 122 is a volatile memory used as a work area or the like when executing various programs, and an example of the primary storage unit 122 is a RAM.
  • the secondary storage unit 124 is a non-volatile memory that stores programs for controlling basic operations of the wearable terminal device 12 and various parameters. Examples of the secondary storage unit 124 include an HDD, an EEPROM, or a flash memory.
  • the response button 19 is connected to the I / O 128, and when the response button 19 is pressed, a response signal is output from the response button 19 to the CPU 120.
  • the wireless communication unit 112 is an example of a communication unit according to the technology of the present disclosure, and is connected to the I / O 128.
  • the CPU 120 outputs the electric signal to be transmitted to the server device 14 to the wireless communication unit 112.
  • the wireless communication unit 112 transmits the electric signal input from the CPU 120 to the server device 14 by radio waves.
  • the wireless communication unit 112 also receives a radio wave from the server device 14 and outputs an electrical signal corresponding to the received radio wave to the CPU 120.
  • the laser light source 114 is connected to the laser light branching unit 20 via the optical fiber 30, and the laser light source 114 generates laser light, and the generated laser light is transmitted to the laser light branching unit 20 via the optical fiber 30. Eject to.
  • the laser light source 114 is connected to a light source control circuit 116.
  • the light source control circuit 116 is connected to the I / O 128.
  • the light source control circuit 116 controls the laser light source 114 by supplying a light source control signal to the laser light source according to the instruction of the CPU 120.
  • the laser light source 114 includes an R light source 114A, a G light source 114B, a B light source 114C, and a mirror unit 130.
  • the R light source 114A emits R laser light which is R laser light of R (red), G (green), and B (blue).
  • the G light source 114B emits G laser light which is laser light of G among R, G, and B.
  • the B light source 114C emits B laser light which is B laser light of R, G, and B.
  • the mirror unit 130 includes a first mirror 130A, a second mirror 130B, and a third mirror 130C.
  • the second mirror 130B is a dichroic mirror, transmits the B laser light, and reflects the G laser light.
  • the third mirror 130C is a dichroic mirror, transmits R laser light, and reflects G laser light and B laser light.
  • the first mirror 130A is disposed in the emission direction of the B laser light by the B light source 114C, and guides the B laser light to the second mirror 130B by reflecting the B laser light emitted from the B light source 114C.
  • the second mirror 130B is disposed in the emitting direction of the G laser beam by the G light source 114B and in the traveling direction of the B laser beam reflected by the first mirror 130A.
  • the second mirror 130B guides the G laser light to the first mirror 130A by reflecting the G laser light emitted from the G light source 114B, and transmits the B laser light reflected by the first mirror 130A. Then, the B laser light is guided to the first mirror 130A.
  • the third mirror 130C is the emission direction of the R laser beam by the R light source 114A, and the traveling direction of the G laser beam reflected by the second mirror 130B, and is the G laser beam transmitted through the second mirror 130B. Are arranged in the direction of travel.
  • the third mirror 130C transmits the R laser beam emitted from the R light source 114A.
  • the third mirror 130C reflects the G laser light and the B laser light in the same direction as the R laser light to emit the R laser light, the G laser light, and the B laser light to the outside.
  • the R laser light, the G laser light, and the B laser light emitted to the outside from the laser light source 114 are simply referred to as “laser light”.
  • the bus line 32 is connected to the I / O 128, and the laser beam branching unit 20 is connected to the bus line 32. Therefore, the laser beam branching unit 20 operates under the control of the CPU 120.
  • the laser beam branching unit 20 includes a shutter 121R for the right eye, a shutter 121L for the left eye, a first slide mechanism 122R, a second slide mechanism 122L, a drive source 134R for the first shutter, and a second A shutter drive source 134L, a beam splitter 136, and a reflection mirror 138 are provided.
  • shutter 121R for the right eye and the shutter 121L for the left eye are referred to as “shutter 121” when it is not necessary to distinguish them.
  • the beam splitter 136 reflects and transmits the laser light supplied from the laser light source 114 via the optical fiber 130.
  • the laser beam for the left eye which is the laser beam reflected by the beam splitter 136, travels toward the entrance of the optical fiber 40 (see FIGS. 1 and 2).
  • the reflection mirror 138 reflects the laser light transmitted through the beam splitter 136.
  • the right-eye laser light which is the laser light reflected by the reflection mirror 138, travels toward the entrance of the optical fiber 38 (see FIGS. 1 and 2).
  • the first slide mechanism 122R slidably holds the right-eye shutter 121R between the first position P1 and the second position P2.
  • the first position P1 refers to a position for passing the right-eye laser light to guide it to the entrance of the optical fiber 38
  • the second position P2 refers to a position for shielding the right-eye laser light.
  • the second slide mechanism 122L slidably holds the left-eye shutter 121L between the third position P3 and the fourth position P4.
  • the third position P3 refers to a position for passing the left-eye laser light to guide it to the entrance of the optical fiber 40
  • the fourth position P4 refers to a position for shielding the left-eye laser light.
  • Examples of the first shutter drive source 134R and the second shutter drive source 134L include a stepping motor, a solenoid, a piezoelectric element, and the like.
  • the first shutter drive source 134R and the second shutter drive source 134L are connected to the bus line 32, and the first shutter drive source 134R and the second shutter drive source 134L operate under the control of the CPU 120. .
  • the first slide mechanism 122R is connected to the first shutter drive source 134R, and receives power generated by the first shutter drive source 134R to receive the right-eye shutter 121R at the first position P1 and the second position P1. Slide between P2.
  • the second slide mechanism 122L is connected to the second shutter drive source 134L, and receives power generated by the second shutter drive source 134L to receive the left-eye shutter 121L at the third position P3 and the fourth position P3. Slide between P4.
  • the right-eye shutter 121R since the right-eye shutter 121R is disposed at the first position P1, the right-eye laser light is supplied to the optical fiber 38, and the left-eye shutter 121L is disposed at the fourth position P4. Therefore, the left-eye laser light is blocked by the left-eye shutter 121L.
  • the right-eye shutter 121R and the left-eye shutter 121L are mechanical shutters in the present embodiment, the technology of the present disclosure is not limited thereto.
  • a shutter that electrically shields light by liquid crystal or the like may be employed.
  • the eyewear terminal device 16 includes a speaker 140.
  • the speaker 140 is provided on the temple 24.
  • the speaker 140 is connected to the bus line 32 and outputs audio under the control of the CPU 120.
  • Loudspeaker 140 may be a speaker that applies an acoustic wave directly to the tympanic membrane of a patient, or may be a bone conduction speaker that indirectly transmits vibration to the tympanic membrane of a patient.
  • the right eye drive source 72R and the left eye drive source 72L are connected to the bus line 32, and the CPU 120 controls the right eye drive source 72R and the left eye drive source 72L.
  • the in-camera 48R for the right eye, the in-camera 48L for the left eye, and the out-camera 50 are connected to the bus line 32, and the CPU 120 performs the in-camera 48L for the left eye, the in-camera 48R for the right eye, and the out camera We exchange various information with 50.
  • the right-eye irradiation unit 52, the left-eye irradiation unit 58, and the MEMS mirrors 54, 56, 60, and 62 are connected to the bus line 32, and the CPU 120 controls the right-eye irradiation unit 52 and the left-eye irradiation.
  • the unit 58 and the MEMS mirrors 54, 56, 60 and 62 are controlled.
  • the secondary storage unit 124 stores a terminal-side program 124A.
  • the terminal-side program 124A is an example of a program according to the technology of the present disclosure.
  • the CPU 120 reads the terminal-side program 124A from the secondary storage unit 124, and develops the read-out terminal-side program 124A in the primary storage unit 122. Then, the CPU 120 executes the terminal-side program 124A expanded in the primary storage unit 122.
  • the CPU 120 operates as the processing unit 142 and the control unit 144 as illustrated in FIG. 11 by executing the terminal-side program 124A.
  • the processing unit 142 performs processing necessary for operating the CPU 120 as the control unit 144.
  • the processing unit 142 controls the wireless communication unit 112 to cause the wireless communication unit 112 to receive the simulation video transmitted from the server device 14.
  • the control unit 144 controls the laser light source 114 and the optical system 27 so that the simulation image received by the wireless communication unit 112 is projected on the retina 46.
  • the control unit 144 controls the wireless communication unit 112 such that an image obtained by photographing with the out camera 50 is transmitted to the server device 14.
  • the technology of the present disclosure is not limited to this.
  • distributed processing may be performed by a plurality of processors, such as a main CPU and a sub CPU.
  • the main CPU may operate as the processing unit 142
  • the sub CPU may operate as the control unit 144.
  • server-side process realized by the CPU 90 executing the server-side program 94C when an instruction to start execution of the server-side process is received by the receiving device 84 will be described with reference to FIG.
  • the server side process shown in FIG. 6 is a process performed when confirming how the patient looks after surgery by the patient himself before the operation on the patient.
  • the plurality of display areas are a patient information display area 86A1, an intraocular lens information display area 86A2, a video type selection button display area 86A3, a control button display area 86A4, an original video display area 86A5, and a simulation video display area 86A6.
  • the plurality of display areas are a patient information display area 86A1, an intraocular lens information display area 86A2, a video type selection button display area 86A3, a control button display area 86A4, an original video display area 86A5, and a simulation video display area 86A6.
  • the patient information display area 86A1, the intraocular lens information display area 86A2, the original video display area 86A5, and the simulation video display area 86A6 are in the non-display state at the start of server side processing. It explains as a premise.
  • the image type selection button display area 86A3 includes a landscape button 87A, a reading button 87B, an operation button 87C, a capture button 87D, and a camera button 87E. It will be described on the assumption that it has already been displayed.
  • the landscape button 87A refers to a soft key pressed when the CPU 90 acquires an image representing a landscape as an original image.
  • the reading button 87B indicates a soft key pressed when the CPU 90 acquires an image including a large number of printed characters such as a general paperback or a newspaper as an original image.
  • the drive button 87C refers to a soft key pressed when the CPU 90 acquires an image showing a view seen from the driver's seat while driving a car as an original image.
  • the capture button 87D indicates a soft key that is pressed when the CPU 90 acquires an image as an original image from an external device via the external I / F 88.
  • the camera button 87E refers to a soft key pressed when the CPU 90 operates the out camera 50 and causes the CPU 90 to acquire an image obtained by photographing the out camera 50 as an original image.
  • an original video that is a video showing a landscape is referred to as a "landscape original video”.
  • an original video which is a video including a large number of printed characters such as a general paperback or a newspaper is referred to as a "reading original video”.
  • an original video which is a video showing a view seen from a driver's seat while driving a car is referred to as a “driving original video”.
  • an original video which is a video acquired by the CPU 90 from an external device via the external I / F 88 is referred to as a “captured original video”.
  • an original video which is a video obtained by being photographed by the out camera 50 is referred to as a "camera original video”.
  • the camera original video is an example of a view image according to the technology of the present disclosure, and is transmitted to the server device 14 by the processing unit 142 under the control of the control unit 144.
  • the landscape original video, the reading original video, and the driving original video are stored in the secondary storage unit 94 in advance.
  • the external device is connected to the external I / F 88, and the CPU 90 is in a state capable of acquiring the original image acquired from the external device via the external I / F 88.
  • the “image selection button 87 is not added. ".
  • scenes such as landscapes, reading and driving but also videos with movements such as sports and / or videos of various scenes according to lifestyles are prepared, and videos of scenes according to the patient's requirements are available. It may be selected.
  • the right / left / binocular button 89A, the shooting / projection button 89B, and the projection start button 89C are already displayed in the control button display area 86A4.
  • the right / left / binocular button 89A selects whether to project an image only to the right eye 44R, to project an image only to the left eye 44L, or to project an image to both eyes. Indicates a soft key to be pressed.
  • the shooting / projection button 89 B indicates a soft key that is pressed when selecting which of shooting by the out camera 50 and projection of an image to the eye to be examined 44 is to be performed.
  • the projection start button 89 C indicates a soft key pressed when instructing the start of projection of an image to the eye to be examined 44.
  • step 200 the acquiring unit 100 acquires patient information 94A from the secondary storage unit 94, and then proceeds to step 202.
  • the patient information 94A acquired in step 200 is displayed in the patient information display area 86A1 under the control of the CPU 90, as shown in FIG. 9 as an example.
  • step 202 the processing unit 99 determines whether the reception device 84 has received an eyewear ID.
  • the eyewear ID refers to information that can uniquely identify the wearable terminal 12 attached to the patient.
  • step 202 If the eyewear ID is not accepted by the accepting device 84 in step 202, the determination is negative and the process moves to step 204. If the eyewear ID is accepted by the acceptance device 84 in step 202, the determination is affirmative and the process moves to step 206.
  • step 202 the eyewear ID of the wearable terminal 12 worn by the patient is transmitted from the wearable terminal 12 to the server 14 via the wireless communication unit 112, and the server unit 14 transmits the wireless communication unit 112.
  • the eyewear ID may be received by causing the processing unit 99 to acquire the information via the ID.
  • the processing unit 99 determines whether or not the end condition relating to the server-side process is satisfied.
  • the termination condition according to the server-side process indicates a condition under which the server-side process is terminated.
  • the termination condition related to the server side processing the condition that the predetermined time has elapsed, the condition that the reception device 84 has accepted the termination instruction, and / or the server side processing can not but be forced to be terminated forcibly
  • a condition that a defect is detected by the CPU 90 may, for example, be mentioned.
  • step 204 If it is determined in step 204 that the termination condition of the server-side process is not satisfied, the determination is negative and the process moves to step 202. If it is determined in step 204 that the termination condition relating to the server-side process is satisfied, the determination is affirmative and the server-side process is terminated.
  • the processing unit 99 determines whether or not the intraocular lens ID has been accepted by the acceptance device 84.
  • the intraocular lens ID refers to information that can uniquely identify an intraocular lens to be inserted into the eye to be examined 44.
  • step 206 If the intraocular lens ID is not accepted by the acceptance device 84 in step 206, the determination is negative and the process proceeds to step 208. If the intraocular lens ID is accepted by the acceptance device 84 in step 206, the determination is affirmative and the process moves to step 210.
  • step 208 the processing unit 99 determines whether the end condition related to the server-side process is satisfied. If it is determined in step 208 that the termination condition of the server-side process is not satisfied, the determination is negative and the process moves to step 206. If it is determined in step 208 that the termination condition of the server-side process is satisfied, the determination is affirmative and the server-side process is terminated.
  • step 210 the processing unit 99 acquires, from the secondary storage unit 94, intraocular lens information 94B corresponding to the intraocular lens specified by the intraocular lens ID accepted by the acceptance device 84 in step 206, and The process moves to step 212.
  • the intraocular lens information 94B acquired in step 210 is displayed in the intraocular lens information display area 86A2 under the control of the CPU 90, as shown in FIG. 9 as an example.
  • step 212 the CPU 90 executes the postoperative visual field simulation process shown in FIG. 7 as an example, and then proceeds to step 214.
  • step 212A the processing unit 99 determines whether or not a video type is selected.
  • the video selection button 87 is pressed through the touch panel 84A, it is determined that the video type (scene) is selected.
  • step 212A If the video type is not selected in step 212A, the determination is negative and the process proceeds to step 212B. If the video type is selected, the determination is affirmative, and the process proceeds to step 212C.
  • step 212B the processing unit 99 determines whether the end condition related to the server-side process is satisfied. If it is determined in step 212B that the termination condition of the server-side process is not satisfied, the determination is negative and the process proceeds to step 212A. If it is determined in step 212B that the termination condition of the server-side process is satisfied, the determination is affirmative and the process proceeds to step 212P.
  • step 212C the acquisition unit 100 acquires an original video corresponding to the video type selected in step 212A or the video type changed in step 212G, and then proceeds to step 212D.
  • step 212D the display control unit 106 controls the display 86A to cause the display 86A to start displaying the original video acquired in step 212C, and then proceeds to step 212E. Thereby, the original video acquired in step 212C is displayed in the original video display area 86A5.
  • step 212E the generation unit 102 converts or images the original image acquired in step 212C based on the optometry information 94A2 acquired in step 200 and the intraocular lens information 94B acquired in step 210 or step 212I.
  • the simulation video is generated by performing the processing.
  • the simulation image is a simulation image (image) corresponding to the appearance when the intraocular lens is prescribed to the subject eye, and in another expression, when the prescribed intraocular lens is worn on the patient An image of the scene seen by the patient.
  • step 212F the display control unit 106 controls the display 86A to cause the display 86A to start displaying the simulation image generated in step 212E, and then proceeds to step 212G. Thereby, the simulation video generated in step 212E is displayed in the simulation video display area 86A6.
  • the processing unit 99 determines whether the video type has been changed.
  • the change of the video type is realized by pressing the video selection button 87 corresponding to the original video different from the original video currently acquired.
  • step 212G If the video type is changed in step 212G, the determination is affirmative and the process proceeds to step 212H. If the video type is not changed in step 212G, the determination is negative and the process proceeds to step 212I.
  • step 212H the display control unit 106 controls the display 86A to end the display of the original image on the display 86A, and then proceeds to step 212C.
  • the original video is erased from the original video display area 86A5.
  • the processing unit 99 determines whether or not the intraocular lens ID has been changed.
  • the change of the intraocular lens ID is realized by the acceptance device 84 receiving an intraocular lens ID different from the intraocular lens ID corresponding to the currently acquired intraocular lens information.
  • step 212I If the intraocular lens ID has been changed in step 212I, the determination is affirmative and the process moves to step 212J. If the intraocular lens ID has not been changed in step 212I, the determination is negative and the process moves to step 212K.
  • the intraocular lens information 94B corresponding to the intraocular lens specified by the changed intraocular lens ID is acquired, and the intraocular unit held by the acquisition unit 100 The lens information 94B is updated.
  • step 212J the display control unit 106 controls the display 86A to end the display of the simulation image on the display 86A, and then proceeds to step 212E.
  • the simulation video is erased from the simulation video display area 86A6.
  • step 212K the processing unit 99 determines whether an instruction to start projection has been accepted.
  • the projection start button 89C is pressed, it is determined that the projection start instruction is accepted.
  • step 212K If it is determined in step 212K that a projection start instruction has not been received, the determination is negative and the process moves to step 212N. If it is determined in step 212K that a projection start instruction is received, the determination is affirmative and the process proceeds to step 212L.
  • the processing unit 99 transmits the projection target eye indication information to the control device 18 via the wireless communication unit 82, and then proceeds to step 212M.
  • the projection target eye indication information indicates information indicating the target eye on which the simulation video is to be projected.
  • the "target eye” mentioned here refers to any of the right eye 44R, the left eye 44L, and the both eyes, and the right eye 44R, the left eye 44L, and the both eyes are pressed by pressing the right / left / binocular button 89A. One of the eyes is selected as the "target eye”.
  • step 212M the output unit 104 transmits the simulation image generated in step 212E to the control device 18 via the wireless communication unit 82, and then proceeds to step 212N.
  • step 212N the processing unit 99 determines whether or not the end condition relating to the server-side process is satisfied. If it is determined in step 212N that the termination condition of the server-side process is not satisfied, the determination is negative and the process proceeds to step 212G. If it is determined in step 212N that the termination condition of the server-side process is satisfied, the determination is affirmative and the process proceeds to step 212P.
  • step 212P the display control unit 106 controls the display 86A to end the display of the original image and the simulation image on the display 86A, and ends the post-operative visual field simulation process.
  • the original video is erased from the original video display area 86A5
  • the simulation video is erased from the simulation video display area 86A6.
  • the anterior eye portion of the right eye 44R is photographed by the right eye in-camera 48R
  • the anterior eye portion of the left eye 44L is photographed by the left eye in-camera 48L.
  • an image obtained by capturing the anterior segment of the right eye 44R by the right-eye in-camera 48R is referred to as a right-eye anterior segment image, and in front of the left-eye 44L by the left-eye in-camera 48L.
  • An image obtained by photographing the eye is referred to as a left eye anterior eye image.
  • step 216 the processing unit 99 performs wireless communication with the control device 18 to cause the control unit 144 to detect the interpupillary distance based on the right eye anterior eye image and the left eye anterior eye image, and then , And proceeds to step 218.
  • the inter-pupil distance is the distance between the pupil in the anterior segment of the right eye 44R indicated by the right-eye anterior segment image and the pupil in the anterior segment of the left eye 44L indicated by the left-eye anterior segment image. Point to distance.
  • step 218 the processing unit 99 performs wireless communication with the control device 18 to notify the control unit 144 based on the eyewear ID accepted in step 202, the interpupillary distance detected in step 216, and the like.
  • the position of the reflection mirror 42 is adjusted.
  • the processing unit 99 wirelessly communicates with the control device 18 to send a laser beam to the control unit 144 based on the eyewear ID accepted in step 202 and the interpupillary distance detected in step 216, etc.
  • the scanner 28 is controlled so as to correct the optical axis of the lens and to perform the home position search.
  • the position of the reflection mirror 42 is adjusted by the mirror drive source 72 being controlled by the control unit 144. Further, correction of the optical axis of the laser beam and origination are realized by the scanner 28 being controlled by the control unit 144.
  • whether the evaluation by the patient is good or not is determined by whether or not the patient presses the response button 19 in response to the medical service provider's inquiry.
  • response button 19 When the response button 19 is pressed by the patient, response information indicating that the response button 19 is pressed is transmitted from the control device 18 to the server device 14 via the wireless communication unit 112, and the response information is wirelessly transmitted to the server device 14. It is received by the communication unit 82.
  • the CPU 90 causes the display 86 A to display a message or an image indicating that the response information has been received by the wireless communication unit 82. You may
  • step 220 if the patient does not evaluate well, the process proceeds to step 206. In step 220, if the patient's evaluation is good, the determination is affirmed and the server side process is ended.
  • the medical service person confirms the appearance while communicating with the patient. Then, the medical service provider determines whether the designated intraocular lens is appropriate for the patient. If the patient's evaluation is not good, a new intraocular lens ID is designated by the medical service person, and the simulation image is displayed again.
  • terminal-side processing that is realized by the CPU 120 executing the terminal-side program 124A when the main power (not shown) of the wearable terminal 12 is turned on will be described with reference to FIG.
  • the terminal side process shown in FIG. 8 is a process performed when the patient confirms the view of the operation after the operation before the operation on the patient.
  • step 250 the processing unit 142 performs wireless communication processing on the projection target eye indication information transmitted by execution of the processing in step 212L included in the postoperative visual field simulation processing. It is determined whether 112 has been received. If it is determined in step 250 that the wireless communication unit 112 has not received the projection target eye indication information, the determination is negative and the process proceeds to step 252. In step 250, when the wireless communication unit 112 receives the projection target eye instruction information, the determination is affirmed and the process proceeds to step 254.
  • the processing unit 142 determines whether or not the end condition related to the terminal-side process is satisfied.
  • the termination condition according to the terminal-side process indicates a condition under which the terminal-side process is terminated.
  • the termination condition related to the terminal side processing the condition that the predetermined time has elapsed, the condition that the receiving device 84 has accepted the termination instruction, and / or the terminal side processing can not but be forced to be terminated forcibly
  • a condition that a defect is detected by the CPU 120 may, for example, be mentioned.
  • step 252 If it is determined in step 252 that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process proceeds to step 250. If it is determined in step 252 that the termination condition relating to the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
  • step 254 based on the projection target eye instruction information received by the wireless communication unit 112, the processing unit 142 needs to move at least one of the right eye shutter 121R and the left eye shutter 121L. Determine if
  • step 254 If it is determined in step 254 that both the right-eye shutter 121R and the left-eye shutter 121L do not need to be moved, the determination is negative and the process moves to step 258. If it is determined in step 254 that at least one of the right-eye shutter 121R and the left-eye shutter 121L needs to be moved, the determination is affirmative and the process moves to step 256.
  • step 256 the control unit 144 moves the shutter 121 based on the projection target eye indication information received by the wireless communication unit 112.
  • the right-eye shutter 121R is disposed at the first position P1
  • the left-eye shutter 121L is disposed at the third position P3.
  • the 134R and the second shutter drive source 134L are controlled.
  • the first shutter drive source 134R and the first shutter drive source 134R are arranged such that the right-eye shutter 121R is disposed at the first position P1 and the left-eye shutter 121L is disposed at the fourth position P4.
  • the 2 shutter drive source 134L is controlled.
  • the first shutter drive source 134R and the first shutter drive source 134R are arranged such that the right eye shutter 121R is disposed at the second position P2 and the left eye shutter 121L is disposed at the third position P3.
  • the 2 shutter drive source 134L is controlled.
  • the shutter is not a mechanical mechanism but is an electrically driven shutter
  • transmission / non-transmission of the laser light of the left and right shutters can be controlled based on the projection target eye instruction information.
  • the processing unit 142 determines whether or not the simulation image transmitted by performing the process of step 212M included in the post-operative visual field simulation process is received.
  • step 258 If it is determined in step 258 that a simulation video has been received, the determination is affirmative and the process moves to step 260. If it is determined in step 258 that a simulation video has not been received, the determination is negative and the process proceeds to step 262.
  • step 260 the control unit 144 causes the laser light source 114 to emit laser light corresponding to the simulation image received by the wireless communication unit 112, and controls the scanner 28 according to the projection target eye indication information.
  • the simulation image is projected on the retina 46.
  • the processing unit 142 determines whether the termination condition related to the terminal-side processing is satisfied. If it is determined in step 262 that the termination condition of the terminal-side process is not satisfied, the determination is negative and the process moves to step 258. If it is determined in step 262 that the termination condition related to the terminal-side process is satisfied, the determination is affirmative and the terminal-side process is terminated.
  • the ophthalmologic system 10 includes the wearable terminal device 12 and the server device 14 that generates a simulation image by converting the original image based on the optometry information 94A2 and the intraocular lens information 94B. There is. Then, the wearable terminal device 12 projects the simulation image generated by the server device 14 onto the retina 46. Therefore, according to the ophthalmologic system 10, it is possible to make the patient feel and confirm the actual view after the operation.
  • the wearable terminal device 12 also includes an optical system 27 for guiding laser light to the retina 46, and a wireless communication unit 112 for receiving a simulation image generated by the server device 14 based on the optometry information 94A2 and the intraocular lens information 94B. And.
  • the wearable terminal device 12 further includes a control unit 144 that controls the laser light source 114 and the optical system 27 so that the simulation image received by the wireless communication unit 112 is projected onto the retina 46. Therefore, according to the wearable terminal device 12, it is possible to make the patient feel and confirm the actual view after the operation.
  • the wearable terminal 12 further includes a scanner 28 for scanning laser light, and a reflection mirror 42 for reflecting the laser light scanned by the scanner 28 to the retina 46. Therefore, according to the wearable terminal 12, it is possible to present a post-operative view to a cataract patient, ie, a patient whose lens is clouded.
  • the wearable terminal device 12 includes an in-camera 48R for the right eye and an in-camera 48L for the left eye that capture an anterior segment of the eye 44 to be examined. Then, the control unit 144 detects and detects the inter-pupil distance based on the right-eye anterior-eye image and the left-eye anterior-eye image obtained by photographing with the right-eye in-camera 48R and the left-eye in-camera 48L. The position of the reflecting mirror 42 is controlled based on the interpupillary distance. Therefore, according to the wearable terminal 12, even for patients with different inter-pupil distances, it is possible to realize and confirm the actual appearance after the operation.
  • the wearable terminal device 12 also includes an optical system 27R for the right eye and an optical system 27L for the left eye.
  • the wearable terminal device 12 includes the laser beam branching unit 20 that branches the laser beam into the right-eye optical system 27R and the left-eye optical system 27L. Therefore, according to the wearable terminal 12, simulation images can be simultaneously projected from one laser light source 114 to both eyes.
  • the wearable terminal device 12 also includes an out camera 50. Then, the control unit 144 controls the wireless communication unit 112 such that an image obtained by photographing by the out camera 50 is transmitted to the server device 14. Therefore, according to the wearable terminal device 12, it is possible to make the patient feel and confirm how the actual external view after the surgery is seen.
  • the wearable terminal device 12 also includes an eyewear terminal device 16 having an optical system 27. Therefore, the wearable terminal 12 can project a simulation image while the patient wears the eyewear terminal 16.
  • the server device 14 further includes a generation unit 102 that generates a simulation image by converting an original image based on the optometry information 94A2 and the intraocular lens information 94B.
  • the server device 14 includes an output unit 104 that outputs the simulation video generated by the generation unit 102 to the wearable terminal device 12 by performing wireless communication with the wearable terminal device 12. Therefore, according to the server device 14, it is possible to make the patient feel and confirm the actual appearance after the operation.
  • the server device 14 further includes an acquisition unit 100 that acquires an original video according to an instruction received by the reception device 84 from a plurality of original videos having different scenes. Then, the generation unit 102 generates a simulation image by converting the original image acquired by the acquisition unit 100 based on the optometry information 94A2 and the intraocular lens information 94B. Therefore, according to the server device 14, it is possible to project a simulation image according to the patient's preference / lifestyle onto the patient's retina 46 via the wearable terminal device 12.
  • the server device 14 further includes a display control unit 106 that controls the display 86A so that the original video is displayed in the original video display area 86A5 and the simulation video is displayed in the simulation video display area 86A6. Therefore, according to the server device 14, the medical service person can visually recognize the original video and the simulation video.
  • the technology of the present disclosure is not limited to this, and a still image may be adopted instead of the video, or a slide image having a plurality of still images is used. It may be adopted.
  • the technique of this indication is not limited to this.
  • an ophthalmologic system 500 may be employed instead of the ophthalmologic system 10.
  • the ophthalmologic system 500 is different from the ophthalmologic system 10 in that a wearable terminal device 502 is provided instead of the wearable terminal device 12.
  • the wearable terminal device 502 differs from the wearable terminal device 12 in that the wearable terminal device 502 does not have the optical fibers 30, 38 and 40 and the laser beam branching unit 20.
  • the wearable terminal device 502 differs from the wearable terminal device 12 in that it has a control device 505 in place of the control device 18.
  • the wearable terminal device 502 differs from the wearable terminal device 12 in that it has an eyewear terminal device 504 in place of the eyewear terminal device 16.
  • the control device 505 differs from the control device 18 in that it does not have the laser light source 114.
  • the eyewear terminal device 504 differs from the eyewear terminal device 16 in that it has an optical system 506 in place of the optical system 27.
  • the optical system 506 is different from the optical system 27 in that it has a right optical system 508R in place of the right-eye optical system 27R and a left-side optical system 508L in place of the left-eye optical system 27L.
  • the optical system 506 differs from the optical system 27 in that it has a scanner 508 in place of the scanner 28.
  • the scanner 508 differs from the scanner 28 in that it has a right eye scanner 508R instead of the right eye scanner 28R and a left eye scanner 508L instead of the left eye scanner 28L.
  • the right-eye scanner 508R is different from the right-eye scanner 28R in that the light from the right-eye laser light source 510R is scanned instead of scanning the laser light from the right-eye irradiation unit 52.
  • the right-eye laser light source 510R is an example of the right-eye light source according to the technology of the present disclosure, and is used for the right-eye optical system 508R.
  • the right-eye laser light source 510R emits a laser beam to the MEMS mirror 54 in the same manner as the right-eye irradiation unit 52.
  • the right-eye laser light source 510 R is connected to the bus line 32 and operates under the control of the CPU 120.
  • the left-eye scanner 510L is different from the left-eye scanner 28L in that it scans light from the right-eye laser light source 510L instead of scanning laser light from the left-eye irradiation unit 58.
  • the left-eye laser light source 510L is an example of the left-eye light source according to the technology of the present disclosure, and is used for the left-eye optical system 508L.
  • the left-eye laser light source 510L emits laser light to the MEMS mirror 60 in the same manner as the left-eye irradiation unit 58.
  • the left-eye laser light source 510 L is connected to the bus line 32 and operates under the control of the CPU 120.
  • the optical fibers 30, 38 and 40 and the laser beam branching unit 20 become unnecessary, which can contribute to the miniaturization of the wearable terminal device 502.
  • the eyewear terminal 504 is attached with the right-eye laser light source 510R, the left-eye laser light source 510L, the right-eye optical system 508R, and the left-eye optical system 508L.
  • the technique of the present disclosure is not limited to this.
  • an apparatus having a function corresponding to the control apparatus 505 may be attached to the frame of the eyewear terminal 504.
  • the wearable terminal 300 may be employed instead of the wearable terminal 12.
  • the wearable terminal device 300 differs from the wearable terminal device 12 in that it has an eyewear terminal device 302 in place of the eyewear terminal device 16.
  • the eyewear terminal device 302 differs from the eyewear terminal device 16 in that an in / out camera 304 is employed in place of the in-camera 48R for the right eye, the in-camera 48L for the left eye, and the out camera 50.
  • the in / out camera 304 is a camera in which an in-camera capable of simultaneously photographing the anterior segment of the right eye 44R and the anterior segment of the left eye 44L and an out-camera having the same function as the out-camera 50 are integrated. is there.
  • the right-eye in-camera 48R, the left-eye in-camera 48L, and the out-camera 50 are disposed outside the rim 22, but the technology of the present disclosure is not limited thereto.
  • the right-eye in-camera 48R, the left-eye in-camera 48L, and the out-camera 50 may be embedded in the rim 22 such that each photographing lens (not shown) is exposed to the subject side.
  • the wearable terminal 12 in which the control device 18 and the laser beam branching unit 20 are extracted outside the eyewear terminal 16 is illustrated in the above embodiment, the technology of the present disclosure is not limited to this. .
  • an ophthalmologic system 340 may be employed instead of the ophthalmologic system 10.
  • the ophthalmologic system 340 is different from the ophthalmologic system 10 in that the controller 18, the laser beam branching unit 20, and the cables 25, 34 and 36 are not included. Further, the ophthalmologic system 340 is different from the ophthalmologic system 10 in that an eyewear terminal device 350 is provided instead of the eyewear terminal device 16.
  • a controller 352 in which a device having a function corresponding to the control device 18 and a device having a function corresponding to the laser beam branching unit 20 are integrated is accommodated in the left temple 24L.
  • the cables corresponding to the cables 34 and 36 are also accommodated in the frame of the eyewear terminal device 350.
  • the frame of the eyewear terminal device 350 refers to, for example, the rim 22 and the temple 24.
  • the controller 352 may be provided on the right side temple 24R.
  • a device having a function corresponding to the control device 18 and a device having a function corresponding to the laser beam branching unit 20 may be separately accommodated in the frame of the eyewear terminal device 350.
  • a cable corresponding to the cable 25, that is, a cable for connecting a device having a function corresponding to the control device 18 and a device having a function corresponding to the laser beam branching unit 20 is also included in the frame of the eyewear terminal device 350. Be housed.
  • the shutter 121 is exemplified in the above embodiment, the technology of the present disclosure is not limited to this, and instead of the shutter 121, a device capable of controlling transmission of light, such as a liquid crystal shutter It may be adopted.
  • the technique of this indication is not limited to this, for example, it replaces with a laser beam and employ
  • the terminal-side program 124A is read from the secondary storage unit 124 is exemplified, but it is not necessary to store the terminal-side program 124A in the secondary storage unit 124 from the beginning.
  • the terminal-side program 124A may be stored in an arbitrary portable storage medium 400 such as an SSD, a USB memory, or a DVD-ROM.
  • the terminal side program 124A of the storage medium 400 is installed in the wearable terminal device 12, and the installed terminal side program 124A is executed by the CPU 120.
  • the terminal side program 124A is stored in a storage unit such as another computer or a server device connected to the wearable terminal device 12 via a communication network (not shown), and the terminal side program 124A of the wearable terminal device 12 It may be installed after being downloaded upon request. In this case, the installed terminal-side program 124A is executed by the CPU 120.
  • the server-side program 94C is read from the secondary storage unit 94.
  • the secondary storage unit 94 does not have to store the server-side program 94C from the beginning.
  • the server-side program 94C may be stored in an arbitrary portable storage medium 450 such as an SSD, a USB memory, or a DVD-ROM.
  • the server-side program 94C of the storage medium 450 is installed in the server apparatus 14, and the installed server-side program 94C is executed by the CPU 90.
  • server side program 94C is stored in a storage unit such as another computer or server device connected to the server device 14 via a communication network (not shown), and the server side program 94C receives a request from the server device 14. It may be installed after being downloaded accordingly. In this case, the installed server-side program 94C is executed by the CPU 90.
  • server side process and the terminal side process which were demonstrated by the said embodiment are an example to the last. Therefore, needless to say, unnecessary steps may be deleted, new steps may be added, or the processing order may be changed without departing from the scope of the present invention.
  • the server side process and the terminal side process are realized by the software configuration using a computer
  • the technology of the present disclosure is not limited to this.
  • the software configuration using a computer at least one of the server-side processing and the terminal-side processing may be executed only by a hardware configuration such as an FPGA or an ASIC.
  • At least one of the server-side process and the terminal-side process may be executed by a combination of a software configuration and a hardware configuration.
  • Simulation image is an image obtained by performing image processing on an original image based on the optometry information (94A2) and the intraocular lens information (94B).
  • the optical system (27, 506) comprises a scanner (28, 508) for scanning the light, and a reflecting member (42) for reflecting the light scanned by the scanner (28, 508) to the retina (46) And the ophthalmologic apparatus (12, 300, 502) according to any one of appendices 1 to 4.
  • the control unit (144) detects an interpupillary distance based on an anterior segment image obtained by photographing with the anterior segment camera (48R, 48L, 304), and based on the detected interpupillary distance
  • the ophthalmic apparatus (12, 300, 502) according to appendix 5, which controls the position of the reflecting member (42).
  • the optical system (27) guides the light to the retina (46R) of the right eye (44R), and the left eye guides the light to the retina (46L) of the left eye (44L)
  • Optical system (27L) and The ophthalmologic apparatus according to any one of appendices 1 to 6, further comprising: a light branching unit (20) for branching the light into the right-eye optical system (27R) and the left-eye optical system (27L) (12).
  • the optical system (506) guides the light to the retina (46R) of the right eye (44R) and the optical system for the right eye (27R), and the left eye guides the light to the retina (46L) of the left eye (44L)
  • Optical system (27L) and The light sources (510R, 510L) are a light source for the right eye (510R) used for the optical system for the right eye (27R) and a light source for the left eye used for the optical system for the left eye (27L)
  • the ophthalmic device according to any one of Supplementary Notes 1 to 7, further comprising (510L).
  • Appendix 9 Further including a view camera (50, 304) for capturing an outside view;
  • the control unit (144) controls the communication unit (112) such that a view field image obtained by shooting with the view camera (50, 304) is transmitted to the image generation device (14).
  • the ophthalmologic apparatus (12, 300, 502) according to any one of appendices 8 to 10.
  • simulation image is an image obtained by image processing the view image based on the optometry information (94A2) and the intraocular lens information (94B).
  • Eyewear terminal having at least the optical system (27, 506) of the light source (114, 510R, 510L), the optical system (27, 506), the communication unit (112), and the control unit (144) 120.
  • An ophthalmic device (12, 300, 502) according to any one of the preceding claims comprising a device (16, 302, 350, 504).
  • the intraocular lens is mounted on the subject's eye (44) based on optometric information (94A2) of the subject's eye (44) and intraocular lens information (94B) on the intraocular lens prescribed to the subject's eye (44).
  • a generation unit (102) for generating a simulation image corresponding to the appearance when prescribed;
  • An output unit (104) for outputting the simulation image generated by the generation unit to a projection device;
  • An image generator (14) including:
  • simulation image is an image obtained by performing image processing on an original image based on the optometry information (94A2) and the intraocular lens information (94B).
  • the image generation device according to Appendix 13 or 14 further including an acquisition unit (100) for acquiring an image according to an instruction received by the reception unit (84) from a plurality of images having different scenes as the original image. ).
  • the image generating device (14) according to any one of the preceding claims.
  • Appendix 18 Computer (80), Appendix (12) A program (94C) for functioning as the generation unit (102) and the output unit (104) included in the image generation device (14) according to any one of Appendixes 16.
  • the intraocular lens is the eye to be examined (44) based on the optometry information (94A2) of the eye to be examined (44) and the intraocular lens information (94B) on the intraocular lens prescribed to the eye to be examined (44).
  • Ophthalmic system (10, 300, 340, 500) Ophthalmic system (10, 300, 340, 500) .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Vascular Medicine (AREA)
  • Transplantation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)
  • Prostheses (AREA)

Abstract

患者に対して術後の実際の見え方を実感させ確認させることができる眼科機器、画像生成装置、プログラム、及び眼科システムを提供する。 眼科機器は、光源と、前記光源から射出された光を被検眼の網膜に導く光学系と、前記被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて生成され、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を受信する通信部と、前記通信部により受信された前記シミュレーション画像が前記網膜に投影されるように前記光源及び前記光学系を制御する制御部と、を含む。

Description

眼科機器、画像生成装置、プログラム、及び眼科システム
 本開示の技術は、眼科機器、画像生成装置、プログラム、及び眼科システムに関する。
 本明細書において、眼科とは、眼に対処する医学の分科を指す。また、本明細書では、説明の便宜上、被検眼の眼内に眼内レンズを挿入する眼内レンズ手術を、単に「手術」と称する。また、本明細書では、説明の便宜上、手術前を「術前」と称し、手術後を「術後」とも称する。
 特許文献1には、被検眼の眼内に挿入される眼内レンズを選択するための眼内レンズ選択装置が開示されている。特許文献1に記載の眼内レンズ選択装置では、測定手段によって測定されて得られた被検眼角膜の角膜波面収差と、眼内レンズモデルが有する波面収差とに基づいて被検眼の術後残余波面収差を予想値として眼内レンズモデル毎に演算される。また、特許文献1に記載の眼内レンズ選択装置では、予め定められた被検眼の術後残余波面収差が目標値とされており、目標値と、演算されて得られた予想値とが眼内レンズモデル毎に比較されることで目標値に近い眼内レンズモデルが特定される。そして、特許文献1に記載の眼内レンズ選択装置では、特定された眼内レンズモデルの情報がモニタに表示される。
特開2009-34451号公報
 本開示の技術の第1態様に係る眼科機器は、光源と、前記光源から射出された光を被検眼の網膜に導く光学系と、前記被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて生成され、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を受信する通信部と、前記通信部により受信された前記シミュレーション画像が前記網膜に投影されるように前記光源及び前記光学系を制御する制御部と、を含む。
 本開示の技術の第2態様に係る画像生成装置は、被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を生成する生成部と、前記生成部により生成された前記シミュレーション画像を投影装置に出力する出力部と、を含む。
 本開示の技術の第3態様に係る眼科システムは、被検眼の網膜に画像を投影する投影装置と、前記被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を生成する画像生成装置と、を含み、前記投影装置は、前記画像生成装置により生成された前記シミュレーション画像を前記網膜に投影する。
実施形態に係る眼科システムの全体構成の一例を示す概念図である。 実施形態に係る眼科システムに含まれるウエアラブル端末装置の構成の一例を示す平面視概略構成図である。 実施形態に係る眼科システムの電気系のハードウェア構成の一例を示すブロック図である。 実施形態に係る眼科システムのウエアラブル端末装置に含まれるレーザ光源の構成の一例を示す概略構成図である。 実施形態に係る眼科システムのウエアラブル端末装置に含まれるレーザ光分岐部の構成の一例を示す概略構成図である。 実施形態に係るサーバ側処理の流れの一例を示すフローチャートである。 実施形態に係るサーバ側処理に含まれる術後視野シミュレーション処理の流れの一例を示すフローチャートである。 実施形態に係る端末側処理の流れの一例を示すフローチャートである。 実施形態に係るサーバ側処理が実行されることでディスプレイに表示される画面の態様の一例を示す概略画面図である。 実施形態に係るサーバ装置の要部機能の一例を示す機能ブロック図である。 実施形態に係るウエアラブル端末装置の要部機能の一例を示す機能ブロック図である。 実施形態に係るウエアラブル端末装置の変形例を示す概念図である。 実施形態に係る眼科システムの第1変形例を示す概念図である。 実施形態に係る端末側プログラムがウエアラブル端末装置にインストールされる態様の一例を示す概念図である。 実施形態に係るサーバ側プログラムがサーバ装置にインストールされる態様の一例を示す概念図である。 実施形態に係る眼科システムの第2変形例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る実施形態の一例について説明する。
 先ず、以下の説明で使用される用語の意味について説明する。
 以下の説明において、MEMSとは、“Micro Electro Mechanical Systems”の略称を指す。また、以下の説明において、I/Fとは、“InterFace”の略称を指す。また、以下の説明において、I/Oとは、インプット・アウトプット・インタフェースの略称を指す。また、以下の説明において、USBとは、“Universal Serial Bus”の略称を指す。また、以下の説明において、IDとは、“IDentification”の略称を指す。
 また、以下の説明において、CPUとは、“Central Processing Unit”の略称を指す。また、以下の説明において、RAMとは、“Random Access Memory”の略称を指す。また、以下の説明において、HDDとは、“Hard Disk Drive”の略称を指す。また、以下の説明において、EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。また、以下の説明において、SSDとは、“Solid State Drive”の略称を指す。また、以下の説明において、DVD-ROMとは、“Digital Versatile Disc Read Only Memory”の略称を指す。
 また、以下の説明において、ASICとは、“Application Specific Integrated Circuit”の略称を指す。また、以下の説明において、FPGAとは、“Field-Programmable Gate Array”の略称を指す。
 また、本実施形態において、左右方向とは、例えば、患者の右眼の瞳孔の中心と左眼の瞳孔の中心とを通る直線の方向を指す。なお、以下では、説明の便宜上、「左右方向」を「X方向」とも称し、被検眼の瞳孔の中心から被検眼の後極に向かう方向を「Z方向」と称し、X方向及びZ方向の双方に対して垂直な方向を「Y方向」と称する。
 一例として図1に示すように、眼科システム10は、患者に対する手術前において、患者の被検眼の網膜に静止画像/動画像を含む映像を投影し、術後の見え方を認識させるシステムである。眼科システム10は、本開示の技術に係る投影装置及び眼科機器の一例であるウエアラブル端末装置12と、本開示の技術に係る画像生成装置の一例であるサーバ装置14と、を含む。
 ウエアラブル端末装置12は、アイウエア端末装置16、制御装置18、及びレーザ光分岐部20を含む。
 アイウエア端末装置16は、患者に装着される眼鏡型の端末装置の一種である。ここで言う「患者」とは、白内障の患者のうち、水晶体が摘出された後に被検眼に眼内レンズが挿入される予定の患者を指す。
 なお、本第1実施形態では、白内障の患者を例に挙げて説明しているが、本開示の技術はこれに限定されるものではなく、例えば、近視の矯正を目的とした患者であってもよい。この場合、患者に対して、水晶体が摘出されることなく被検眼に眼内レンズが挿入される。
 アイウエア端末装置16は、一般的な眼鏡と同様に、リム22及びテンプル24を備えている。また、アイウエア端末装置16は、患者用投影部26を備えている。
 リム22は、患者の眼前で患者用投影部26を保持する。テンプル24は、左側テンプル24Lと右側テンプル24Rとに大別される。左側テンプル24Lの一端部は、リム22の左端部に取り付けられており、右側テンプル24Rは、リム22の右端部に取り付けられている。左側テンプル24Lは、患者の左耳に掛けられ、右側テンプル24Rは、患者の右耳に掛けられる。
 制御装置18は、例えば、患者が把持したり、患者が自身の衣服又は身体等に装着したりして用いられる。制御装置18は、応答ボタン19を備えている。応答ボタン19は、医療サービス者の問い掛けに対して患者が応える場合に患者によって押下される。なお、ここで言う「医療サービス者」とは、眼科システム10を用いて患者に映像を提示することで患者に対して医療サービスを提供する者を指す。医療サービス者の一例としては、医師が挙げられる。
 制御装置18は、サーバ装置14に対して後述の無線通信部112(図3参照)を介して無線通信可能な状態で接続されており、サーバ装置14と各種情報の授受を行う。制御装置18は、ケーブル25を介してレーザ光分岐部20に接続されており、レーザ光分岐部20を制御する。
 ケーブル25は、光ファイバ30及びバスライン32を含む。制御装置18は、レーザ光を射出するレーザ光源114(図4参照)を備えており、光ファイバ30を介してレーザ光分岐部20にレーザ光を供給するようにレーザ光源114を制御する。また、制御装置18は、バスライン32を介してレーザ光分岐部20を制御する。
 レーザ光分岐部20は、ケーブル34,36を介してアイウエア端末装置16に接続されている。ケーブル34は、右側テンプル24Rに接続されており、ケーブル36は、左側テンプル24Lに接続されている。ケーブル34,36は共にバスライン32を含む。従って、制御装置18は、バスライン32を介してアイウエア端末装置16と各種電気信号の授受を行う。
 ケーブル34は、光ファイバ38を含み、ケーブル36は、光ファイバ40を含む。レーザ光分岐部20は、制御装置18から光ファイバ30介して供給されたレーザ光を光ファイバ38と光ファイバ40とに選択的に分岐させる。レーザ光分岐部20により分岐されて得られた一方のレーザ光は、光ファイバ38を介してアイウエア端末装置16に供給され、レーザ光分岐部20により分岐されて得られた他方のレーザ光は、光ファイバ40を介してアイウエア端末装置16に供給される。
 患者用投影部26は、反射ミラー42を備えている。反射ミラー42は、本開示の技術に係る反射部材の一例である。反射ミラー42は、レーザ光分岐部20からケーブル34,36を介して供給されたレーザ光を反射させることで、一例として図2に示すように、レーザ光を患者の被検眼44の網膜46に導く。なお、一例として図2に示すように、被検眼44は、右眼44Rと左眼44Lとを含む。
 反射ミラー42は、右眼用反射ミラー42Rと左眼用反射ミラー42Lとに大別される。右眼用反射ミラー42Rは、アイウエア端末装置16が正しく装着された状態の患者の右眼44Rの前方に位置するようにリム22に保持されている。左眼用反射ミラー42Lは、アイウエア端末装置16が正しく装着された状態の患者の左眼44Lの前方に位置するようにリム22に保持されている。
 右眼用反射ミラー42Rは、レーザ光分岐部20から光ファイバ38を介して供給されたレーザ光を反射させることで、一例として図2に示すように、レーザ光を患者の右眼44Rの網膜46Rに導く。左眼用反射ミラー42Lは、レーザ光分岐部20から光ファイバ40を介して供給されたレーザ光を反射させることで、一例として図2に示すように、患者の左眼44Lの網膜46Lに導く。
 アイウエア端末装置16は、右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50を備えている。右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50は、制御装置18の制御下で、被写体を撮影する。
 右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50は、リム22の上縁部に取り付けられている。右眼用インカメラ48Rは、Y方向において右眼用反射ミラー42Rとずれた位置に設けられており、右眼44Rの前方領域の斜め上方から被写体として右眼44Rの前眼部を撮影する。左眼用インカメラ48Lは、Y方向において左眼用反射ミラー42Lとずれた位置に設けられており、左眼44Lの前方領域の斜め上方から被写体として左眼44Lの前眼部を撮影する。なお、右眼用インカメラ48R及び左眼用インカメラ48Lは、本開示の技術に係る前眼部カメラの一例である。
 アウトカメラ50は、アイウエア端末装置16を装着した状態の、例えば患者の眉間の前方に位置するように、リム22の上縁部の中央部に取り付けられている。アウトカメラ50は、外部の視界を撮影する。すなわち、アウトカメラ50は、アイウエア端末装置16を装着した状態の患者側から見て患者用投影部26越しの前方領域を被写体として撮影する。ここで言う「前方領域」とは、例えば、アイウエア端末装置16を装着していない状態での患者の視界、すなわち、患者の視線方向の実空間領域を指す。なお、アウトカメラ50は、本開示の技術に係る視界カメラの一例である。
 サーバ装置14は、静止画像又は動画像を含む映像を生成し、生成した映像を制御装置18に送信する。制御装置18は、サーバ装置14から送信された映像を受信し、受信した映像に応じたレーザ光を、光ファイバ30,38,40を介してアイウエア端末装置16に供給する。
 なお、本実施形態では、ウエアラブル端末装置12とサーバ装置14との間で無線通信が行われる例を挙げて説明しているが、本開示の技術はこれに限定されるものではない。例えば、ウエアラブル端末装置12とサーバ装置14との間で有線通信が行われるようにしてもよい。
 一例として図2に示すように、アイウエア端末装置16は、光学系27を含む。光学系27は、レーザ光を網膜46に導く。光学系27は、スキャナ28及び反射ミラー42を有する。スキャナ28は、制御装置18からレーザ光分岐部20を介いて供給されたレーザ光を走査する。反射ミラー42は、スキャナ28により走査されたレーザ光を網膜46に反射させる。
 光学系27は、右眼用光学系27Rと左眼用光学系27Lとを有する。レーザ光分岐部20は、制御装置18から光ファイバ30を介して供給されたレーザ光を右眼用光学系27Rと左眼用光学系27Lとに分岐させる。
 右眼用光学系27Rは、レーザ光分岐部20から光ファイバ38を経由して右眼用照射部52から照射されたレーザ光を網膜46Rに導く。左眼用光学系27Lは、レーザ光分岐部20から光ファイバ40を経由して左眼用照射部58から供給されたレーザ光を網膜46Lに導く。
 スキャナ28は、右眼用スキャナ28Rと左眼用スキャナ28Lとを有する。右眼用光学系27Rは、右眼用スキャナ28Rと右眼用反射ミラー42Rとを有する。左眼用光学系27Lは、左眼用スキャナ28Lと左眼用反射ミラー42Lとを有する。
 右眼用スキャナ28Rは、MEMSミラー54,56を有し、右眼用照射部52を介して供給されたレーザ光を走査する。右眼用照射部52は、レーザ光分岐部20から光ファイバ38を介して供給されたレーザ光を照射する。右眼用照射部52によるレーザ光の照射方向には、MEMSミラー54が配置されており、MEMSミラー54は、右眼用照射部52から照射されたレーザ光を反射させることで、MEMSミラー56に導く。MEMSミラー56は、MEMSミラー54によって導かれたレーザ光を反射させることで、右眼用反射ミラー42Rに導く。
 ここで、例えば、MEMSミラー54はY方向にレーザ光を走査し、MEMSミラー56はX方向にレーザ光を走査する。MEMSミラー54,56により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
 なお、MEMSミラー54をX方向の走査、MEMSミラー56をY方向の走査とするようにしてもよいことは言うまでもない。
 更に、右眼用スキャナ28Rは、反射ミラー42RとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
 右眼用反射ミラー42Rは、右眼用スキャナ28Rにより走査されたレーザ光を網膜46Rに反射させる。
 右眼用反射ミラー42Rは、湾曲面42R1を有する。湾曲面42R1は、アイウエア端末装置16が装着された状態の患者の右眼44Rから見て凹状に形成された面であり、MEMSミラー56によって導かれたレーザ光を反射させることで、右眼44Rの瞳孔下の水晶体64Rを通して右眼44Rの網膜46Rにレーザ光を導く。
 左眼用スキャナ28Lは、MEMSミラー60,62を有し、左眼用照射部58を介して供給されたレーザ光を走査する。左眼用照射部58は、レーザ光分岐部20から光ファイバ40を介して供給されたレーザ光を照射する。左眼用照射部58によるレーザ光の照射方向には、MEMSミラー60が配置されており、MEMSミラー60は、左眼用照射部58から照射されたレーザ光を反射させることで、MEMSミラー62に導く。MEMSミラー62は、MEMSミラー60によって導かれたレーザ光を反射させることで、左眼用反射ミラー42Lに導く。
 ここで、例えば、MEMSミラー60はY方向にレーザ光を走査し、MEMSミラー62はX方向にレーザ光を走査する。MEMSミラー60,62により網膜に対して二次元走査が可能となり、映像を二次元走査して網膜へ投影することが可能となる。
 なお、MEMSミラー60をX方向の走査、MEMSミラー62をY方向の走査とするようにしてもよいことは言うまでもない。
 更に、左眼用スキャナ28Lは、反射ミラー42LとXY方向に走査可能なMEMSミラー56とするようにしてもよい。
 図2に示す例では、MEMSミラー54,56,60,62が例示されているが、本開示の技術はこれに限定されるものではない。例えば、MEMSミラー54,56,60,62に代えて、又は、MEMSミラー54,56,60,62のうちの少なくとも1つと共に、ガルバノミラー及び/又はポリゴンミラー等の、電気的に反射面の位置を制御可能なミラーを用いてもよい。
 左眼用反射ミラー42Lは、左眼用スキャナ28Lにより走査されたレーザ光を網膜46Lに反射させる。
 左眼用反射ミラー42Lは、湾曲面42L1を有する。湾曲面42L1は、アイウエア端末装置16が装着された状態の患者の左眼44Lから見て凹状に形成された面であり、MEMSミラー62によって導かれたレーザ光を反射させることで、左眼46Rの瞳孔下の水晶体64Lを通して左眼44Lの網膜46Lにレーザ光を導く。
 なお、以下では、説明の便宜上、水晶体64R,64Lを区別して説明する必要がない場合、「水晶体64」と称する。
 患者用投影部26は、更に、右眼用スライド機構70R、左眼用スライド機構70L、右眼用駆動源72R、及び左眼用駆動源72Lを備えている。右眼用駆動源72R及び左眼用駆動源72Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。なお、以下では、説明の便宜上、右眼用駆動源72R及び左眼用駆動源72Lを区別して説明する必要がない場合、「ミラー駆動源72」と称する。
 右眼用スライド機構70Rは、リム22に取り付けられており、右眼用反射ミラー42Rを左右方向にスライド可能に保持している。右眼用スライド機構70Rは、右眼用駆動源72Rに接続されており、右眼用駆動源72Rによって生成された動力を受けることで、右眼用反射ミラー42Rを左右方向にスライドさせる。
 左眼用スライド機構70Lは、リム22に取り付けられており、左眼用反射ミラー42Lを左右方向にスライド可能に保持している。左眼用スライド機構70Lは、左眼用駆動源72Lに接続されており、左眼用駆動源72Lによって生成された動力を受けることで、左眼用反射ミラー42Lを左右方向にスライドさせる。
 なお、本実施形態に係る眼科システム10では、マックスウェル視光学系によって被検眼44の網膜46に対してレーザ光に基づく映像が投影される。ここで言う「マックスウェル視光学系」とは、被検眼44の瞳孔下の水晶体64でレーザ光が収束され、水晶体64で収束されたレーザ光が被検眼44の網膜46に照射されることで、レーザ光に基づく映像が被検眼44の網膜46に投影される光学系を指す。本実施形態に係る眼科システム10では、スキャナ28及びミラー駆動源72が制御装置18によって制御されることで、マックスウェル視光学系が実現される。
 一例として図3に示すように、サーバ装置14は、主制御部80、無線通信部82、受付デバイス84、タッチパネル・ディスプレイ86、及び外部I/F88を備えている。なお、主制御部80は、本開示の技術に係るコンピュータの一例である。
 主制御部80は、CPU90、一次記憶部92、二次記憶部94、バスライン96、及びI/O98を含む。CPU90、一次記憶部92、及び二次記憶部94は、バスライン96を介して接続されている。バスライン96には、I/O98が接続されている。
 CPU90は、サーバ装置14の全体を制御する。一次記憶部92は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部92の一例としては、RAMが挙げられる。二次記憶部94は、サーバ装置14の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部94の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
 無線通信部82は、I/O98に接続されている。CPU90は、制御装置18への送信対象とされる電気信号を無線通信部82に出力する。無線通信部82は、CPU90から入力された電気信号を電波で制御装置18に送信する。また、無線通信部82は、制御装置18からの電波を受信し、受信した電波に応じた電気信号をCPU90に出力する。
 受付デバイス84は、本開示の技術に係る受付部の一例である。受付デバイス84は、タッチパネル84A、キーボード84B、及びマウス84Cを含み、タッチパネル84A、キーボード84B、及びマウス84Cは、I/O98に接続されている。従って、CPU90は、タッチパネル84A、キーボード84B、及びマウス84Cの各々によって受け付けられた各種指示を把握することができる。
 外部I/F88は、パーソナル・コンピュータ及び/又はUSBメモリ等の外部装置に接続され、外部装置とCPU90との間の各種情報の送受信を司る。
 タッチパネル・ディスプレイ86は、ディスプレイ86A及びタッチパネル84Aを含む。ディスプレイ86Aは、本開示の技術に係る表示部の一例である。ディスプレイ86Aは、I/O98に接続されており、CPU90の制御下で、映像を含む各種情報を表示する。タッチパネル84Aは、透過型のタッチパネルであり、ディスプレイ86Aに重ねられている。
 二次記憶部94は、患者情報94A、眼内レンズ情報94B、及びサーバ側プログラム94Cを記憶している。
 患者情報94Aは、患者に関する情報である。本実施形態において、患者情報94Aには、患者のプロフィール情報94A1(例えば、患者を特定するID、患者の名前、患者の性別、患者の年齢、身体情報、過去の治療歴、来院状況など現在の患者情報から、疾患のリスクや身体状態など)と、患者に対して行われた検眼情報94A2(例えば、角膜屈折力、角膜波面収差、視力、近視/遠視/乱視、視野、眼軸長、眼底写真などの別の検眼機器(屈折力測定器、眼軸長測定器、視力検査器、前眼部測定器、後眼部測定器など)により得られた患者の右眼/左眼に関する情報)と、を含む。検眼情報94A2は、本開示の技術に係る「被検眼の検眼情報」の一例である。検眼情報は、図示しない眼科サーバに記憶されており、眼科サーバから無線通信部82又は外部I/F88を経由してサーバ装置14によって取得されるようにしてもよい。
 眼内レンズ情報94Bは、被検眼44に処方される眼内レンズに関する情報であり、換言すると、被検眼44に挿入される予定の眼内レンズの特徴を示す情報とも言える。眼内レンズ情報94Bは、異なる眼内レンズの各々について二次記憶部94に記憶されている。眼内レンズ情報94Bは、本開示の技術に係る眼内レンズ情報の一例である。
 本実施形態において、眼内レンズ情報94Bには、眼内レンズのモデル名、メーカ名、A定数、術後ACD:予想前房深度(単位:mm)、眼内レンズが持つSA(矯正球面収差):球面収差(単位:μm)、着色レンズか否か、及びレンズの材質等の情報が含まれている。ここで、SAとは、被検眼44に眼内レンズが挿入された場合に矯正される球面収差を指す。なお、SAの求め方は、メーカ毎に様々であり、既に広く知られているので、ここでの説明は省略する。
 サーバ側プログラム94Cは、本開示の技術に係るプログラムの一例である。CPU90は、二次記憶部94からサーバ側プログラム94Cを読み出し、読み出したサーバ側プログラム94Cを一次記憶部92に展開する。そして、CPU90は、一次記憶部92に展開したサーバ側プログラム94Cを実行する。
 CPU90は、サーバ側プログラム94Cを実行することで、一例として図10に示すように、処理部99、取得部100、生成部102、出力部104、及び表示制御部106として動作する。
 処理部99は、CPU90を取得部100、生成部102、出力部104、及び表示制御部106として動作させるために必要な処理を行う。取得部100は、シーンが異なる複数のオリジナル映像から、受付デバイス84によって受け付けられた指示に応じたオリジナル映像を取得する。生成部102は、取得部100により取得されたオリジナル映像を、検眼情報94A2と眼内レンズ情報94Bとに基づいて変換又は画像処理をすることでシミュレーション映像を生成する。出力部104は、無線通信部83を介してウエアラブル端末装置12と無線通信を行うことで、生成部102により生成されたシミュレーション映像をウエアラブル端末装置12に出力する。
 表示制御部106は、ディスプレイ86Aに対してオリジナル映像とシミュレーション映像とを表示させるようにディスプレイ86Aを制御する。なお、オリジナル映像は、本開示の技術に係るオリジナル画像の一例である。
 なお、本実施形態では、CPU90が処理部99、取得部100、生成部102、出力部104、及び表示制御部106として動作する場合を例示しているが、本開示の技術はこれに限定されるものではない。例えば、メインCPUと画像処理プロセッサ等のように複数のプロセッサにより分散処理させるようにしてもよい。例えば、メインCPUを処理部99及び取得部100として動作させ、画像処理プロセッサを生成部102、出力部104、及び表示制御部106として動作させるようにしてもよい。
 一例として図3に示すように、制御装置18は、前述した応答ボタン19の他に、主制御部110、無線通信部112、レーザ光源114、及び光源制御回路116を備えている。なお、主制御部110は、本開示の技術に係るコンピュータの一例である。
 主制御部110は、CPU120、一次記憶部122、二次記憶部124、バスライン126、及びI/O128を含む。CPU120、一次記憶部122、及び二次記憶部124は、バスライン126を介して接続されている。バスライン126には、I/O128が接続されている。
 CPU120は、ウエアラブル端末装置12の全体を制御する。一次記憶部122は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリであり、一次記憶部122の一例としては、RAMが挙げられる。二次記憶部124は、ウエアラブル端末装置12の基本的な動作を制御するプログラム及び各種パラメータ等を記憶する不揮発性のメモリである。二次記憶部124の一例としては、HDD、EEPROM、又はフラッシュメモリ等が挙げられる。
 応答ボタン19は、I/O128に接続されており、応答ボタン19が押下されると、応答信号が応答ボタン19からCPU120に出力される。
 無線通信部112は、本開示の技術に係る通信部の一例であり、I/O128に接続されている。CPU120は、サーバ装置14への送信対象とされる電気信号を無線通信部112に出力する。無線通信部112は、CPU120から入力された電気信号を電波でサーバ装置14に送信する。また、無線通信部112は、サーバ装置14からの電波を受信し、受信した電波に応じた電気信号をCPU120に出力する。
 レーザ光源114は、光ファイバ30を介してレーザ光分岐部20に接続されており、レーザ光源114は、レーザ光を生成し、生成したレーザ光を、光ファイバ30を介してレーザ光分岐部20に射出する。
 レーザ光源114は、光源制御回路116に接続されている。光源制御回路116は、I/O128に接続されている。光源制御回路116は、CPU120の指示に従って光源制御信号をレーザ光源に供給することで、レーザ光源114を制御する。
 一例として図4に示すように、レーザ光源114は、R光源114A、G光源114B、B光源114C、及びミラーユニット130を備えている。
 R光源114Aは、R(赤色)、G(緑色)、及びB(青色)のうちのRのレーザ光であるRレーザ光を射出する。G光源114Bは、R、G、及びBのうちのGのレーザ光であるGレーザ光を射出する。B光源114Cは、R、G、及びBのうちのBのレーザ光であるBレーザ光を射出する。
 ミラーユニット130は、第1ミラー130A、第2ミラー130B、及び第3ミラー130Cを備えている。第1ミラー130A、第2ミラー130B、及び第3ミラー130Cのうち、第2ミラー130Bは、ダイクロイックミラーであり、Bレーザ光を透過させ、且つ、Gレーザ光を反射させる。第3ミラー130Cは、ダイクロイックミラーであり、Rレーザ光を透過させ、且つ、Gレーザ光及びBレーザ光を反射させる。
 第1ミラー130Aは、B光源114CによるBレーザ光の射出方向に配置されており、B光源114Cから射出されたBレーザ光を反射させることで、第2ミラー130BにBレーザ光を導く。
 第2ミラー130Bは、G光源114BによるGレーザ光の射出方向であり、且つ、第1ミラー130Aで反射されたBレーザ光の進行方向に配置されている。第2ミラー130Bは、G光源114Bから射出されたGレーザ光を反射させることで、第1ミラー130AにGレーザ光を導き、且つ、第1ミラー130Aで反射されたBレーザ光を透過させることで、第1ミラー130AにBレーザ光を導く。
 第3ミラー130Cは、R光源114AによるRレーザ光の射出方向であり、且つ、第2ミラー130Bで反射されたGレーザ光の進行方向であり、且つ、第2ミラー130Bを透過したGレーザ光の進行方向に配置されている。第3ミラー130Cは、R光源114Aから射出されたRレーザ光を透過させる。また、第3ミラー130Cは、Rレーザ光と同方向にGレーザ光及びBレーザ光を反射させることで、Rレーザ光、Gレーザ光及びBレーザ光を外部に射出する。なお、以下では、説明の便宜上、レーザ光源114から外部に射出されるRレーザ光、Gレーザ光、及びBレーザ光を、単に「レーザ光」と称する。
 一例として図3に示すように、バスライン32は、I/O128に接続されており、レーザ光分岐部20は、バスライン32に接続されている。従って、レーザ光分岐部20は、CPU120の制御下で動作する。
 一例として図5に示すように、レーザ光分岐部20は、右眼用シャッタ121R、左眼用シャッタ121L、第1スライド機構122R、第2スライド機構122L、第1シャッタ用駆動源134R、第2シャッタ用駆動源134L、ビームスプリッタ136、及び反射ミラー138を備えている。
 なお、以下では、説明の便宜上、右眼用シャッタ121R及び左眼用シャッタ121Lを区別して説明する必要がない場合、「シャッタ121」と称する。
 ビームスプリッタ136は、レーザ光源114から光ファイバ130を介して供給されたレーザ光を反射させ、且つ、透過させる。ビームスプリッタ136で反射したレーザ光である左眼用レーザ光は、光ファイバ40(図1及び図2参照)の入口に向けて進行する。
 反射ミラー138は、ビームスプリッタ136を透過したレーザ光を反射する。反射ミラー138で反射したレーザ光である右眼用レーザ光は、光ファイバ38(図1及び図2参照)の入口に向けて進行する。
 第1スライド機構122Rは、右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライド可能に保持している。第1位置P1とは、右眼用レーザ光を通過させて光ファイバ38の入口に導く位置を指し、第2位置P2とは、右眼用レーザ光を遮蔽する位置を指す。
 第2スライド機構122Lは、左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライド可能に保持している。第3位置P3とは、左眼用レーザ光を通過させて光ファイバ40の入口に導く位置を指し、第4位置P4とは、左眼用レーザ光を遮蔽する位置を指す。
 第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lの一例としては、ステッピングモータ、ソレノイド、又は圧電素子などが挙げられる。第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lは、バスライン32に接続されており、第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lは、CPU120の制御下で作動する。
 第1スライド機構122Rは、第1シャッタ用駆動源134Rに接続されており、第1シャッタ用駆動源134Rによって生成された動力を受けることで右眼用シャッタ121Rを第1位置P1と第2位置P2との間でスライドさせる。
 第2スライド機構122Lは、第2シャッタ用駆動源134Lに接続されており、第2シャッタ用駆動源134Lによって生成された動力を受けることで左眼用シャッタ121Lを第3位置P3と第4位置P4との間でスライドさせる。
 図5に示す例では、右眼用シャッタ121Rが第1位置P1に配置されているので、右眼用レーザ光は光ファイバ38に供給され、左眼用シャッタ121Lが第4位置P4に配置されているので、左眼用レーザ光は左眼用シャッタ121Lによって遮蔽される。なお、本実施形態では、右眼用シャッタ121R及び左眼用シャッタ121Lがメカ機構によるシャッタであるが、本開示の技術はこれに限定されるものではない。例えば、右眼用シャッタ121R及び左眼用シャッタ121Lに代えて、液晶等により電気的に光を遮蔽するシャッタを採用してもよい。
 一例として図3に示すように、アイウエア端末装置16は、スピーカ140を備えている。スピーカ140は、テンプル24に設けられている。スピーカ140は、バスライン32に接続されており、CPU120の制御下で音声を出力する。なお、スピーカ140は、患者の鼓膜に音波を直接当てるスピーカであってもよいし、振動を患者の鼓膜に間接的に伝達する骨伝導式のスピーカであってもよい。
 バスライン32には、右眼用駆動源72R及び左眼用駆動源72Lが接続されており、CPU120は、右眼用駆動源72R及び左眼用駆動源72Lを制御する。
 バスライン32には、右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50が接続されており、CPU120は、左眼用インカメラ48L、右眼用インカメラ48R、及びアウトカメラ50との間で各種情報の授受を行う。
 バスライン32には、右眼用照射部52、左眼用照射部58、及びMEMSミラー54,56,60,62が接続されており、CPU120は、右眼用照射部52、左眼用照射部58、及びMEMSミラー54,56,60,62を制御する。
 二次記憶部124は、端末側プログラム124Aを記憶している。端末側プログラム124Aは、本開示の技術に係るプログラムの一例である。CPU120は、二次記憶部124から端末側プログラム124Aを読み出し、読み出した端末側プログラム124Aを一次記憶部122に展開する。そして、CPU120は、一次記憶部122に展開した端末側プログラム124Aを実行する。
 CPU120は、端末側プログラム124Aを実行することで、一例として図11に示すように、処理部142及び制御部144として動作する。処理部142は、CPU120を制御部144として動作させるために必要な処理を行う。処理部142は、サーバ装置14から送信されたシミュレーション映像を、無線通信部112に受信させるように無線通信部112を制御する。制御部144は、無線通信部112によって受信されたシミュレーション映像が網膜46に投影されるようにレーザ光源114及び光学系27を制御する。制御部144は、アウトカメラ50により撮影されて得られた画像がサーバ装置14に送信されるように無線通信部112を制御する。
 なお、本実施形態では、CPU120が処理部142及び制御部144として動作する場合を例示しているが、本開示の技術はこれに限定されるものではない。例えば、メインCPUとサブCPU等のように複数のプロセッサにより分散処理させるようにしてもよい。例えば、メインCPUを処理部142として動作させ、サブCPUを制御部144として動作させるようにしてもよい。
 次に、眼科システム10の本開示の技術に係る部分の作用について説明する。
 先ず、サーバ側処理の実行開始の指示が受付デバイス84によって受け付けられた場合にCPU90がサーバ側プログラム94Cを実行することで実現されるサーバ側処理について図6を参照して説明する。なお、図6に示すサーバ側処理は、患者に対する手術前に、患者自身により術後の見え方を確認する際に、行われる処理である。
 また、以下では、説明の便宜上、患者がウエアラブル端末装置12を適切に装備していることを前提として説明する。
 また、以下では、説明の便宜上、一例として図9に示すように、ディスプレイ86Aに対して複数の表示領域を有する画面が表示されていることを前提として説明する。ここで、複数の表示領域とは、患者情報表示領域86A1、眼内レンズ情報表示領域86A2、映像種別選択ボタン表示領域86A3、制御ボタン表示領域86A4、オリジナル映像表示領域86A5、及びシミュレーション映像表示領域86A6を指す。
 また、以下では、説明の便宜上、サーバ側処理の開始時、患者情報表示領域86A1、眼内レンズ情報表示領域86A2、オリジナル映像表示領域86A5、及びシミュレーション映像表示領域86A6は非表示状態であることを前提として説明する。
 また、以下では、説明の便宜上、映像種別選択ボタン表示領域86A3には、一例として図9に示すように、風景ボタン87A、読書ボタン87B、運転ボタン87C、取込ボタン87D、及びカメラボタン87Eが既に表示されていることを前提として説明する。
 ここで、風景ボタン87Aとは、風景を示す映像をオリジナル映像としてCPU90に対して取得させる場合に押されるソフトキーを指す。また、読書ボタン87Bとは、一般的な文庫書又は新聞等の多数の活字が含まれる映像をオリジナル映像としてCPU90に対して取得させる場合に押されるソフトキーを指す。また、運転ボタン87Cとは、自動車の運転中の運転席から見える景色を示す映像をオリジナル映像としてCPU90に対して取得させる場合に押されるソフトキーを指す。また、取込ボタン87Dは、外部I/F88を介して外部装置から映像をオリジナル映像としてCPU90に対して取得させる場合に押されるソフトキーを指す。更に、カメラボタン87Eとは、CPU90に対してアウトカメラ50を作動させ、アウトカメラ50によって撮影されて得られた映像をオリジナル映像としてCPU90に対して取得させる場合に押されるソフトキーを指す。
 以下では、説明の便宜上、風景を示す映像であるオリジナル映像を「風景オリジナル映像」と称する。また、以下では、説明の便宜上、一般的な文庫書又は新聞等の多数の活字が含まれる映像であるオリジナル映像を「読書オリジナル映像」と称する。また、以下では、説明の便宜上、自動車の運転中の運転席から見える景色を示す映像であるオリジナル映像を「運転オリジナル映像」と称する。また、以下では、説明の便宜上、外部I/F88を介して外部装置からCPU90によって取得された映像であるオリジナル映像を「取込オリジナル映像」と称する。また、以下では、説明の便宜上、アウトカメラ50によって撮影されて得られた映像であるオリジナル映像を「カメラオリジナル映像」と称する。
 なお、カメラオリジナル映像は、本開示の技術に係る視界画像の一例であり、制御部144の制御下で処理部142によってサーバ装置14に送信される。
 また、以下では、説明の便宜上、風景オリジナル映像、読書オリジナル映像、及び運転オリジナル映像は、二次記憶部94に予め記憶されていることを前提として説明する。
 また、以下では、外部I/F88に外部装置が接続されており、CPU90が外部I/F88を介して外部装置から取込オリジナル映像を取得可能な状態になっていることを前提として説明する。
 また、以下では、説明の便宜上、風景ボタン87A、読書ボタン87B、運転ボタン87C、取込ボタン87D、及びカメラボタン87Eを区別して説明する必要がない場合、符号付さずに「映像選択ボタン87」と称する。なお、風景、読書、運転などのシーンに限らず、スポーツ等の動きのある映像及び/又はライフスタイルに合わせた様々なシーンの映像を用意しておき、患者の要求に応じたシーンの映像が選択されるようにしてもよい。
 また、以下では、説明の便宜上、制御ボタン表示領域86A4には、一例として図9に示すように、右/左/両眼ボタン89A、撮影/投影ボタン89B、及び投影開始ボタン89Cが既に表示されていることを前提として説明する。
 ここで、右/左/両眼ボタン89Aとは、右眼44Rのみに映像を投影するか、左眼44Lのみに映像を投影するか、又は両眼に映像を投影するかを選択する場合に押されるソフトキーを指す。また、撮影/投影ボタン89Bとは、アウトカメラ50による撮影と被検眼44に対する映像の投影との何れを実行するかを選択する場合に押されるソフトキーを指す。更に、投影開始ボタン89Cとは、被検眼44に対する映像の投影開始を指示する場合に押されるソフトキーを指す。
 また、以下では、説明の便宜上、右/左/両眼ボタン89Aが押されることによって、右眼44Rのみに映像を投影するか、左眼44Lのみに映像を投影するか、又は両眼に映像を投影するかが既に定まっていることを前提として説明する。
 図6に示すサーバ側処理では、先ず、ステップ200で、取得部100は、二次記憶部94から患者情報94Aを取得し、その後、ステップ202へ移行する。なお、ステップ200で取得された患者情報94Aは、CPU90の制御下で、一例として図9に示すように、患者情報表示領域86A1に表示される。
 ステップ202で、処理部99は、受付デバイス84によってアイウエアIDが受け付けられたか否かを判定する。ここで、アイウエアIDとは、患者に装着されたウエアラブル端末装置12を一意に特定可能な情報を指す。
 ステップ202において、受付デバイス84によってアイウエアIDが受け付けられていない場合は、判定が否定されて、ステップ204へ移行する。ステップ202において、受付デバイス84によってアイウエアIDが受け付けられた場合は、判定が肯定されて、ステップ206へ移行する。
 なお、ステップ202では、患者が装着しているウエアラブル端末装置12のアイウエアIDを無線通信部112を介して、ウエアラブル端末装置12からサーバ装置14へ送信し、サーバ装置14において、無線通信部112を介して処理部99に対して取得させることでアイウエアIDを受け付けるようにしてもよい。
 ステップ204で、処理部99は、サーバ側処理に係る終了条件を満足したか否かを判定する。サーバ側処理に係る終了条件とは、サーバ側処理を終了する条件を指す。サーバ側処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は、サーバ側処理を強制的に終了せざるを得ない不具合がCPU90によって検出されたとの条件等が挙げられる。
 ステップ204において、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ202へ移行する。ステップ204において、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、サーバ側処理を終了する。
 ステップ206で、処理部99は、受付デバイス84によって眼内レンズIDが受け付けられたか否かを判定する。眼内レンズIDとは、被検眼44に挿入される予定の眼内レンズを一意に特定可能な情報を指す。
 ステップ206において、受付デバイス84によって眼内レンズIDが受け付けられていない場合は、判定が否定されて、ステップ208へ移行する。ステップ206において、受付デバイス84によって眼内レンズIDが受け付けられた場合は、判定が肯定されて、ステップ210へ移行する。
 ステップ208で、処理部99は、サーバ側処理に係る終了条件を満足したか否かを判定する。ステップ208において、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ206へ移行する。ステップ208において、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、サーバ側処理を終了する。
 ステップ210で、処理部99は、ステップ206で受付デバイス84によって受け付けられた眼内レンズIDにより特定される眼内レンズに対応する眼内レンズ情報94Bを二次記憶部94から取得し、その後、ステップ212へ移行する。なお、ステップ210で取得された眼内レンズ情報94Bは、CPU90の制御下で、一例として図9に示すように、眼内レンズ情報表示領域86A2に表示される。
 ステップ212で、CPU90は、一例として図7に示す術後視野シミュレーション処理を実行し、その後、ステップ214へ移行する。
 図7に示す術後視野シミュレーション処理では、ステップ212Aで、処理部99は、映像種別が選択されたか否かを判定する。ここでは、タッチパネル84Aを介して映像選択ボタン87が押された場合、映像種別(シーン)が選択されたと判定される。
 ステップ212Aにおいて、映像種別が選択されていない場合は、判定が否定されて、ステップ212Bへ移行する。映像種別が選択された場合は、判定が肯定されて、ステップ212Cへ移行する。
 ステップ212Bで、処理部99は、サーバ側処理に係る終了条件を満足したか否かを判定する。ステップ212Bにおいて、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ212Aへ移行する。ステップ212Bにおいて、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、ステップ212Pへ移行する。
 ステップ212Cで、取得部100は、ステップ212Aで選択された映像種別又はステップ212Gで変更された映像種別に対応するオリジナル映像を取得し、その後、ステップ212Dへ移行する。
 ステップ212Dで、表示制御部106は、ディスプレイ86Aに対して、ステップ212Cで取得されたオリジナル映像の表示を開始させるように、ディスプレイ86Aを制御し、その後、ステップ212Eへ移行する。これにより、ステップ212Cで取得されたオリジナル映像がオリジナル映像表示領域86A5に表示される。
 ステップ212Eで、生成部102は、ステップ212Cで取得されたオリジナル映像を、ステップ200で取得された検眼情報94A2とステップ210又はステップ212Iで取得された眼内レンズ情報94Bとに基づいて変換又は画像処理を行うことでシミュレーション映像を生成する。シミュレーション映像は、眼内レンズが被検眼に処方された際の見え方に相当するシミュレーション映像(画像)であり、別な表現をすれば、処方される眼内レンズを患者に装着させたときに患者に見えている光景の映像(画像である)。
 次のステップ212Fで、表示制御部106は、ディスプレイ86Aに対して、ステップ212Eで生成されたシミュレーション映像の表示を開始させるように、ディスプレイ86Aを制御し、その後、ステップ212Gへ移行する。これにより、ステップ212Eで生成されたシミュレーション映像がシミュレーション映像表示領域86A6に表示される。
 ステップ212Gで、処理部99は、映像種別が変更されたか否かを判定する。映像種別の変更は、現時点で取得されているオリジナル映像と異なるオリジナル映像に対応する映像選択ボタン87が押されることによって実現される。
 ステップ212Gにおいて、映像種別が変更された場合は、判定が肯定されて、ステップ212Hへ移行する。ステップ212Gにおいて、映像種別が変更されていない場合は、判定が否定されて、ステップ212Iへ移行する。
 ステップ212Hで、表示制御部106は、ディスプレイ86Aに対して、オリジナル映像の表示を終了させるように、ディスプレイ86Aを制御し、その後、ステップ212Cへ移行する。これにより、オリジナル映像表示領域86A5からオリジナル映像が消去される。
 ステップ212Iで、処理部99は、眼内レンズIDが変更されたか否かを判定する。眼内レンズIDの変更は、現時点で取得されている眼内レンズ情報に対応する眼内レンズIDと異なる眼内レンズIDが受付デバイス84によって受け付けられることによって実現される。
 ステップ212Iにおいて、眼内レンズIDが変更された場合は、判定が肯定されて、ステップ212Jへ移行する。ステップ212Iにおいて、眼内レンズIDが変更されていない場合は、判定が否定されて、ステップ212Kへ移行する。なお、ここで、眼内レンズIDが変更されると、変更後の眼内レンズIDにより特定される眼内レンズに対応する眼内レンズ情報94Bが取得され、取得部100によって保持される眼内レンズ情報94Bが更新される。
 ステップ212Jで、表示制御部106は、ディスプレイ86Aに対して、シミュレーション映像の表示を終了させるように、ディスプレイ86Aを制御し、その後、ステップ212Eへ移行する。これにより、シミュレーション映像表示領域86A6からシミュレーション映像が消去される。
 ステップ212Kで、処理部99は、投影開始の指示が受け付けられたか否かを判定する。ここでは、投影開始ボタン89Cが押された場合、投影開始の指示が受け付けられたと判定される。
 ステップ212Kにおいて、投影開始の指示が受け付けられていない場合は、判定が否定されて、ステップ212Nへ移行する。ステップ212Kにおいて、投影開始の指示が受け付けられた場合は、判定が肯定されて、ステップ212Lへ移行する。
 ステップ212Lで、処理部99は、無線通信部82を介して投影対象眼指示情報を制御装置18に送信し、その後、ステップ212Mへ移行する。ここで、投影対象眼指示情報とは、シミュレーション映像を投影する対象眼を示す情報を指す。ここで言う「対象眼」とは、右眼44R、左眼44L、及び両眼の何れかを指し、右/左/両眼ボタン89Aが押されることによって右眼44R、左眼44L、及び両眼の何れかが「対象眼」として選択される。
 ステップ212Mで、出力部104は、ステップ212Eで生成されたシミュレーション映像を、無線通信部82を介して制御装置18に送信し、その後、ステップ212Nへ移行する。
 ステップ212Nで、処理部99は、サーバ側処理に係る終了条件を満足したか否かを判定する。ステップ212Nにおいて、サーバ側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ212Gへ移行する。ステップ212Nにおいて、サーバ側処理に係る終了条件を満足した場合は、判定が肯定されて、ステップ212Pへ移行する。
 ステップ212Pで、表示制御部106は、ディスプレイ86Aに対して、オリジナル映像及びシミュレーション映像の表示を終了させるように、ディスプレイ86Aを制御し、術後視野シミュレーション処理を終了する。ステップ212Pの処理が実行されることにより、オリジナル映像表示領域86A5からオリジナル映像が消去され、シミュレーション映像表示領域86A6からシミュレーション映像が消去される。
 図6に示すサーバ側処理のステップ214で、処理部99は、制御装置18と無線通信を行うことで、右眼用インカメラ48R及び左眼用インカメラ48Lに対して、被検眼44の前眼部を撮影させ、その後、ステップ216へ移行する。これにより、右眼用インカメラ48Rによって右眼44Rの前眼部が撮影され、左眼用インカメラ48Lによって左眼44Lの前眼部が撮影される。
 以下では、説明の便宜上、右眼用インカメラ48Rによって右眼44Rの前眼部が撮影されて得られた画像を右眼前眼部画像と称し、左眼用インカメラ48Lによって左眼44Lの前眼部が撮影されて得られた画像を左眼前眼部画像と称する。
 ステップ216で、処理部99は、制御装置18と無線通信を行うことで、制御部144に対して、右眼前眼部画像と左眼前眼部画像とに基づいて瞳孔間距離を検出させ、その後、ステップ218へ移行する。ここで、瞳孔間距離とは、右眼前眼部画像により示される右眼44Rの前眼部内の瞳孔と左眼前眼部画像により示される左眼44Lの前眼部内の瞳孔との間の距離を指す。
 ステップ218で、処理部99は、制御装置18と無線通信を行うことで、制御部144に対して、ステップ202で受け付けられたアイウエアID及びステップ216で検出させた瞳孔間距離等に基づいて反射ミラー42の位置を調整させる。また、処理部99は、制御装置18と無線通信を行うことで、制御部144に対して、ステップ202で受け付けられたアイウエアID及びステップ216で検出させた瞳孔間距離等に基づいてレーザ光の光軸を補正させ、且つ、原点出しを行わせるようにスキャナ28を制御する。
 なお、反射ミラー42の位置は、ミラー駆動源72が制御部144によって制御されることで調整される。また、レーザ光の光軸の補正及び原点出しは、スキャナ28が制御部144によって制御されることで実現される。
 ここで、患者による評価が良好か否かは、医療サービス者の問い掛けに対して患者が応答ボタン19を押したか否かによって判定される。応答ボタン19が患者によって押された場合、制御装置18から応答ボタン19が押されたことを示す応答情報が無線通信部112を介してサーバ装置14に送信され、応答情報がサーバ装置14の無線通信部82によって受信される。なお、応答情報がサーバ装置14の無線通信部82によって受信されると、CPU90が、ディスプレイ86Aに対して、応答情報が無線通信部82によって受信されたことを示すメッセージ又は画像等を表示させるようにしてもよい。
 ステップ220において、患者による評価が良好でない場合は、ステップ206へ移行する。ステップ220において、患者による評価が良好の場合は、判定が肯定されて、サーバ側処理を終了する。
 なお、患者の網膜に投影されたシミュレーション映像の評価については、医療サービス者が患者とコミュニケーションをとりながら見え方を確認する。そして、指定されている眼内レンズが患者にとって適切か否かを医療サービス者が判断する。患者の評価が良好でない場合は、医療サービス者により新たな眼内レンズIDが指定され、再度、シミュレーション映像が表示される。
 次に、ウエアラブル端末装置12の主電源(図示省略)が投入された場合にCPU120が端末側プログラム124Aを実行することで実現される端末側処理について図8を参照して説明する。なお、図8に示す端末側処理は、患者に対する手術前に、患者自身により術後の見え方を確認する際に、行われる処理である。
 図8に示す端末側処理では、先ず、ステップ250で、処理部142は、術後視野シミュレーション処理に含まれるステップ212Lの処理が実行されることで送信された投影対象眼指示情報を無線通信部112が受信したか否かを判定する。ステップ250において、無線通信部112が投影対象眼指示情報を受信していない場合は、判定が否定されて、ステップ252へ移行する。ステップ250において、無線通信部112が投影対象眼指示情報を受信した場合は、判定が肯定されて、ステップ254へ移行する
 ステップ252で、処理部142は、端末側処理に係る終了条件を満足したか否かを判定する。端末側処理に係る終了条件とは、端末側処理を終了する条件を指す。端末側処理に係る終了条件の一例としては、所定時間が経過したとの条件、受付デバイス84が終了指示を受け付けたとの条件、及び/又は、端末側処理を強制的に終了せざるを得ない不具合がCPU120によって検出されたとの条件等が挙げられる。
 ステップ252において、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ250へ移行する。ステップ252において、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
 ステップ254で、処理部142は、無線通信部112によって受信された投影対象眼指示情報に基づいて、右眼用シャッタ121R及び左眼用シャッタ121Lのうちの少なくとも一方を移動させる必要があるか否かを判定する。
 ステップ254において、右眼用シャッタ121R及び左眼用シャッタ121Lの両方を移動させる必要がない場合は、判定が否定されて、ステップ258へ移行する。ステップ254において、右眼用シャッタ121R及び左眼用シャッタ121Lのうちの少なくとも一方を移動させる必要がある場合は、判定が肯定されて、ステップ256へ移行する。
 ステップ256で、制御部144は、無線通信部112によって受信された投影対象眼指示情報に基づいてシャッタ121を移動させる。
 例えば、シミュレーション映像を両眼の網膜46に投影する場合、右眼用シャッタ121Rを第1位置P1に配置させ、左眼用シャッタ121Lを第3位置P3に配置させるように第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lが制御される。また、シミュレーション映像を網膜46Rに投影する場合、右眼用シャッタ121Rを第1位置P1に配置させ、左眼用シャッタ121Lを第4位置P4に配置させるように第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lが制御される。更に、シミュレーション映像を網膜46Lに投影する場合、右眼用シャッタ121Rを第2位置P2に配置させ、左眼用シャッタ121Lを第3位置P3に配置させるように第1シャッタ用駆動源134R及び第2シャッタ用駆動源134Lが制御される。
 なお、シャッタがメカ機構ではなく、電気的に駆動するシャッタである場合は、投影対象眼指示情報に基づいて、左右のシャッタのレーザ光の透過/非透過を制御することができる。
 次のステップ258で、処理部142は、術後視野シミュレーション処理に含まれるステップ212Mの処理が実行されることで送信されたシミュレーション映像を受信したか否かを判定する。
 ステップ258において、シミュレーション映像を受信した場合は、判定が肯定されて、ステップ260へ移行する。ステップ258において、シミュレーション映像を受信していない場合は、判定が否定されて、ステップ262へ移行する。
 ステップ260で、制御部144は、レーザ光源114に対して、無線通信部112によって受信されたシミュレーション映像に応じたレーザ光を射出させ、且つ、投影対象眼指示情報に応じてスキャナ28を制御することで、網膜46にシミュレーション映像を投影する。
 次のステップ262で、処理部142は、端末側処理に係る終了条件を満足したか否かを判定する。ステップ262において、端末側処理に係る終了条件を満足していない場合は、判定が否定されて、ステップ258へ移行する。ステップ262において、端末側処理に係る終了条件を満足した場合は、判定が肯定されて、端末側処理を終了する。
 以上説明したように、眼科システム10は、ウエアラブル端末装置12と、検眼情報94A2と眼内レンズ情報94Bとに基づいてオリジナル映像を変換することでシミュレーション映像を生成するサーバ装置14と、を備えている。そして、ウエアラブル端末装置12は、サーバ装置14により生成されたシミュレーション映像を網膜46に投影する。従って、眼科システム10によれば、患者に対して術後の実際の見え方を実感させ確認させることができる。
 また、ウエアラブル端末装置12は、レーザ光を網膜46に導く光学系27と、検眼情報94A2と眼内レンズ情報94Bとに基づいてサーバ装置14により生成されたシミュレーション映像を受信する無線通信部112と、を備えている。そして、ウエアラブル端末装置12は、無線通信部112によって受信されたシミュレーション映像が網膜46に投影されるようにレーザ光源114及び光学系27を制御する制御部144を備えている。従って、ウエアラブル端末装置12によれば、患者に対して術後の実際の見え方を実感させ確認させることができる。
 また、ウエアラブル端末装置12は、レーザ光を走査するスキャナ28と、スキャナ28により走査されたレーザ光を網膜46に反射させる反射ミラー42と、を備えている。従って、ウエアラブル端末装置12によれば、白内障の患者、すなわち、水晶体が白濁している患者に対して術後の見え方を提示することができる。
 また、ウエアラブル端末装置12は、被検眼44の前眼部を撮影する右眼用インカメラ48R及び左眼用インカメラ48Lを備えている。そして、制御部144は、右眼用インカメラ48R及び左眼用インカメラ48Lによって撮影されて得られた右眼前眼部画像及び左眼前眼部画像に基づいて瞳孔間距離を検出し、検出した瞳孔間距離に基づいて反射ミラー42の位置を制御する。従って、ウエアラブル端末装置12によれば、瞳孔間距離が異なる患者に対しても、術後の実際の見え方を実感させ確認させることができる。
 また、ウエアラブル端末装置12は、右眼用光学系27Rと左眼用光学系27Lとを備えている。そして、ウエアラブル端末装置12は、レーザ光を右眼用光学系27Rと左眼用光学系27Lとに分岐させるレーザ光分岐部20を備えている。従って、ウエアラブル端末装置12によれば、1つのレーザ光源114から両眼に対して同時にシミュレーション映像を投影することができる。
 また、ウエアラブル端末装置12は、アウトカメラ50を備えている。そして、制御部144は、アウトカメラ50により撮影されて得られた画像がサーバ装置14に送信されるように無線通信部112を制御する。従って、ウエアラブル端末装置12によれば、術後の実際の外部の視界の見え方を患者に対して実感させ確認させることができる。
 また、ウエアラブル端末装置12は、光学系27を有するアイウエア端末装置16を備えている。従って、ウエアラブル端末装置12は、患者がアイウエア端末装置16を身に付けながらシミュレーション映像の投影を行うことが可能になる。
 また、サーバ装置14は、検眼情報94A2と眼内レンズ情報94Bとに基づいてオリジナル映像を変換することでシミュレーション映像を生成する生成部102を備えている。そして、サーバ装置14は、ウエアラブル端末装置12との間で無線通信を行うことで、生成部102により生成されたシミュレーション映像をウエアラブル端末装置12に出力する出力部104を備えている。従って、サーバ装置14によれば、患者に対して術後の実際の見え方を実感させ確認させることができる。
 また、サーバ装置14は、シーンが異なる複数のオリジナル映像から、受付デバイス84によって受け付けられた指示に応じたオリジナル映像を取得する取得部100を備えている。そして、生成部102は、取得部100により取得されたオリジナル映像を、検眼情報94A2と眼内レンズ情報94Bとに基づいて変換することでシミュレーション映像を生成する。従って、サーバ装置14によれば、患者の好み/ライフスタイルに応じたシミュレーション映像を、ウエアラブル端末装置12を介して患者の網膜46に投影することができる。
 更に、サーバ装置14は、オリジナル映像表示領域86A5にオリジナル映像が表示され、且つ、シミュレーション映像表示領域86A6にシミュレーション映像が表示されるようにディスプレイ86Aを制御する表示制御部106を備えている。従って、サーバ装置14によれば、医療サービス者に対してオリジナル映像及びシミュレーション映像を視覚的に認識させることができる。
 なお、上記実施形態では、映像を例示したが、本開示の技術はこれに限定されるものではなく、映像に代えて静止画像を採用してもよいし、複数の静止画像を有するスライド画像を採用してもよい。
 また、上記実施形態では、レーザ光分岐部20及びレーザ光源114を例示したが、本開示の技術はこれに限定されるものではない。例えば、図16に示すように、眼科システム10に代えて眼科システム500を採用してもよい。
 眼科システム500は、眼科システム10に比べ、ウエアラブル端末装置12に代えてウエアラブル端末装置502を有する点が異なる。ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、光ファイバ30,38,40及びレーザ光分岐部20を有しない点が異なる。また、ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、制御装置18に代えて制御装置505を有する点が異なる。更に、ウエアラブル端末装置502は、ウエアラブル端末装置12に比べ、アイウエア端末装置16に代えてアイウエア端末装置504を有する点が異なる。制御装置505は、制御装置18に比べ、レーザ光源114を有しない点が異なる。
 アイウエア端末装置504は、アイウエア端末装置16に比べ、光学系27に代えて光学系506を有する点が異なる。光学系506は、光学系27に比べ、右眼用光学系27Rに代えて右側用光学系508Rを有する点、及び左眼用光学系27Lに代えて左側用光学系508Lを有する点が異なる。また、光学系506は、光学系27に比べ、スキャナ28に代えてスキャナ508を有する点が異なる。
 スキャナ508は、スキャナ28に比べ、右眼用スキャナ28Rに代えて右眼用スキャナ508Rを有する点、及び左眼用スキャナ28Lに代えて左眼用スキャナ508Lを有する点が異なる。
 右眼用スキャナ508Rは、右眼用スキャナ28Rに比べ、右眼用照射部52からのレーザ光を走査するのに代えて、右眼用レーザ光源510Rからの光を走査する点が異なる。右眼用レーザ光源510Rは、本開示の技術に係る右眼用光源の一例であり、右眼用光学系508Rに対して用いられる。右眼用レーザ光源510Rは、右眼用照射部52と同様にレーザ光をMEMSミラー54に射出する。右眼用レーザ光源510Rは、バスライン32に接続されており、CPU120の制御下で作動する。
 左眼用スキャナ510Lは、左眼用スキャナ28Lに比べ、左眼用照射部58からのレーザ光を走査するのに代えて、右眼用レーザ光源510Lからの光を走査する点が異なる。左眼用レーザ光源510Lは、本開示の技術に係る左眼用光源の一例であり、左眼用光学系508Lに対して用いられる。左眼用レーザ光源510Lは、左眼用照射部58と同様にレーザ光をMEMSミラー60に射出する。左眼用レーザ光源510Lは、バスライン32に接続されており、CPU120の制御下で作動する。
 従って、ウエアラブル端末装置502によれば、光ファイバ30,38,40及びレーザ光分岐部20が不要になるので、ウエアラブル端末装置502の小型化に寄与することができる。
 なお、図16に示す例では、アイウエア端末504には、右眼用レーザ光源510R、左眼用レーザ光源510L、右眼用光学系508R、及び左眼用光学系508Lが取り付けられているが、本開示の技術はこれに限定されるものではない。例えば、図13に示す例と同様に、制御装置505に相当する機能を有する装置がアイウエア端末装置504のフレームに取り付けられていてもよい。
 また、上記実施形態では、右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50を例示したが、本開示の技術はこれに限定されるものではない。例えば、図12に示すように、ウエアラブル端末装置12に代えてウエアラブル端末装置300を採用してもよい。ウエアラブル端末装置300は、ウエアラブル端末装置12に比べ、アイウエア端末装置16に代えてアイウエア端末装置302を有する点が異なる。アイウエア端末装置302は、アイウエア端末装置16に比べ、右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50に代えてイン/アウトカメラ304を採用した点が異なる。イン/アウトカメラ304は、右眼44Rの前眼部と左眼44Lの前眼部とを同時に撮影可能なインカメラと、アウトカメラ50と同じ機能を有するアウトカメラとが一体化されたカメラである。
 また、上記実施形態では、右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50がリム22の外側に配置されているが、本開示の技術はこれに限定されるものではない。例えば、各々の撮影レンズ(図示省略)が被写体側に露出されるように右眼用インカメラ48R、左眼用インカメラ48L、及びアウトカメラ50がリム22に埋め込まれていてもよい。
 また、上記実施形態では、アイウエア端末装置16の外側に制御装置18及びレーザ光分岐部20が引き出されたウエアラブル端末装置12を例示したが、本開示の技術はこれに限定されるものではない。例えば、図13に示すように、眼科システム10に代えて眼科システム340を採用してもよい。
 眼科システム340は、眼科システム10に比べ、制御装置18、レーザ光分岐部20、及びケーブル25,34,36を有しない点が異なる。また、眼科システム340は、眼科システム10に比べ、アイウエア端末装置16に代えてアイウエア端末装置350を有する点が異なる。
 アイウエア端末装置350は、制御装置18に相当する機能を有する装置と、レーザ光分岐部20に相当する機能を有する装置とが一体化されたコントローラ352が左側テンプル24Lに収容されている。この場合、ケーブル34,36に相当するケーブルもアイウエア端末装置350のフレームに収容される。ここで、アイウエア端末装置350のフレームとは、例えば、リム22及びテンプル24を指す。
 なお、コントローラ352は、右側テンプル24Rに設けられていてもよい。また、制御装置18に相当する機能を有する装置と、レーザ光分岐部20に相当する機能を有する装置とが別々にアイウエア端末装置350のフレームに収容されていてもよい。この場合、ケーブル25に相当するケーブル、すなわち、制御装置18に相当する機能を有する装置と、レーザ光分岐部20に相当する機能を有する装置とを接続するケーブルもアイウエア端末装置350のフレームに収容される。
 また、上記実施形態では、シャッタ121を例示したが、本開示の技術はこれに限定されるものではなく、シャッタ121に代えて、液晶シャッタ等の光の透過を制御することが可能なデバイスを採用してもよい。
 また、上記実施形態では、レーザ光を例示したが、本開示の技術はこれに限定されるものではなく、例えば、レーザ光に代えて、スーパールミネッセントダイオード(Super Luminescent Diode)による光を採用してもよい。
 また、上記実施形態では、端末側プログラム124Aを二次記憶部124から読み出す場合を例示したが、必ずしも最初から二次記憶部124に記憶させておく必要はない。例えば、図14に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体400に先ずは端末側プログラム124Aを記憶させておいてもよい。この場合、記憶媒体400の端末側プログラム124Aがウエアラブル端末装置12にインストールされ、インストールされた端末側プログラム124AがCPU120によって実行される。
 また、通信網(図示省略)を介してウエアラブル端末装置12に接続される他のコンピュータ又はサーバ装置等の記憶部に端末側プログラム124Aを記憶させておき、端末側プログラム124Aがウエアラブル端末装置12の要求に応じてダウンロードされた後にインストールされるようにしてもよい。この場合、インストールされた端末側プログラム124AはCPU120によって実行される。
 また、上記実施形態では、サーバ側プログラム94Cを二次記憶部94から読み出す場合を例示したが、必ずしも最初から二次記憶部94に記憶させておく必要はない。例えば、図15に示すように、SSD、USBメモリ、又はDVD-ROM等の任意の可搬型の記憶媒体450に先ずはサーバ側プログラム94Cを記憶させておいてもよい。この場合、記憶媒体450のサーバ側プログラム94Cがサーバ装置14にインストールされ、インストールされたサーバ側プログラム94CがCPU90によって実行される。
 また、通信網(図示省略)を介してサーバ装置14に接続される他のコンピュータ又はサーバ装置等の記憶部にサーバ側プログラム94Cを記憶させておき、サーバ側プログラム94Cがサーバ装置14の要求に応じてダウンロードされた後にインストールされるようにしてもよい。この場合、インストールされたサーバ側プログラム94CはCPU90によって実行される。
 また、上記実施形態で説明したサーバ側処理及び端末側処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、上記実施形態では、コンピュータを利用したソフトウェア構成によりサーバ側処理及び端末側処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA又はASIC等のハードウェア構成のみによって、サーバ側処理及び端末側処理のうちの少なくとも1つの処理が実行されるようにしてもよい。サーバ側処理及び端末側処理のうちの少なくとも1つの処理がソフトウェア構成とハードウェア構成との組み合わせた構成によって実行されるようにしてもよい。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 光源(114,510R,510L)と、
 前記光源(114,510R,510L)から射出された光を被検眼(44)の網膜(46)に導く光学系(27,506)と、
 前記被検眼(44)の検眼情報(94A2)と被検眼(44)に処方される眼内レンズに関する眼内レンズ情報(94B)とに基づいて画像生成装置(14)により生成され、前記眼内レンズが前記被検眼(44)に処方された際の見え方に相当するシミュレーション画像を受信する通信部(112)と、
 前記通信部(112)により受信された前記シミュレーション画像が前記網膜(46)に投影されるように前記光源(114,510R,510L)及び前記光学系(27,506)を制御する制御部(144)と、
 を含む眼科機器(12,300,502)。
 (付記2)
 前記シミュレーション画像は、前記検眼情報(94A2)と前記眼内レンズ情報(94B)とに基づいて、オリジナル画像を画像処理した画像である付記1に記載の眼科機器(12,300,502)。
 (付記3)
 前記オリジナル画像及び前記シミュレーション画像は動画像である付記2に記載の眼科機器(12,300,502)。
 (付記4)
 前記オリジナル画像は、シーンが異なる複数の画像の中から選択された画像である付記2又は付記3に記載の眼科機器(12,300,502)。
 (付記5)
 前記光学系(27,506)は、前記光を走査するスキャナ(28,508)と、前記スキャナ(28,508)により走査された光を前記網膜(46)へ反射させる反射部材(42)と、を有する付記1から付記4の何れか1つに記載の眼科機器(12,300,502)。
 (付記6)
 前記被検眼(44)の前眼部を撮影する前眼部カメラ(48R,48L,304)を更に含み、
 前記制御部(144)は、前記前眼部カメラ(48R,48L,304)により撮影されて得られた前眼部画像に基づいて瞳孔間距離を検出し、検出した前記瞳孔間距離に基づいて前記反射部材(42)の位置を制御する付記5に記載の眼科機器(12,300,502)。
 (付記7)
 前記光学系(27)は、前記光を右眼(44R)の網膜(46R)に導く右眼用光学系(27R)と、前記光を左眼(44L)の網膜(46L)に導く左眼用光学系(27L)とを有し、
 前記光を前記右眼用光学系(27R)と前記左眼用光学系(27L)とに分岐させる光分岐部(20)を更に含む付記1から付記6の何れか1つに記載の眼科機器(12)。
 (付記8)
 前記光学系(506)は、前記光を右眼(44R)の網膜(46R)に導く右眼用光学系(27R)と、前記光を左眼(44L)の網膜(46L)に導く左眼用光学系(27L)とを有し、
 前記光源(510R,510L)は、前記右眼用光学系(27R)に対して用いられる右眼用光源(510R)と、前記左眼用光学系(27L)に対して用いられる左眼用光源(510L)とを有する付記1から付記7の何れか1つに記載の眼科機器。
 (付記9)
 外部の視界を撮影する視界カメラ(50,304)と、を更に含み、
 前記制御部(144)は、前記視界カメラ(50,304)により撮影されて得られた視界画像が前記画像生成装置(14)に送信されるように前記通信部(112)を制御する付記1から付記8の何れか1つに記載の眼科機器(12,300,502)。
 (付記10)
 前記シミュレーション画像は、前記検眼情報(94A2)と前記眼内レンズ情報(94B)とに基づいて、前記視界画像を画像処理した画像である付記9に記載の眼科機器(12,300,502)。
 (付記11)
 前記光源(114,510R,510L)、前記光学系(27,506)、前記通信部(112)、及び前記制御部(144)のうちの少なくとも前記光学系(27,506)を有するアイウエア端末装置(16,302,350,504)を含む付記1から付記10の何れか1つに記載の眼科機器(12,300,502)。
 (付記12)
 被検眼(44)の検眼情報(94A2)と前記被検眼(44)に処方される眼内レンズに関する眼内レンズ情報(94B)とに基づいて、前記眼内レンズが前記被検眼(44)に処方された際の見え方に相当するシミュレーション画像を生成する生成部(102)と、
 前記生成部により生成された前記シミュレーション画像を投影装置に出力する出力部(104)と、
 を含む画像生成装置(14)。
 (付記13)
 前記シミュレーション画像は、前記検眼情報(94A2)と前記眼内レンズ情報(94B)とに基づいて、オリジナル画像を画像処理した画像である付記12に記載の眼科機器(12,300,502)。
 (付記14)
 前記オリジナル画像及び前記シミュレーション画像は動画像である付記13に記載の眼科機器(12,300,502)。
 (付記15)
 シーンが異なる複数の画像から、受付部(84)によって受け付けられた指示に応じた画像を前記オリジナル画像として取得する取得部(100)を更に含む付記13又は付記14に記載の画像生成装置(14)。
 (付記16)
 画像を表示する表示部(86A)と、
 前記表示部(86A)に対して、前記オリジナル画像と前記シミュレーション画像とを表示させるように前記表示部(86A)を制御する表示制御部(106)と、を更に含む付記12から付記15の何れか1つに記載の画像生成装置(14)。
 (付記17)
 コンピュータ(110)を、
 付記1から付記11の何れか1つに記載の眼科機器(12,300,502)に含まれる前記制御部(144)として機能させるためのプログラム(124A)。
 (付記18)
 コンピュータ(80)を、
 付記12から付記16の何れか1つに記載の画像生成装置(14)に含まれる前記生成部(102)及び前記出力部(104)として機能させるためのプログラム(94C)。
 (付記19)
 被検眼(44)の網膜(46)に画像を投影する投影装置(12,300,502)と、
 前記被検眼(44)の検眼情報(94A2)と前記被検眼(44)に処方される眼内レンズに関する眼内レンズ情報(94B)とに基づいて、前記眼内レンズが前記被検眼(44)に処方された際の見え方に相当するシミュレーション画像を生成する画像生成装置(14)と、を含み、
 前記投影装置(12,300,502)は、前記画像生成装置(12,300,502)により生成された前記シミュレーション画像を前記網膜(46)に投影する
 眼科システム(10,300,340,500)。
10,300,340,500 眼科システム
12 ウエアラブル端末装置
14 サーバ装置
16,302,350,504 アイウエア端末装置
20 レーザ光分岐部
27,506 光学系
27R,506R 右眼用光学系
27L,506L 左眼用光学系
28,508 スキャナ
42 反射ミラー
44 被検眼
46 網膜
48R 右眼用インカメラ
48L 左眼用インカメラ
50 アウトカメラ
82,112 無線通信部
84 受付デバイス
86A ディスプレイ
90,120 CPU
94A2 検眼情報
94B 眼内レンズ情報
94C サーバ側プログラム
100 取得部
102 生成部
104 出力部
106 表示制御部114
124A 端末側プログラム
144 制御部
304 イン/アウトカメラ
510R 右眼用レーザ光源
510L 左眼用レーザ光源

Claims (19)

  1.  光源と、
     前記光源から射出された光を被検眼の網膜に導く光学系と、
     前記被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて生成され、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を受信する通信部と、
     前記通信部により受信された前記シミュレーション画像が前記網膜に投影されるように前記光源及び前記光学系を制御する制御部と、
     を含む眼科機器。
  2.  前記シミュレーション画像は、前記検眼情報と前記眼内レンズ情報とに基づいて、オリジナル画像を画像処理した画像である請求項1に記載の眼科機器。
  3.  前記オリジナル画像及び前記シミュレーション画像は動画像である請求項2に記載の眼科機器。
  4.  前記オリジナル画像は、シーンが異なる複数の画像の中から選択された画像である請求項2又は請求項3に記載の眼科機器。
  5.  前記光学系は、前記光を走査するスキャナと、前記スキャナにより走査された光を前記網膜へ反射させる反射部材と、を有する請求項1から請求項4の何れか1項に記載の眼科機器。
  6.  前記被検眼の前眼部を撮影する前眼部カメラを更に含み、
     前記制御部は、前記前眼部カメラにより撮影されて得られた前眼部画像に基づいて瞳孔間距離を検出し、検出した前記瞳孔間距離に基づいて前記反射部材の位置を制御する請求項5に記載の眼科機器。
  7.  前記光学系は、前記光を右眼の網膜に導く右眼用光学系と、前記光を左眼の網膜に導く左眼用光学系とを有し、
     前記光を前記右眼用光学系と前記左眼用光学系とに分岐させる光分岐部を更に含む請求項1から請求項6の何れか1項に記載の眼科機器。
  8.  前記光学系は、前記光を右眼の網膜に導く右眼用光学系と、前記光を左眼の網膜に導く左眼用光学系とを有し、
     前記光源は、前記右眼用光学系に対して用いられる右眼用光源と、前記左眼用光学系に対して用いられる左眼用光源とを有する請求項1から請求項7の何れか1項に記載の眼科機器。
  9.  外部の視界を撮影する視界カメラと、を更に含み、
     前記制御部は、前記視界カメラにより撮影されて得られた視界画像が画像生成装置に送信されるように前記通信部を制御する請求項1から請求項8の何れか1項に記載の眼科機器。
  10.  前記シミュレーション画像は、前記検眼情報と前記眼内レンズ情報とに基づいて、前記視界画像を画像処理した画像である請求項9に記載の眼科機器。
  11.  前記光源、前記光学系、前記通信部、及び前記制御部のうちの少なくとも前記光学系を有するアイウエア端末装置を含む請求項1から請求項10の何れか1項に記載の眼科機器。
  12.  被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を生成する生成部と、
     前記生成部により生成された前記シミュレーション画像を投影装置に出力する出力部と、
     を含む画像生成装置。
  13.  前記シミュレーション画像は、前記検眼情報と前記眼内レンズ情報とに基づいて、オリジナル画像を画像処理した画像である請求項12に記載の画像生成装置。
  14.  前記オリジナル画像及び前記シミュレーション画像は動画像である請求項13に記載の画像生成装置。
  15.  シーンが異なる複数の画像から、受付部によって受け付けられた指示に応じた画像を前記オリジナル画像として取得する取得部を更に含む請求項13又は請求項14に記載の画像生成装置。
  16.  画像を表示する表示部と、
     前記表示部に対して、前記オリジナル画像と前記シミュレーション画像とを表示させるように前記表示部を制御する表示制御部と、を更に含む請求項14又は請求項15に記載の画像生成装置。
  17.  コンピュータを、
     請求項1から請求項11の何れか1項に記載の眼科機器に含まれる前記制御部として機能させるためのプログラム。
  18.  コンピュータを、
     請求項12から請求項16の何れか1項に記載の画像生成装置に含まれる前記生成部及び前記出力部として機能させるためのプログラム。
  19.  被検眼の網膜に画像を投影する投影装置と、
     前記被検眼の検眼情報と前記被検眼に処方される眼内レンズに関する眼内レンズ情報とに基づいて、前記眼内レンズが前記被検眼に処方された際の見え方に相当するシミュレーション画像を生成する画像生成装置と、を含み、
     前記投影装置は、前記画像生成装置により生成された前記シミュレーション画像を前記網膜に投影する
     眼科システム。
PCT/JP2018/031384 2017-08-31 2018-08-24 眼科機器、画像生成装置、プログラム、及び眼科システム WO2019044710A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019539458A JPWO2019044710A1 (ja) 2017-08-31 2018-08-24 眼科機器、画像生成装置、プログラム、及び眼科システム
US16/642,796 US20200253468A1 (en) 2017-08-31 2018-08-24 Ophthalmic instrument, image generation device, program, and ophthalmic system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-167927 2017-08-31
JP2017167927 2017-08-31

Publications (1)

Publication Number Publication Date
WO2019044710A1 true WO2019044710A1 (ja) 2019-03-07

Family

ID=65527372

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031384 WO2019044710A1 (ja) 2017-08-31 2018-08-24 眼科機器、画像生成装置、プログラム、及び眼科システム

Country Status (3)

Country Link
US (1) US20200253468A1 (ja)
JP (1) JPWO2019044710A1 (ja)
WO (1) WO2019044710A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010200915A (ja) * 2009-03-02 2010-09-16 Nidek Co Ltd 眼科測定プログラム
JP2013195931A (ja) * 2012-03-22 2013-09-30 Hoya Corp シミュレーション装置、シミュレーションプログラムおよび両眼視体感方法
JP2013236902A (ja) * 2012-04-20 2013-11-28 Nidek Co Ltd 眼科測定プログラム
WO2013175923A1 (ja) * 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
JP2015503436A (ja) * 2012-01-10 2015-02-02 デジタルビジョン エルエルシーDigitalvision,Llc 眼内レンズ最適化器
WO2016208266A1 (ja) * 2015-06-25 2016-12-29 株式会社Qdレーザ 画像投影装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6231541B2 (ja) * 2015-06-25 2017-11-15 株式会社Qdレーザ 画像投影装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010200915A (ja) * 2009-03-02 2010-09-16 Nidek Co Ltd 眼科測定プログラム
JP2015503436A (ja) * 2012-01-10 2015-02-02 デジタルビジョン エルエルシーDigitalvision,Llc 眼内レンズ最適化器
JP2013195931A (ja) * 2012-03-22 2013-09-30 Hoya Corp シミュレーション装置、シミュレーションプログラムおよび両眼視体感方法
JP2013236902A (ja) * 2012-04-20 2013-11-28 Nidek Co Ltd 眼科測定プログラム
WO2013175923A1 (ja) * 2012-05-25 2013-11-28 Hoya株式会社 シミュレーション装置
WO2016208266A1 (ja) * 2015-06-25 2016-12-29 株式会社Qdレーザ 画像投影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MIYAKE TSUNEYUKI: "Cover Story", NIKKEI MICRODEVICES, vol. 1, no. 223, 1 January 2004 (2004-01-01), pages 40 - 43 *

Also Published As

Publication number Publication date
US20200253468A1 (en) 2020-08-13
JPWO2019044710A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
JP5887026B2 (ja) ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US10314486B2 (en) Head-mounted indirect opthalmoscope camera
TWI534476B (zh) 頭戴式顯示器
US20170092007A1 (en) Methods and Devices for Providing Enhanced Visual Acuity
US11483537B2 (en) Stereoscopic mobile retinal imager
WO2015027599A1 (zh) 内容投射系统及内容投射方法
JP6026836B2 (ja) 画像表示装置、制御方法、プログラム及び記憶媒体
JP7355144B2 (ja) 眼科機器、管理方法、及び管理装置
JP4658119B2 (ja) 眼科手術用の画像システム
KR20160010864A (ko) 검안경
JP2017509925A (ja) 3dビデオ顕微鏡装置
JP7275124B2 (ja) 映像投射システム、映像投射装置、映像表示光回折用光学素子、器具、及び映像投射方法
JP5990939B2 (ja) 立体視訓練支援装置、立体視訓練支援システム、画像処理装置、画像処理方法、及びプログラム
JP7088198B2 (ja) 眼科機器、管理装置、及び眼科機器の管理方法
JP5272813B2 (ja) ヘッドマウントディスプレイ
WO2019044710A1 (ja) 眼科機器、画像生成装置、プログラム、及び眼科システム
EP2786697A1 (en) Microscope for monitoring optical coherence tomography
JP6198028B1 (ja) 検眼システム
US10932665B2 (en) Ophthalmologic microscope system
US20240069320A1 (en) Digital microscope for medical procedure
JP2006271740A (ja) 立体眼底画像表示装置
JP2021124700A (ja) 画像投影装置、画像投影方法、画像投影システム、プログラム
KR101452391B1 (ko) 도킹 유니트가 구비된 안과 수술 시스템 및 디스플레이 방법
JP2020048748A (ja) 検眼装置及び検眼方法
JP2021089351A (ja) 頭部装着システム及び情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18849758

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019539458

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18849758

Country of ref document: EP

Kind code of ref document: A1