WO2016190113A1 - 手術システム、並びに画像処理装置および方法 - Google Patents

手術システム、並びに画像処理装置および方法 Download PDF

Info

Publication number
WO2016190113A1
WO2016190113A1 PCT/JP2016/064083 JP2016064083W WO2016190113A1 WO 2016190113 A1 WO2016190113 A1 WO 2016190113A1 JP 2016064083 W JP2016064083 W JP 2016064083W WO 2016190113 A1 WO2016190113 A1 WO 2016190113A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
posture
tomographic
tomographic image
Prior art date
Application number
PCT/JP2016/064083
Other languages
English (en)
French (fr)
Inventor
大月 知之
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/566,776 priority Critical patent/US10537389B2/en
Priority to EP16799821.0A priority patent/EP3305173B1/en
Publication of WO2016190113A1 publication Critical patent/WO2016190113A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • A61B90/25Supports therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses, corneal implants; Implanting instruments specially adapted therefor; Artificial eyes
    • A61F2/16Intraocular lenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/14Eye parts, e.g. lenses, corneal implants; Implanting instruments specially adapted therefor; Artificial eyes
    • A61F2/16Intraocular lenses
    • A61F2/1662Instruments for inserting intraocular lenses into the eye
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3616Magnifying glass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • A61F9/00745Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments using mechanical vibrations, e.g. ultrasonic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present technology relates to a surgical system, an image processing apparatus, and a method, and more particularly, to a surgical system, an image processing apparatus, and a method that can determine the posture of an eye more firmly and with high accuracy.
  • the operator's guide such as the cornea range of the patient's eye and the orientation of the intraocular lens to be inserted into the eye, is superimposed on the optical image or image of the eye during surgery.
  • a technique for presenting guide information is proposed (see, for example, Patent Document 1).
  • the corneal range and the pupil range are recognized from the front image before and during the operation, and based on the recognition result, the change in the position of the eye before and during the operation is grasped, and the front image
  • the image may be overexposed due to specular reflection of illumination, etc. Therefore, it is difficult to estimate the eye rotation angle from the front image. In addition, it is difficult to estimate the rotation angle of the eye even when there is bleeding from the patient's eyes or when the illumination is dark and the contrast of the front image is low.
  • the three-dimensional eye posture can be estimated from the front image, the eye posture may not be estimated with high accuracy, and as a result, there may be a deviation in the guide information presentation position. It was.
  • This technology has been made in view of such a situation, and makes it possible to obtain the posture of the eye more firmly and with high accuracy.
  • the surgical system is based on the tomographic image acquisition unit that acquires a tomographic image that is a cross-sectional image in a direction substantially parallel to the eye axis direction of the eye to be operated, An image recognition unit that recognizes a predetermined part of the eye in the tomographic image, and a posture calculation unit that calculates the posture of the eye based on the recognition result of the predetermined part.
  • the surgical system may further include a front image acquisition unit that images the eye that is the target of surgery from a substantially axial direction.
  • the posture calculation unit can calculate the posture of the eye based on the recognition result of the predetermined part and the front image obtained by the front image acquisition unit.
  • a tomographic image that is a cross-sectional image in a direction substantially parallel to the eye axis direction of an eye that is a surgical target is acquired, and based on the tomographic image, the eye of the eye in the tomographic image is acquired.
  • a predetermined part is recognized, and the posture of the eye is calculated based on the recognition result of the predetermined part.
  • the image processing apparatus recognizes a predetermined part of the eye in the tomographic image based on a tomographic image that is a cross-sectional image in a direction substantially parallel to the axial direction of the eye that is the operation target. And a posture calculation unit that calculates the posture of the eye based on the recognition result of the predetermined part.
  • the posture calculation unit can calculate the rotation angle of the eye with the eye axis as a rotation axis as the eye posture.
  • the posture calculation unit can calculate the three-dimensional posture of the eye.
  • the posture calculation unit can calculate the three-dimensional posture of the eye based on the rotation amount of the eye.
  • the posture calculation unit can calculate the posture of the eye based on the positional relationship between the optic disc recognized as the predetermined part and the fovea.
  • the image recognizing unit can recognize a predetermined part of the eye based on the tomographic image before or during the operation of the eye.
  • the image recognition unit is configured to recognize a specific part of the eye in the front image on the basis of a front image obtained by photographing the eye from substantially the eye axis direction, and based on a recognition result of the specific part
  • the predetermined part in the tomographic image can be recognized with respect to a region on the tomographic image that is determined.
  • the final position is calculated.
  • the posture of the eye can be calculated.
  • the posture calculation unit can calculate the final eye posture based on the front image within a range of postures determined by the calculation result of the eye posture based on the recognition result of the predetermined part. .
  • the image recognition unit is configured to recognize a specific part of the eye in the front image based on a front image obtained by photographing the eye substantially from the eye axis direction, and the image processing apparatus
  • An acquisition control unit that acquires the tomographic image at the cross-sectional position determined by the recognition result of the region can be further provided.
  • the image recognition unit recognizes the surgical tool on the front image based on a front image obtained by photographing the eye from the substantially axial direction during the eye surgery, and recognizes the surgical tool.
  • the predetermined part can be recognized by excluding the region on the tomographic image determined by the result.
  • the image recognition unit can recognize the predetermined portion in the volume data obtained from a plurality of the tomographic images having different cross-sectional positions.
  • the image processing apparatus may further include a guide information generation unit that generates guide information serving as a guide during the eye surgery based on the eye posture.
  • the tomographic image can be an image taken by an optical coherence tomography.
  • the image processing method recognizes a predetermined portion of the eye in the tomographic image based on a tomographic image that is a cross-sectional image in a direction substantially parallel to the axial direction of the eye that is the surgical target. And calculating the posture of the eye based on the recognition result of the predetermined part.
  • a predetermined part of the eye in the tomographic image is recognized,
  • the eye posture is calculated based on the recognition result of the predetermined part.
  • the posture of the eye can be obtained more firmly and with high accuracy.
  • FIG. 1 It is a figure which shows the structural example of a surgery system. It is a figure which shows the structural example of a surgical microscope. It is a figure explaining a cataract operation. It is a figure explaining a preoperative plan. It is a figure explaining a preoperative plan. It is a figure explaining a preoperative plan. It is a figure explaining presentation of guide information. It is a figure explaining presentation of guide information. It is a figure explaining presentation of guide information. It is a figure explaining a tomographic image. It is a figure explaining the volume data of a tomographic image. It is a figure explaining a preoperative plan. It is a figure explaining presentation of guide information. It is a figure which shows the structural example of a surgery system.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a surgery system to which the present technology is applied.
  • 1 has a surgical microscope 21 and a patient bed 22, and the patient undergoes eye surgery while lying on the patient bed 22.
  • a doctor who is an operator performs an operation while observing the eyes of the patient with the operation microscope 21.
  • the surgical microscope 21 has an objective lens 31, an eyepiece lens 32, a monitor 33, and the like for magnifying and observing the eye of a patient to be operated.
  • the doctor performs an operation while looking through the eyepiece lens 32 and observing the eyes of the patient through the objective lens 31.
  • a front image taken by a camera (not shown) is displayed on the monitor 33.
  • the guide information is superimposed and displayed on the optical image of the patient's eye observed from the eyepiece lens 32 or the front image displayed on the monitor 33 is superimposed and displayed as necessary.
  • the functional configuration of the surgical microscope 21 is, for example, as shown in FIG. In FIG. 2, the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • a light source 61 includes a light source 61, an observation optical system 62, a presentation unit 63, an eyepiece 32, a front image acquisition unit 64, a tomographic image acquisition unit 65, a control unit 66, an interface unit 67, and a monitor 33. is doing.
  • the light source 61 emits illumination light under the control of the control unit 66 to illuminate the patient's eyes.
  • the observation optical system 62 includes, for example, an optical element such as the objective lens 31, the half mirror 71, and a lens (not shown), and the light (observation light) incident from the patient's eye receives the eyepiece 32 and the front image acquisition unit 64. Lead to.
  • the observation light incident from the patient's eye enters the half mirror 71 via the objective lens 31 or a lens (not shown). Almost half of the observation light incident on the half mirror 71 passes through the half mirror 71 as it is, and enters the eyepiece lens 32 via the transmission type presentation unit 63. On the other hand, the remaining half of the observation light incident on the half mirror 71 is reflected by the half mirror 71 and enters the front image acquisition unit 64.
  • the eyepiece 32 condenses the observation light incident from the observation optical system 62 via the presentation unit 63 and forms an optical image of the patient's eye. As a result, an optical image of the patient's eye is observed by the operator looking into the eyepiece lens 32.
  • the front image acquisition unit 64 is composed of, for example, a video camera and receives the observation light incident from the observation optical system 62 and photoelectrically converts the image to observe the patient's eye from the front, that is, the patient's eye substantially. A front image that is an image taken from the axial direction is taken. The front image acquisition unit 64 captures a front image according to the control of the control unit 66 and supplies the obtained front image to the control unit 66.
  • the tomographic image acquisition unit 65 includes, for example, an optical coherence tomography (OCT (Optical Coherence Tomography)) or a Shine peak camera.
  • OCT optical Coherence Tomography
  • the tomographic image acquisition unit 65 captures a tomographic image that is a cross-sectional image of the patient's eye under the control of the control unit 66 and supplies the obtained tomographic image to the control unit 66.
  • the tomographic image is an image of a cross section in a direction substantially parallel to the axial direction of the patient's eye.
  • the tomographic image acquisition unit 65 acquires a tomographic image based on the principle of interference using, for example, infrared light, and the optical path of the infrared light and a part of the optical path of the observation light in the observation optical system 62 at that time May be a common optical path.
  • the control unit 66 controls the entire operation of the surgical microscope 21.
  • the presentation unit 63 includes a transmissive display device, and is disposed between the eyepiece lens 32 and the observation optical system 62.
  • the presentation unit 63 transmits the observation light incident from the observation optical system 62 and causes the observation light to enter the eyepiece 32, and presents (displays) the guide information supplied from the control unit 66.
  • the guide information is presented to the surgeon looking into the eyepiece lens 32 by being superimposed on the optical image of the patient's eye.
  • the interface unit 67 includes, for example, a touch panel provided superimposed on the monitor 33, a controller, a communication unit that receives commands from a remote controller (not shown), and communicates with an external device.
  • the information according to the operation is supplied to the control unit 66. That is, the interface unit 67 acquires information and an image corresponding to the operation and supplies them to the control unit 66.
  • the monitor 33 displays a front image according to the control of the control unit 66. Further, on the monitor 33, guide information may be superimposed and displayed on the front image.
  • the control unit 66 For example, at the time of a patient's surgery, first, the control unit 66, from the interface unit 67, preoperative plan information including information indicating guide information to be presented as a guide, information indicating a presentation position of the guide information, and the front of the operation. An image and a preoperative image that is a tomographic image are acquired.
  • the control unit 66 controls the light source 61 to emit illumination light. Thereby, the patient's eyes are illuminated, and the operator can observe the patient's eyes from the eyepiece 32.
  • control unit 66 controls the front image acquisition unit 64 to capture a front image, and supplies the obtained front image to the monitor 33 for display. Further, the control unit 66 controls the tomographic image acquisition unit 65 to capture an intraoperative tomographic image as an intraoperative image, and estimates an eye posture from the obtained intraoperative image and a tomographic image as a preoperative image. Ask.
  • the control unit 66 generates guide information from the obtained eye posture and preoperative plan information acquired in advance, and supplies the guide information to the presentation unit 63 and the monitor 33 to present (display) the guide information. Thereby, the surgeon can perform the operation efficiently while referring to the guide information superimposed and displayed on the optical image of the eye of the patient who is the operation target. On the monitor 33, the guide information is displayed superimposed on the front image.
  • the present technology can be applied, for example, when a patient's eye is operated.
  • a case where a patient's cataract operation is performed will be described as an example.
  • the cornea 102 portion of the patient's eyeball 101 is incised with a knife to create the wound 103. Then, a surgical instrument is inserted from the wound 103 portion, and the front portion of the crystalline lens 104 inside the eyeball 101, that is, the anterior capsule portion is incised in a circular shape.
  • a surgical tool is inserted from the wound 103 into the anterior capsulotomy portion of the lens 104, and emulsification (pulverization) and suction of the nucleus of the lens 104 by ultrasonic vibration called nuclear processing is performed.
  • the cortex is also aspirated.
  • the intraocular lens 105 is inserted into the crystalline lens 104, and the operation ends.
  • preoperative plans shown in FIGS. 4 to 6 are made from front images taken before the operation. 4 to 6, the same reference numerals are given to the portions corresponding to each other, and the description thereof will be omitted as appropriate.
  • the position where the wound is created is determined in the cornea portion of the patient's eye 131 on the front image, specifically, in the vicinity of and inside the cornea ring portion 132.
  • the lower right portion of the pupil 133 is the wound creation position 134.
  • a circular region of the inner part of the corneal ring portion 132 in the patient's eye 131 on the front image is determined as the anterior capsulotomy position 141.
  • the radius of the circle shown as the anterior capsulotomy position 141 is determined based on the size of the intraocular lens.
  • the direction of the intraocular lens with respect to the patient's eye 131 on the front image when the intraocular lens is arranged is determined as the intraocular lens direction 151.
  • the intraocular lens direction 151 is represented by a straight line.
  • the intraocular lens direction 151 is determined based on various information such as refraction information of each part of the eye, such as corneal refraction of the patient's eye, and the creation position of the wound.
  • the preoperative plan When the wound creation position, the anterior capsulotomy position, and the intraocular lens orientation are determined by the preoperative plan in this way, during the operation, according to the preoperative plan, for example, as shown in FIGS. Information is presented. 7 to 9, parts corresponding to each other are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the corneal limbus that is, the corneal limbus information G11 indicating the boundary between the cornea and the sclera, and the wound position information G12 indicating the wound creation position are provided as guide information. 63 (presented).
  • the surgeon creates a wound by incising a portion where the wound position information G12 is displayed with a knife.
  • the corneal ring portion information G11 and the wound position information G12 presented as guide information at this time correspond to the corneal ring portion 132 and the wound creation position 134 shown in FIG. Presented in the same position. That is, the presentation position of the guide information is adjusted in accordance with the movement of the eye so that the guide information is always presented at a specific portion in the optical image of the patient's eye.
  • the operation proceeds, and as shown in FIG. 8, the corneal ring portion information G11 superimposed on the optical image of the patient's eye and the anterior capsulotomy position information G13 indicating the incision position of the anterior capsule are provided as guide information 63. Presented to. The surgeon incises the portion of the patient's eye where the anterior capsulotomy position information G13 is displayed.
  • the corneal limbus information G11 and the anterior capsulotomy position information G13 presented as guide information are stored in the corneal limbus 132 and the anterior capsulotomy position 141 shown in FIG. Displayed at the corresponding position.
  • the intracorneal information G11 superimposed on the optical image of the patient's eye and the orientation of the intraocular lens are then superimposed as shown in FIG.
  • the lens direction information G14 is presented to the presentation unit 63 as guide information. The surgeon inserts the intraocular lens into the crystalline lens of the patient's eye so that the direction of the intraocular lens is the direction indicated by the intraocular lens direction information G14.
  • the corneal ring information G11 and the intraocular lens direction information G14 presented as guide information are displayed at positions corresponding to the corneal ring 132 and the intraocular lens direction 151 shown in FIG.
  • corneal limbus information G11 when cataract surgery is performed, for example, corneal limbus information G11, wound position information G12, anterior capsulotomy position information G13, and intraocular lens direction information G14 are presented as guide information.
  • each part of the eye of the patient during the operation should not be shifted between the guide information presentation position determined in the preoperative plan and the actual guide information presentation position during the operation. It is important to estimate the position of the eye and the posture of the eye firmly and with high accuracy.
  • the estimation accuracy may be reduced depending on the situation, or it may be difficult to perform the estimation in the first place. Therefore, in the present technology, by using a tomographic image of the patient's eye, each part of the patient's eye and the posture of the eye can be estimated more firmly and with high accuracy.
  • a tomographic image is acquired (photographed) by a tomographic image acquisition unit 65 such as an optical coherence tomograph
  • the tomographic image is obtained regardless of imaging conditions such as illumination or personal characteristics such as difficulty in seeing blood vessels. It is possible to more strongly recognize (detect) a part such as a boundary position between the cornea and the sclera, a corner angle, and an end point (inner edge) of the iris from the image.
  • the influence on the recognition of each part of the eye due to bleeding at the time of surgery is sufficiently small compared to the case of using the front image.
  • each part of the eye can be recognized more robustly and with high accuracy using the tomographic image, the posture of the patient's eye can be estimated more firmly and with high accuracy using the recognition result. . Further, it is possible to present guide information with higher accuracy using the recognition result of each part of the patient's eye and the estimation result of the posture of the patient's eye.
  • the tomographic image acquisition unit 65 obtains a tomographic image P11 shown in FIG.
  • the tomographic image P11 shows only a part of the tomographic image actually obtained.
  • the tomographic image P11 shown in FIG. 10 is a cross-sectional image substantially parallel to the eye axis of the patient's eye and a cross-sectional image substantially perpendicular to the front image.
  • this tomographic image P11 the cornea 181 and sclera of the patient's eye 182 and iris 183 are observed.
  • the controller 66 of the surgical microscope 21 can recognize each part of the eye from the tomographic image P11 by image recognition using a previously learned dictionary, image recognition using image contrast, or the like.
  • the boundary position B11 and the boundary position B12 which are the boundary part between the cornea 181 and the sclera 182, the corner position B13 and the corner position B14 which are the positions of the corners formed by the sclera 182 and the iris 183, and the end points of the iris
  • the iris end point B15 and the iris end point B16 that are (inner edges) can be specified by image recognition.
  • the position of the optic disc and the position of the fovea in the posterior segment can be obtained by image recognition.
  • control unit 66 can obtain, for example, volume data P21 shown in FIG. 11 from the tomographic image of each cross-sectional position obtained by the tomographic image acquisition unit 65.
  • FIG. 11 parts corresponding to those in FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the volume data P21 is a three-dimensional image showing the three-dimensional shape of the patient's eye, which is the subject of the tomographic image, reconstructed from a plurality of tomographic images having different cross-sectional positions. That is, the volume data P21 is an image obtained as a result of accumulation of tomographic images at each cross-sectional position.
  • the cornea 181, the iris 183, and the pupil 211 of the patient's eye are observed.
  • the corneal limbus that is the boundary between the cornea 181 and the boundary between the iris 183 and the pupil 211 are directly displayed.
  • the contour of the pupil 211 that is a part can be obtained.
  • each cross-sectional position obtained by the tomographic image acquisition unit 65 is the same as the imaging direction of the front image obtained by the front image acquisition unit 64, that is, the image of the patient's eye viewed from the axial direction. It can also be obtained by reconstructing the subject using the tomographic images.
  • a patient's eye image reconstructed from a tomographic image and viewed from the same direction as the imaging direction of the front image is also referred to as a reconstructed front image.
  • the shooting direction of the front image is also referred to as a front direction.
  • the control unit 66 recognizes the corneal range, pupil range, and eye (eyeball) posture necessary for presenting the guide information, using the above-described tomographic image, volume data, and reconstructed front image as appropriate.
  • the pupil range is not necessarily required, and is obtained only when it is used to determine the guide information presentation position.
  • the corneal range can be obtained by recognizing a corner position or a boundary position between the cornea and the sclera as shown in (a) and (b) below.
  • two corner positions are recognized from one tomographic image by image recognition from the tomographic image.
  • the corner position B13 and the corner position B14 are recognized from the tomographic image P11.
  • the corneal range is obtained by estimation based on each corner position on the tomographic image recognized as described above and the cross-sectional position of each tomographic image.
  • the positions of the corner positions recognized in each tomographic image are obtained when viewed from the front direction, and the corners adjacent to each other when viewed from the front direction are obtained.
  • a region inside a circle (annular line) obtained by connecting the corner positions is the cornea range.
  • the corner angle is recognized by image recognition from the volume data of the tomographic image.
  • a region inside the annular (circular) corner portion obtained as the recognition result is set as a cornea range.
  • two boundary positions of the cornea and sclera are recognized by image recognition from each tomographic image for one or a plurality of tomographic images.
  • the boundary position B11 and the boundary position B12 are recognized from the tomographic image P11.
  • the corneal range is obtained by estimation in the same manner as the method (1) (1). That is, for example, a region inside the circle obtained by connecting the boundary positions of the cornea and sclera adjacent to each other when viewed from the front direction is the cornea range.
  • the boundary position between the cornea and sclera is recognized by image recognition from the volume data of the tomographic image.
  • a three-dimensional shape of the cornea and sclera is obtained as a recognition result.
  • the boundary between the cornea and sclera obtained as a recognition result is annular (circular), and the region inside the annular boundary is the cornea range.
  • the pupil range can be obtained based on the position of the end point of the iris as shown in (1) or (2) of (c) below.
  • two end positions of the iris are recognized by image recognition from the tomographic images for one or a plurality of tomographic images.
  • the iris end point B15 and the iris end point B16 are recognized from the tomographic image P11.
  • the pupil range is obtained by estimation based on each iris end point on the tomographic image recognized as described above and the cross-sectional position of each tomographic image.
  • the positions of the iris end points recognized in each tomographic image are obtained when viewed from the front direction, and the irises adjacent to each other when viewed from the front direction are obtained.
  • the area inside the circle obtained by connecting the end point positions is the pupil range.
  • the iris is recognized by image recognition from the volume data of the tomographic image.
  • the inner end point of the iris obtained as the recognition result that is, the inner end portion of the iris that is circular (circular), and the inner region are the pupils. Scope.
  • the posture of the eye may be a rotation angle of the eye viewed from the front direction, that is, a rotation angle of the eyeball with the eye axis as a rotation axis, and a three-dimensional eyeball posture.
  • the rotation angle of the eye is the rotation angle of the eyeball in the intraoperative image when the eye is viewed from the front direction, that is, the amount of change of the eyeball position around the eye axis.
  • the rotation angle of the eye is calculated from the positional relationship between the optic nerve head and the fovea or the blood vessel distribution as shown in (1) to (3) below. It is possible to ask.
  • a dent of the optic disc portion and a dent of the fovea portion are obtained by image recognition from the volume data of the tomographic image, and the dent of the optic disc portion and the center are obtained.
  • a line segment connecting the recess of the fovea portion is obtained as a rotation angle detection line. Then, an angle formed by the rotation angle detection line before the operation and the rotation angle detection line during the operation as viewed from the front direction is obtained as the rotation angle of the eyeball.
  • a dent of the optic disc portion and a dent of the fovea portion are obtained from a plurality of tomographic images by image recognition. Then, for example, the position of the optic disc and the fovea viewed from the front direction is estimated from the depth of the depression and the cross-sectional position of each tomographic image, and the rotation angle is determined from the positional relationship between the optic disc and the fovea. A detection line is obtained, and the rotation angle of the eyeball is obtained.
  • the blood vessel distribution is obtained by image recognition from several tomographic images or volume data of the tomographic images, and the blood vessel distribution before and during the operation is compared (matched). Thus, the rotation angle of the eyeball is obtained.
  • a three-dimensional posture of the eyeball that is, a posture in a three-dimensional space
  • the posture of the eye as shown in (1) or (2) of (e) below
  • the corneal range is recognized by the method shown in (a) or (b)
  • the pupil range is recognized by the method shown in (c), and shown in (d).
  • the positional relationship of the eyeball in the three-dimensional space is obtained as the three-dimensional posture of the eyeball from the positional relationship between the cornea range, the pupil range, and the rotation angle detection line before and during the operation.
  • the three-dimensional posture of the eyeball can be obtained based on, for example, the rotational movement amount of the eye in a three-dimensional space.
  • the position of a predetermined part of the eye before the operation that is, the coordinates (x, y, z) in the three-dimensional coordinate system moved to the coordinates (x ', y', z ') during the operation.
  • the three-dimensional posture of the eyeball can be expressed by a matrix indicating the amount of movement (rotation amount). That is, as shown in the following equation (1), the coordinates (x, y, z) can be expressed by a transformation matrix that transforms the coordinates (x ′, y ′, z ′).
  • the target for obtaining the corneal range, pupil range, and eye posture from the tomographic image and volume data by the methods described in (a) to (e) described above is the tomographic image taken during the operation.
  • a tomographic image taken before surgery may be used. In this case, for example, based on a tomographic image taken before surgery, each part of the eye before surgery and a reference eye posture are obtained, and a preoperative plan is made.
  • the direction of the intraocular lens with respect to the patient's eye 241 in the front image taken by the front image acquisition unit 64 before the operation is determined as the intraocular lens direction 242 as indicated by an arrow A41 in FIG.
  • corneal ring portion information corresponding to the corneal ring portion 243 in the patient's eye 241 and intraocular lens direction information corresponding to the intraocular lens direction 242 are presented as guide information.
  • the depression indicated by the arrow B31 in the tomographic image P31 is recognized as the optic nerve head portion, and the depression indicated by the arrow B32 is recognized as the fovea portion.
  • the positional relationship between the optic disc and the fovea in the reconstructed front image P32 reconstructed from the tomographic image P31 or the like is obtained.
  • the portion indicated by the arrow B33 in the reconstructed front image P32 indicates the optic nerve head portion
  • the portion indicated by the arrow B34 indicates the fovea portion.
  • a line segment (straight line) connecting these optic discs and the fovea is obtained as the rotation angle detection line 244.
  • a straight line 245 indicates the direction of the rotation angle detection line.
  • the angle formed by the direction of the rotation angle detection line indicated by the straight line 245 and the direction indicated by the intraocular lens direction 242 is obtained as the angle ⁇ , and 1 of preoperative plan information indicating the preoperative plan is obtained. It is assumed.
  • the above-described operation is performed based on several tomographic images including the tomographic image P41 acquired by the tomographic image acquisition unit 65 during the operation and volume data of the tomographic image.
  • the rotation angle is obtained as the eye posture in the same manner as in the methods shown in (1) of (1) and (2) of (d).
  • the positions of the optic disc and fovea are obtained by image recognition.
  • the indentation indicated by the arrow B41 in the tomographic image P41 is recognized as the optic papilla portion
  • the indentation indicated by the arrow B42 is recognized as the fovea portion.
  • the positional relationship between the optic nerve head and the fovea in the reconstructed front image P42 reconstructed from the tomographic image P41 or the like is obtained.
  • the portion indicated by the arrow B43 in the reconstructed front image P42 indicates the optic disc portion
  • the portion indicated by the arrow B44 indicates the fovea portion.
  • the tomographic image P31 and the tomographic image P41 are acquired in a form that passes through the optic disc and the fovea.
  • a tomographic image including both the optic nerve head and the fovea cannot be acquired, it is based on the position of the indentation in the volume data composed of a plurality of tomographic images, or the indentation position in each of several tomographic images. Based on the degree of indentation, the positions of the optic disc and fovea can be estimated.
  • the angle for presenting the intraocular lens direction information as the guide information is known from the rotation angle of the eyeball, it is superimposed on the optical image of the patient's eye, as shown by the arrow A52, and the corneal limbus information G31 and the intraocular Lens direction information G32 is presented as guide information.
  • the corneal limbus information G31 is specified by the corneal range obtained by image recognition during the operation.
  • the presentation direction of the intraocular lens direction information G32 is obtained from the rotation angle of the eyeball. That is, the intraocular lens direction information is presented in a state rotated by the determined rotation angle with respect to the presentation direction of the intraocular lens direction information determined by the angle ⁇ determined by the preoperative plan. . In other words, the intraocular lens direction information G32 is presented so that the angle formed with the straight line 272 indicating the direction corresponding to the rotation angle detection line 271 is the angle ⁇ obtained in advance.
  • the eye is based on the three-dimensional posture of the eyeball as the eye posture and the preoperative plan.
  • the inner lens direction information may be displayed.
  • linear conversion is appropriately performed on the intraocular lens direction information and presented.
  • the intraocular lens direction information is presented in an appropriate direction, but also the intraocular lens direction information is appropriately deformed according to the three-dimensional posture of the eyeball.
  • wound position information presented as guide information if the center of the eye relative to the corneal limbus, that is, the position and size from the center of the corneal limbus, is obtained as preoperative plan information, the operation is performed.
  • the wound position information can be displayed at the correct position from the previous plan information and the postural eye posture.
  • the anterior capsulotomy position information presented as guide information if the size of the anterior capsulotomy position relative to the limbus is determined as preoperative plan information, the preoperative plan information and the intraoperative corneal range Based on the recognition result, the anterior capsulotomy position information can be presented at an appropriate position.
  • FIG. 14 shows a configuration example of the surgery system 11 that realizes such a function.
  • portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the surgery system 11 includes an image information acquisition unit 301, an image processing device 302, and a guide information presentation unit 303.
  • the image information acquisition unit 301 acquires a tomographic image and a front image and supplies them to the image processing apparatus 302. Note that the image information acquisition unit 301 only needs to acquire at least a tomographic image, and may acquire a front image as necessary.
  • the image processing apparatus 302 obtains the posture of the patient's eye based on the tomographic image supplied from the image information acquisition unit 301, generates guide information, and supplies the guide information to the guide information presentation unit 303. At this time, the image processing apparatus 302 may superimpose guide information on the front image and supply it to the guide information presenting unit 303.
  • the guide information presentation unit 303 presents guide information supplied from the image processing apparatus 302.
  • the guide information presentation unit 303 includes, for example, the presentation unit 63 and the monitor 33 shown in FIG.
  • the image processing apparatus 302 is realized by, for example, the control unit 66 and the interface unit 67 shown in FIG.
  • the image processing apparatus 302 includes an image recognition unit 311, a control unit 312, an interface unit 67, and a guide information generation unit 313.
  • the image recognition unit 311, the control unit 312, and the guide information generation unit 313 are realized by the control unit 66 illustrated in FIG. 2 executing a program.
  • the image recognition unit 311 performs image recognition on the tomographic image and the front image supplied from the image information acquisition unit 301, and performs the corner position, the boundary position between the cornea and the sclera, the end position of the iris, the optic papilla, Each part of the eye such as the fovea is recognized, and the recognition result is supplied to the control unit 312.
  • the interface unit 67 acquires a preoperative tomographic image, a frontal image, preoperative plan information, an input instruction from the operator, and the like, and supplies them to the control unit 312.
  • the control unit 312 controls each unit of the image processing apparatus 302. For example, the control unit 312 determines each part of the cornea range based on the recognition result of each part of the eye supplied from the image recognition unit 311 and the preoperative tomographic image and preoperative plan information supplied from the interface unit 67. It recognizes the range of the part and the posture of the eye, and instructs the guide information generation unit 313 to generate guide information.
  • the guide information generation unit 313 generates guide information according to an instruction from the control unit 312 using the front image supplied from the image information acquisition unit 301 as necessary, and supplies the guide information to the guide information presentation unit 303.
  • the guide information may be information that presents only the guide so as to be superimposed on the optical image of the patient's eye, or may be image information that is superimposed and displayed on the front image.
  • the guide information generation unit 313 When the guide information is superimposed and displayed on the front image, the guide information generation unit 313 generates a front image on which the guide information is superimposed and outputs it to the guide information presentation unit 303.
  • the image information acquisition unit 301 acquires a front image and a tomographic image
  • the image information acquisition unit 301 has a configuration shown in FIG. 15, for example.
  • parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the 15 includes a front image acquisition unit 64 and a tomographic image acquisition unit 65.
  • the front image acquisition unit 64 captures a front image and supplies it to the image recognition unit 311 and the guide information generation unit 313, and the tomographic image acquisition unit 65 captures a tomographic image and supplies it to the image recognition unit 311. .
  • the image information acquisition unit 301 may be configured as shown in FIG. In FIG. 16, the same reference numerals are given to portions corresponding to those in FIG. 2, and description thereof will be omitted as appropriate.
  • the image information acquisition unit 301 shown in FIG. 16 includes a tomographic image acquisition unit 65.
  • the tomographic image acquisition unit 65 captures a tomographic image and supplies it to the image recognition unit 311, and the image information acquisition unit 301 does not capture a front image.
  • the interface unit 67 acquires a preoperative image that is a preoperative tomographic image and preoperative plan information in advance and supplies the preoperative image to the control unit 312.
  • the surgery system 11 performs guide information presentation processing in each of the wound creation mode, the anterior capsulotomy mode, and the intraocular lens insertion mode, and presents guide information.
  • the wound creation mode is a mode for presenting wound position information as a guide when the surgeon creates the wound
  • the anterior capsulotomy mode is a guide when the surgeon incises the anterior capsule
  • This is a mode for presenting anterior capsulotomy position information.
  • the intraocular lens insertion mode is a mode in which intraocular lens direction information is presented as a guide when the operator inserts the intraocular lens into the crystalline lens.
  • the surgery system 11 performs guide information presentation processing in each mode while appropriately switching modes. Specifically, guide information presentation processing is first performed in the wound creation mode, guide information presentation processing is performed in the anterior capsulotomy mode, and guide information presentation processing is further performed in the intraocular lens insertion mode.
  • the mode switching may be performed by an operator or the like operating the interface unit 67, or may be performed by the surgery system 11 based on a front image or the like.
  • step S11 the image information acquisition unit 301 acquires image information. That is, the tomographic image acquisition unit 65 of the image information acquisition unit 301 captures an intraoperative image, which is an intraoperative tomographic image, at each cross-sectional position and supplies it to the image recognition unit 311.
  • step S12 the image recognition unit 311 performs image recognition on the volume data including the intraoperative image supplied from the tomographic image acquisition unit 65 or the tomographic image as the intraoperative image, and recognizes the position of each part of the eye. Then, the recognition result is supplied to the control unit 312.
  • step S12 the position of each part such as a corner position in a tomographic image or volume data as an intraoperative image, a boundary position between the cornea and sclera, an iris end point position, an optic disc position, a foveal position, and the like are recognized. Is done.
  • step S13 the control unit 312 determines the posture of the patient's eye based on the recognition result supplied from the image recognition unit 311 and the preoperative image supplied from the interface unit 67. For example, the control unit 312 appropriately obtains the cornea range and the pupil range of the eye by the method described in (a) to (c) above, and further performs the eye detection by the method described in (d) and (e) above. Ask for attitude.
  • the corneal range, the pupil range, the optic disc, the fovea, and the rotation angle are detected in advance by image recognition on the tomographic image taken before the operation as the preoperative image.
  • the position of the line, sclera, retina, etc. and the blood vessel distribution are required.
  • the eye part and posture before the operation as a reference are in a state of being obtained.
  • step S14 the control unit 312 determines guide information to be presented according to the current mode. For example, in this example, since it is the wound creation mode, the corneal limbus information and the wound position information are determined as guide information to be presented.
  • control unit 312 supplies various information necessary for generating the guide information to the guide information generating unit 313 and instructs the generation of the guide information.
  • control unit 312 supplies information indicating the corneal range obtained from the image recognition result supplied from the image recognition unit 311 to the guide information generation unit 313, and generates corneal limbal information as guide information. Instruct.
  • control unit 312 determines the posture of the eye obtained in the process of step S13, the position and range of each part of the eye such as the cornea range, and the wound position information as preoperative plan information supplied from the interface unit 67. Based on the information indicating the presenting position, the position where the wound position information should be presented at the current time is obtained. At this time, the control unit 312 may perform linear conversion in accordance with the posture of the eyeball to change the shape of the wound position information.
  • the control unit 312 supplies the guide information generating unit 313 with information indicating the position where the mouth position information should be presented, thus obtained, and instructs the generation of the mouth position information as guide information.
  • step S15 the guide information generation unit 313 generates guide information according to an instruction from the control unit 312 and supplies the guide information to the guide information presentation unit 303.
  • the guide information generation unit 313 generates corneal limbus information and wound position information based on the information supplied from the control unit 312.
  • step S16 the presentation unit 63 of the guide information presentation unit 303 presents the guide information supplied from the guide information generation unit 313. Thereby, for example, the corneal limbus information G11 and the wound position information G12 shown in FIG. 7 are presented superimposed on the optical image of the patient's eye.
  • the monitor 33 may display the corneal limbus information and the wound position information superimposed on the front image.
  • the guide information generation unit 313 superimposes the generated corneal limbal information and the wound position information on the front image supplied from the front image acquisition unit 64 of the image information acquisition unit 301, and guide information This is supplied to the monitor 33 as the presentation unit 303.
  • step S17 the control unit 312 determines whether to end the process. For example, when an instruction to end the presentation of guide information is given, such as when an instruction to switch from the current mode to the next mode is given, it is determined that the process is to be ended.
  • step S17 If it is determined in step S17 that the process is not yet finished, the process returns to step S11, and the above-described process is repeated.
  • step S17 if it is determined in step S17 that the process is to be terminated, the guide information presentation process is terminated.
  • the surgical operation system 11 recognizes each part of the eye based on the tomographic image of the patient's eye, and obtains the posture of the eye based on the recognition result. Then, the surgery system 11 generates and presents guide information based on the obtained eye posture.
  • the eye posture can be obtained more firmly and with high accuracy.
  • guide information can be presented with higher accuracy.
  • the guide information presentation processing in the wound creation mode has been described in detail, but the description is given with reference to FIG. 17 even in the anterior capsulotomy mode and in the intraocular lens insertion mode. The same processing as the guide information presentation processing is performed.
  • control unit 312 supplies information indicating the corneal range to the guide information generation unit 313, and corneal limbal information as guide information. Instruct the generation of.
  • control unit 312 is based on the corneal limb determined from the corneal range at the current time, and information indicating the size of the anterior capsulotomy position with respect to the corneal limb as the preoperative plan information supplied from the interface unit 67. The position where the anterior capsulotomy position information should be presented at the current time is obtained. At this time, the control unit 312 may perform linear conversion in accordance with the posture of the eyeball to change the shape of the anterior capsulotomy position information.
  • the control unit 312 supplies the guide information generation unit 313 with information indicating the position where the anterior capsulotomy position information should be presented, and instructs the generation of anterior capsulotomy position information as guide information. .
  • the guide information generation unit 313 generates corneal ring portion information and anterior capsulotomy position information as guide information in accordance with instructions from the control unit 312.
  • control unit 312 supplies information indicating the corneal range to the guide information generation unit 313 in step S14 as in the wound creation mode, and the corneal ring as the guide information Instructs generation of copy information.
  • control unit 312 determines the direction of the intraocular lens at the current time based on the rotation angle obtained as the eye posture in the process of step S13 and the angle ⁇ as preoperative plan information supplied from the interface unit 67. Find the direction in which information should be presented. At this time, the control unit 312 may perform linear conversion in accordance with the posture of the eyeball to change the shape of the intraocular lens direction information.
  • the control unit 312 supplies information indicating the direction in which intraocular lens direction information should be presented to the guide information generation unit 313 and instructs generation of intraocular lens direction information as guide information.
  • the guide information generation unit 313 generates corneal limbus information and intraocular lens direction information as guide information in accordance with instructions from the control unit 312.
  • FIG. 19 shows a cross-sectional view of the portion of the dotted line PL11 in the eye of the patient shown in FIG.
  • the surgeon performs an operation by inserting a surgical tool 342 into the lens from the cornea 341 of the patient's eye. Therefore, when a tomographic image is taken in such a state, a portion on the depth side in the drawing of the surgical instrument 342 becomes a shadow.
  • the lower part in the drawing of the surgical instrument 342 becomes a shadow, and the area corresponding to that part in the tomographic image becomes dark or unclear, so that useful information is obtained. It can no longer be obtained. In other words, it is difficult to recognize each part of the patient's eye at the shadowed portion of the surgical instrument 342.
  • the configuration of the image information acquisition unit 301 is the configuration illustrated in FIG. 15, and the front image captured by the front image acquisition unit 64 is supplied to the image recognition unit 311. That is, in the process of step S11 described with reference to FIG. 17, a front image is also acquired.
  • step S12 first, the image recognition unit 311 performs image recognition on the front image.
  • image recognition for a front image an area other than the patient's eye, for example, a surgical instrument area, is recognized from the front image by image recognition using a dictionary or the like registered in advance. Then, based on the recognition result, a region to be a shadow of the surgical tool in the tomographic image is specified.
  • the surgical tool region in the tomographic image can be identified from the recognition result of the surgical tool region in the front image, it is viewed from the depth side in the front direction from the surgical tool region in the tomographic image, that is, from the cornea.
  • a region on the fovea side is specified as a region that becomes a shadow of the surgical instrument. It should be noted that the processing for specifying the region that becomes the shadow of the surgical tool in the tomographic image may be performed by the image recognition unit 311 or the control unit 312.
  • the image recognizing unit 311 excludes a region that is a shadow of the surgical tool in the tomographic image, and recognizes the position of each part of the eye by image recognition based on the tomographic image and volume data obtained from the tomographic image. .
  • the shadow area of the surgical instrument in the tomographic image is estimated from the recognition result of the surgical instrument area in the front image, but information obtained regarding the surgical instrument in the tomographic image, for example, the position of strong reflection by the surgical instrument A method of estimating from only the tomographic image using the above information may be used.
  • the posture of the eye can be determined more firmly and with high accuracy.
  • ⁇ Third Embodiment> ⁇ Acquisition of tomographic images> If the front image is used, the position of the cornea or pupil can be roughly specified by image recognition. Therefore, when the configuration of the image information acquisition unit 301 is the configuration illustrated in FIG. 15, the cross-sectional position from which the tomographic image is acquired may be determined based on the front image.
  • the fovea and the optic disc are located near the center of the pupil, that is, near the eye axis when the eye is viewed from the front. Therefore, when recognizing the position of the optic nerve head and fovea from tomographic images and volume data, and using the recognition result to determine the posture of the eye, an appropriate cross-sectional position is identified from the front image, and the tomography is determined according to the identification result. If the image is acquired, the eye posture can be obtained more efficiently.
  • the front image P61 is acquired by the front image acquisition unit 64 constituting the image information acquisition unit 301 as shown in FIG.
  • the range of the cornea 371 and the pupil 372 can be estimated from the front image P61 by image recognition. Further, if a tomographic image is acquired at a cross-sectional position including a straight line PL31 passing through the vicinity of the center of the cornea 371 and the pupil 372, the tomographic image is likely to contain a fovea and an optic disc. On the other hand, even if a tomographic image is acquired at a cross-sectional position including a straight line PL32 that passes near the ends of the cornea 371 and the pupil 372, the tomographic image is unlikely to contain a fovea and an optic disc.
  • the range of the cornea 371 and the pupil 372 is estimated from the front image P61, and a tomographic image is acquired at one or a plurality of appropriate cross-sectional positions such as a cross-sectional position including the straight line PL31 using the estimation result, and includes the straight line PL32. What is necessary is just to make it not acquire a tomographic image in a cross-sectional position.
  • step S11 of the guide information presentation process described with reference to FIG. 17 an intraoperative front image is first acquired by the front image acquisition unit 64 configuring the image information acquisition unit 301, and the image recognition unit 311. To be supplied.
  • the image recognition unit 311 performs image recognition on the front image supplied from the front image acquisition unit 64, recognizes each part of the eye such as the cornea range and the pupil range, and the recognition result is indicated by the control unit 312. To supply.
  • control unit 312 determines the cross-sectional position for acquiring the tomographic image based on the recognition result of each part such as the cornea range and the pupil range in the front image supplied from the image recognition unit 311, and according to the determination
  • the tomographic image acquisition unit 65 of the image information acquisition unit 301 is controlled.
  • the cross-sectional position including the straight line PL31 shown in FIG. 20 and several cross-sectional positions near the cross-sectional position are determined as the cross-sectional positions from which tomographic images are to be acquired.
  • the control unit 312 controls the tomographic image acquisition unit 65 in this way, the control unit 312 functions as an acquisition control unit.
  • the tomographic image acquisition unit 65 acquires a tomographic image at one or a plurality of cross-sectional positions designated by the control unit 312 under the control of the control unit 312, and supplies the tomographic image to the image recognition unit 311.
  • ⁇ Fourth embodiment> ⁇ Improving the accuracy of image recognition using front images> Furthermore, when the configuration of the image information acquisition unit 301 is the configuration shown in FIG. 15, the rough cornea and pupil positions can be identified by image recognition from the front image taken during the operation. Therefore, the detection result of each part of the eye from the tomographic image is determined using the identification result, and the position of each part of the eye is detected (recognized) from the tomographic image by image recognition targeting the detection range. Also good.
  • FIG. 21 it is assumed that a front image P61 and a tomographic image P71 are taken during the operation.
  • parts corresponding to those in FIG. 20 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the front image P61 shows a front image acquired by the front image acquisition unit 64 during the operation, and the tomographic image P71 is taken by the tomographic image acquisition unit 65 at the same time or substantially the same time as the front image P61. A tomographic image is shown.
  • the image recognition unit 311 performs image recognition for recognizing a corner position from the tomographic image P71.
  • the image recognition unit 311 first performs image recognition on the front image P61 and recognizes the cornea 371 from the front image P61.
  • the image recognizing unit 311 then detects the detection range ST11 and the detection range ST12, which are regions having a predetermined width including the position corresponding to the end portion of the cornea 371, in the tomographic image P71. Determine as a range. This is because the corner is located near the end portion of the cornea.
  • the image recognizing unit 311 recognizes the corner position by image recognition from the tomographic image P71 with only the detection range ST11 and the detection range ST12 determined in this way as the processing target.
  • the control unit 312 recognizes the cornea range based on the recognition result of the corner position from the tomographic image P71 or the like.
  • step S12 the image recognition unit 311 performs image recognition on the front image supplied from the front image acquisition unit 64, recognizes each part of the eye, and recognizes a tomographic image based on the recognition result.
  • a detection range is determined for each target eye region.
  • the image recognition unit 311 performs image recognition on the tomographic image supplied from the tomographic image acquisition unit 65 only for the region of the determined detection range, and the position of each part of the eye on the tomographic image. Recognize
  • the eye part to be recognized in the image recognition is the tomographic image. It may be the same as or different from the part of the eye to be recognized.
  • the position of each part of the eye on the tomographic image is determined. Recognition accuracy can be improved.
  • a detection range is determined for the volume data obtained from the tomographic image based on the front image, and the detection range of the volume data is determined.
  • the position of each part of the eye may be recognized.
  • ⁇ Fifth embodiment> ⁇ Improving the accuracy of image recognition using front images>
  • the blood vessels and irises of the eye that are included as subjects in the front image can accurately recognize the positions of the blood vessels and iris in the front image. This information is useful for accurately grasping.
  • the eye posture may be obtained with higher accuracy using both the tomographic image and the front image.
  • the configuration of the image information acquisition unit 301 is the configuration illustrated in FIG. 15, based on the tomographic image, the eye posture is grasped with rough accuracy, and further, based on the front image, A final, more accurate eye posture may be obtained.
  • a rotation angle is obtained as an eye posture.
  • the rotation angle indicating the posture of the eye is first obtained from the tomographic image obtained before the operation and the tomographic image obtained during the operation.
  • the rotation angle ⁇ 1 is obtained as shown by an arrow A71 in FIG.
  • the rotation angle ⁇ 1 obtained as the coarse detection is the rotation in the reconstructed front image P91 reconstructed from the preoperative tomographic images obtained based on the preoperative and intraoperative tomographic images.
  • the rotation angle of the rotation angle detection line in the reconstructed front image P92 reconstructed from the intraoperative tomographic image with respect to the angle detection line is shown.
  • the rotation angle detection range ST21 using the front image is determined based on the rotation angle ⁇ 1 as indicated by the arrow A72. That is, the detection range of the rotation angle using the front image is limited to the range of eye postures that are considered to be appropriate, which are determined from the eye postures calculated based on the tomographic images. Specifically, for example, a predetermined angle range centered on the rotation angle ⁇ 1 is determined as the detection range ST21.
  • each part of the eye such as blood vessels and irises recognized by image recognition from the front image is used. That is, the positional relationship between each part of the eyes is obtained by matching, and the rotation angle ⁇ 2 is obtained from the obtained positional relationship.
  • the front image P93 is rotated within the detection range ST21, and the rotation of the front image P93 when each part of the eye on the front image P93 and each part of the eye on the front image P94 obtained during the operation overlap.
  • the angle is the rotation angle ⁇ 2 .
  • the rotation angle as the eye posture can be obtained with higher accuracy. Can be sought. As a result, the guide information can be presented more firmly and with high accuracy.
  • the surgical operation system 11 uses the interface unit 67 in advance before the operation before the guide information presentation process described with reference to FIG. 17 is started.
  • the tomographic image and the front image and preoperative plan information are acquired and supplied to the control unit 312.
  • step S11 the front image acquisition unit 64 and the tomographic image acquisition unit 65 of the image information acquisition unit 301 acquire the front image and the tomographic image during the operation and supply them to the image recognition unit 311.
  • step S12 the image recognition unit 311 performs image recognition on the intraoperative front image supplied from the front image acquisition unit 64, recognizes each part such as a blood vessel and an iris, and acquires a tomographic image. Image recognition is performed on the tomographic image supplied from the unit 65 to recognize the position of each part of the eye. Then, the image recognition unit 311 supplies the recognition result of each part from the front image and the recognition result of each part from the tomographic image to the control unit 312.
  • step S13 the control unit 312 determines the eye of the patient based on the recognition result of each part from the tomographic image supplied from the image recognition unit 311 and the preoperative tomographic image supplied from the interface unit 67.
  • the rotation angle is obtained as the posture.
  • the control unit 312 determines a detection range at the time of detecting the rotation angle using the front image from the calculated rotation angle.
  • the control unit 312 Based on the recognition result of each part from the front image supplied from the image recognition unit 311 and the preoperative front image supplied from the interface unit 67 within the determined detection range, the control unit 312 The rotation angle is determined as the final patient eye posture.
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 23 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in a removable recording medium 511 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in the ROM 502 or the recording unit 508 in advance.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • a tomographic image acquisition unit that acquires a tomographic image that is an image of a cross section in a direction substantially parallel to the axial direction of the eye that is an operation target;
  • An image recognition unit for recognizing a predetermined part of the eye in the tomographic image based on the tomographic image;
  • a surgery system comprising: a posture calculation unit that calculates the posture of the eye based on the recognition result of the predetermined part.
  • the surgical operation system according to (1) further comprising a front image acquisition unit that captures the eye that is the surgical target from a substantially axial direction.
  • the posture calculation unit calculates the posture of the eye based on a recognition result of the predetermined part and a front image obtained by the front image acquisition unit.
  • An image recognition unit for recognizing a predetermined part of the eye in the tomographic image based on a tomographic image that is a cross-sectional image in a direction substantially parallel to the axial direction of the eye that is an operation target;
  • An image processing apparatus comprising: an attitude calculation unit that calculates an attitude of the eye based on a recognition result of the predetermined part.
  • the posture calculation unit calculates a rotation angle of the eye with the eye axis as a rotation axis as the eye posture.
  • the posture calculation unit calculates a three-dimensional posture of the eye.
  • the image processing apparatus calculates a three-dimensional posture of the eye based on an amount of rotation of the eye.
  • the posture calculation unit calculates the posture of the eye based on a positional relationship between the optic disc and the fovea recognized as the predetermined part.
  • the image recognition unit recognizes a predetermined part of the eye based on the tomographic image before or during the operation of the eye.
  • the image recognizing unit recognizes a specific part of the eye in the front image based on a front image obtained by photographing the eye from the direction of the eye axis.
  • the image processing apparatus according to any one of (4) to (9), wherein the predetermined part in the tomographic image is recognized with respect to an area on the tomographic image determined by the recognition result of the specific part.
  • the posture calculation unit based on a calculation result of the posture of the eye based on the recognition result of the predetermined part and a front image obtained by photographing the eye from the substantially axial direction, the final eye
  • the image processing apparatus according to any one of (4) to (9).
  • the posture calculation unit calculates the final eye posture based on the front image within a posture range determined by the calculation result of the eye posture based on the recognition result of the predetermined part.
  • the image recognizing unit recognizes a specific part of the eye in the front image based on a front image obtained by photographing the eye from the direction of the eye axis.
  • the image processing apparatus according to any one of (4) to (9), further including an acquisition control unit configured to acquire the tomographic image at a cross-sectional position determined by the recognition result of the specific part.
  • the image recognizing unit recognizes a surgical tool on the front image based on a front image obtained by photographing the eye substantially from the eye axis direction during the surgery of the eye, and the recognition result of the surgical tool
  • the image processing apparatus according to any one of (4) to (9), wherein the predetermined part is recognized by excluding a region on the tomographic image determined by (4).
  • the image processing device according to any one of (4) to (9), wherein the image recognition unit recognizes the predetermined portion in volume data obtained from a plurality of the tomographic images having different cross-sectional positions.
  • the image processing apparatus according to any one of (4) to (15), further including a guide information generation unit configured to generate guide information serving as a guide for the eye operation based on the posture of the eye.
  • the tomographic image is an image taken by an optical coherence tomography.
  • An image processing method including a step of calculating the posture of the eye based on a recognition result of the predetermined part.
  • 11 surgical system 21 surgical microscope, 33 monitor, 63 presentation unit, 64 front image acquisition unit, 65 tomographic image acquisition unit, 66 control unit, 67 interface unit, 301 image information acquisition unit, 302 image processing device, 303 guide information presentation Part, 311 image recognition part, 312 control part, 313 guide information generation part

Abstract

本技術は、より堅強かつ高精度に眼の姿勢を求めることができるようにする手術システム、並びに画像処理装置および方法に関する。 画像情報取得部は、患者の眼における眼軸方向と略平行な方向の断面の画像である断層画像を取得する。画像認識部は、断層画像に基づいて画像認識により断層画像上の眼の各部位を認識する。制御部は、眼の各部位の認識結果に基づいて、眼の姿勢を算出する。このように、断層画像に基づいて眼の各部位を認識し、その認識結果に基づいて眼の姿勢を算出することで、より堅強かつ高精度に眼の姿勢を求めることができる。本技術は、手術システムに適用することができる。

Description

手術システム、並びに画像処理装置および方法
 本技術は手術システム、並びに画像処理装置および方法に関し、特に、より堅強かつ高精度に眼の姿勢を求めることができるようにした手術システム、並びに画像処理装置および方法に関する。
 従来、患者の眼を対象として手術を行うときに、術中の眼の光学像や画像に重畳させて、患者の眼の角膜範囲や、眼に挿入する眼内レンズの向きなど、術者のガイドとなるガイド情報を提示する技術が提案されている(例えば、特許文献1参照)。
 このようなガイド情報を提示するには、例えば術中の各時刻における眼の姿勢を特定する方法があり、眼の姿勢の特定には、例えば患者の眼を正面から撮影して得られた正面画像を用いる方法がある。
 具体的には、例えば術前と術中とで正面画像から角膜範囲や瞳孔範囲を認識し、それらの認識結果に基づいて、術前と術中の眼の位置の変化を把握するとともに、正面画像における血管や虹彩の対応関係を認識することで、眼の眼軸回りの回旋角度を眼の姿勢として検出する方法がある。また、このようにして検出された回旋角度等に基づいて、術前に計画された創口作成位置や前嚢切開位置、眼内レンズ向きなどをガイド情報として提示する方法がある。
特開2012-152469号公報
 しかしながら、上述した技術では、堅強かつ高精度に眼の姿勢を求めることが困難となり、提示されるガイド情報が術前計画と大きくずれてしまう場合があった。
 例えば、患者個人の特徴として正面画像から血管が検出しづらい場合や、正面画像の撮影条件によって血管や虹彩の視認性が低い場合、照明の鏡面反射等により画像に白飛びが生じてしまう場合などには、正面画像から眼の回旋角度を推定することが困難となる。また、患者の眼から出血がある場合や、照明が暗く正面画像のコントラストが低い場合などにおいても眼の回旋角度の推定が困難となる。
 さらに、正面画像から眼の3次元的な姿勢を推定することもできるが、高い精度で眼の姿勢を推定できないこともあり、結果としてガイド情報の提示位置にもずれが生じてしまう場合があった。
 本技術は、このような状況に鑑みてなされたものであり、より堅強かつ高精度に眼の姿勢を求めることができるようにするものである。
 本技術の第1の側面の手術システムは、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部とを備える。
 手術システムには、前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに設けることができる。
 前記姿勢算出部には、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出させることができる。
 本技術の第1の側面においては、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像が取得され、前記断層画像に基づいて、前記断層画像における前記眼の所定部位が認識され、前記所定部位の認識結果に基づいて、前記眼の姿勢が算出される。
 本技術の第2の側面の画像処理装置は、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部とを備える。
 前記姿勢算出部には、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出させることができる。
 前記姿勢算出部には、前記眼の3次元の姿勢を算出させることができる。
 前記姿勢算出部には、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出させることができる。
 前記姿勢算出部には、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出させることができる。
 前記画像認識部には、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識させることができる。
 前記画像認識部には、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識させ、前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識させることができる。
 前記姿勢算出部には、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出させることができる。
 前記姿勢算出部には、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出させることができる。
 前記画像認識部には、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識させ、画像処理装置には、前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに設けることができる。
 前記画像認識部には、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識させ、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識させることができる。
 前記画像認識部には、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識させることができる。
 画像処理装置には、前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに設けることができる。
 前記断層画像を、光干渉断層計により撮影された画像とすることができる。
 本技術の第2の側面の画像処理方法は、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、前記所定部位の認識結果に基づいて、前記眼の姿勢を算出するステップを含む。
 本技術の第2の側面においては、手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位が認識され、前記所定部位の認識結果に基づいて、前記眼の姿勢が算出される。
 本技術の第1の側面および第2の側面によれば、より堅強かつ高精度に眼の姿勢を求めることができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
手術システムの構成例を示す図である。 手術顕微鏡の構成例を示す図である。 白内障手術について説明する図である。 術前計画について説明する図である。 術前計画について説明する図である。 術前計画について説明する図である。 ガイド情報の提示について説明する図である。 ガイド情報の提示について説明する図である。 ガイド情報の提示について説明する図である。 断層画像について説明する図である。 断層画像のボリュームデータについて説明する図である。 術前計画について説明する図である。 ガイド情報の提示について説明する図である。 手術システムの構成例を示す図である。 画像情報取得部の構成例を示す図である。 画像情報取得部の構成例を示す図である。 ガイド情報提示処理を説明するフローチャートである。 術具の画像認識への影響について説明する図である。 術具の画像認識への影響について説明する図である。 断層画像を取得する断面位置について説明する図である。 正面画像と断層画像を用いた画像認識について説明する図である。 正面画像と断層画像を用いた画像認識について説明する図である。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈手術システムの構成例〉
 本技術は、手術対象となる患者の眼の断層画像を用いて眼の各部位を認識することで、より堅強かつ高精度に眼(眼球)の姿勢を求めることができるようにするものである。
 図1は、本技術を適用した手術システムの一実施の形態の構成例を示す図である。
 図1に示す手術システム11は、手術顕微鏡21および患者用ベッド22を有しており、患者は患者用ベッド22に横たわった状態で眼の手術を受ける。また、術者である医師は、手術顕微鏡21により患者の眼を観察しながら手術を行う。
 すなわち、手術顕微鏡21は、手術対象となる患者の眼を拡大観察するための対物レンズ31や接眼レンズ32、モニタ33などを有している。この例では、医師は接眼レンズ32を覗き、対物レンズ31を介して患者の眼を観察しながら手術を行う。また、図示せぬカメラにより撮影された正面画像がモニタ33に表示されるようになっている。
 このとき、必要に応じて接眼レンズ32から観察される患者の眼の光学像にガイド情報が重畳表示されたり、モニタ33に表示される正面画像にガイド情報が重畳表示されたりする。
 また、手術顕微鏡21の機能的な構成は、例えば図2に示すような構成とされる。なお、図2において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図2に示す手術顕微鏡21は、光源61、観察光学系62、提示部63、接眼レンズ32、正面画像取得部64、断層画像取得部65、制御部66、インターフェース部67、およびモニタ33を有している。
 光源61は、制御部66の制御に従って照明光を射出し、患者の眼を照明する。また、観察光学系62は、例えば対物レンズ31やハーフミラー71、図示せぬレンズなどの光学素子から構成され、患者の眼から入射した光(観察光)を接眼レンズ32および正面画像取得部64へと導く。
 すなわち、患者の眼から入射した観察光は、対物レンズ31や図示せぬレンズ等を介してハーフミラー71に入射する。ハーフミラー71に入射した観察光のうちの略半分は、ハーフミラー71をそのまま透過し、透過型の提示部63を介して接眼レンズ32へと入射する。一方、ハーフミラー71に入射した観察光の残りの半分は、ハーフミラー71で反射して正面画像取得部64へと入射する。
 接眼レンズ32は、提示部63を介して観察光学系62から入射した観察光を集光して、患者の眼の光学像を結像させる。これにより、接眼レンズ32を覗いている術者には、患者の眼の光学像が観察される。
 正面画像取得部64は、例えばビデオカメラなどからなり、観察光学系62から入射した観察光を受光して光電変換することで、患者の眼を正面から観察した画像、つまり患者の眼を略眼軸方向から撮影した画像である正面画像を撮影する。正面画像取得部64は、制御部66の制御に従って正面画像を撮影し、得られた正面画像を制御部66に供給する。
 断層画像取得部65は、例えば光干渉断層計(OCT(Optical Coherence Tomography))やシャインプルークカメラなどからなる。断層画像取得部65は、制御部66の制御に従って患者の眼の断面の画像である断層画像を撮影し、得られた断層画像を制御部66に供給する。ここで、断層画像とは、患者の眼における眼軸方向と略平行な方向の断面の画像である。
 なお、断層画像取得部65は、例えば赤外光を用いて干渉原理により断層画像を取得するが、その際の赤外光の光路と、観察光学系62内の観察光の光路の一部とが共通の光路となるようにしてもよい。
 制御部66は、手術顕微鏡21全体の動作を制御する。提示部63は、透過型の表示デバイスからなり、接眼レンズ32と観察光学系62との間に配置されている。提示部63は、観察光学系62から入射した観察光を透過させて接眼レンズ32に入射させるとともに、制御部66から供給されたガイド情報を提示(表示)する。これにより、接眼レンズ32を覗いている術者に対して、患者の眼の光学像に重畳されてガイド情報が提示されることになる。
 インターフェース部67は、例えばモニタ33に重畳して設けられたタッチパネルや、コントローラ、図示せぬリモートコントローラからの指令を受信したり、外部装置との通信を行ったりする通信部などからなり、術者等の操作に応じた情報などを制御部66に供給する。すなわち、インターフェース部67は、操作に応じた情報や画像を取得して制御部66に供給する。
 モニタ33は、制御部66の制御に応じて正面画像を表示する。また、モニタ33において、正面画像にガイド情報が重畳表示されるようにしてもよい。
 例えば患者の手術時には、まず制御部66は、インターフェース部67から、ガイドとして提示すべきガイド情報を示す情報や、ガイド情報の提示位置を示す情報などからなる術前計画情報と、術前の正面画像や断層画像である術前画像とを取得する。
 そして、制御部66は光源61を制御して照明光を射出させる。これにより、患者の眼が照明されて、術者は接眼レンズ32から患者の眼を観察できるようになる。
 また、制御部66は、正面画像取得部64を制御して正面画像を撮影させ、得られた正面画像をモニタ33に供給し、表示させる。さらに、制御部66は、断層画像取得部65を制御して術中の断層画像を術中画像として撮影させるとともに、得られた術中画像と、術前画像としての断層画像とから眼の姿勢を推定により求める。
 制御部66は、求められた眼の姿勢と、予め取得した術前計画情報とからガイド情報を生成するとともに、ガイド情報を提示部63やモニタ33に供給して提示(表示)させる。これにより、術者は、手術対象である患者の眼の光学像に重畳表示されたガイド情報を参照しながら、効率よく手術を行うことができる。また、モニタ33では、正面画像に重畳されてガイド情報が表示されることになる。
 なお、ここでは断層画像に基づいて眼の姿勢を求める例について説明したが、断層画像と正面画像を用いて眼の姿勢を求めるようにしてもよい。
〈ガイド情報について〉
 続いて、ガイド情報の具体例について説明する。
 本技術は、例えば患者の眼を手術する場合に適用することができるが、以下では例として患者の白内障手術を行う場合について説明する。
 白内障手術では、図3の矢印A11に示すように、まず患者の眼球101の角膜102部分がナイフにより切開され、創口103が作成される。そして、創口103部分から術具が挿入されて眼球101内部にある水晶体104の前方部分、つまり前嚢部分が円形状に切開される。
 そして、矢印A12に示すように創口103から水晶体104の前嚢切開部分に術具が挿入されて、核処理と呼ばれる超音波振動による水晶体104の核の乳化(粉砕)と吸引が行われ、さらに皮質も吸引される。その後、矢印A13に示すように水晶体104内部に眼内レンズ105が挿入されて手術終了となる。
 このような白内障手術が行われる場合、術前に撮影された正面画像から、図4乃至図6に示す術前計画が立てられる。なお、図4乃至図6において、互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 まず術前計画では、例えば図4に示すように正面画像上の患者の眼131における角膜部分、具体的には角膜輪部132の付近およびその内側で、創口を作成する位置が決定される。この例では、瞳孔133の図中、右下の部分が創口作成位置134とされている。
 続いて、例えば図5に示すように、正面画像上の患者の眼131における角膜輪部132の内側部分の円形状の領域が前嚢切開位置141として決定される。例えば前嚢切開位置141として示される円の半径は、眼内レンズの大きさなどに基づいて定められる。
 さらに、図6に示すように、眼内レンズを配置するときの正面画像上の患者の眼131に対する眼内レンズの方向が眼内レンズ向き151として決定される。この例では、眼内レンズ向き151は直線により表されている。
 例えば眼内レンズ向き151は、患者の眼の角膜屈折などの眼の各部の屈折情報や、創口作成位置など、各種の情報に基づいて決定される。
 このようにして創口作成位置、前嚢切開位置、および眼内レンズ向きが術前計画で定められると、手術中には、それらの術前計画に従って、例えば図7乃至図9に示すようにガイド情報が提示される。なお、図7乃至図9において、互いに対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 白内障手術時には、術者が接眼レンズ32を覗くと、図7に示すように患者の眼の光学像が観察される。そして、その患者の眼の光学像に重畳されて、角膜輪部、つまり角膜と強膜の境界を示す角膜輪部情報G11と、創口作成位置を示す創口位置情報G12とがガイド情報として提示部63に提示(表示)される。術者は、創口位置情報G12が表示されている部分をナイフにより切開し、創口を作成する。
 このときガイド情報として提示される角膜輪部情報G11および創口位置情報G12は、図4に示した角膜輪部132および創口作成位置134に対応し、それらの角膜輪部132および創口作成位置134と同じ位置に提示される。すなわち、常に患者の眼の光学像における特定部分にガイド情報が提示されるように、眼の動きに合わせてガイド情報の提示位置が調整される。
 さらに手術が進められ、図8に示すように患者の眼の光学像に重畳されて角膜輪部情報G11と、前嚢の切開位置を示す前嚢切開位置情報G13とがガイド情報として提示部63に提示される。術者は、患者の眼における前嚢切開位置情報G13が表示されている部分を切開する。
 図8の例においても図7における場合と同様に、ガイド情報として提示される角膜輪部情報G11および前嚢切開位置情報G13は、図5に示した角膜輪部132および前嚢切開位置141に対応する位置に表示される。
 前嚢が切開され、核処理と皮脂吸引が行われると、その後、図9に示すように患者の眼の光学像に重畳されて角膜輪部情報G11と、眼内レンズの向きを示す眼内レンズ方向情報G14とがガイド情報として提示部63に提示される。術者は、眼内レンズの方向が眼内レンズ方向情報G14により示される方向となるように、患者の眼の水晶体内部に眼内レンズを挿入する。
 図9では、ガイド情報として提示される角膜輪部情報G11および眼内レンズ方向情報G14は、図6に示した角膜輪部132および眼内レンズ向き151に対応する位置に表示される。
 以上のように、白内障手術を行う場合には、例えばガイド情報として角膜輪部情報G11、創口位置情報G12、前嚢切開位置情報G13、および眼内レンズ方向情報G14が提示される。これらのガイド情報を提示するにあたっては、術前計画で定められたガイド情報の提示位置と、術中の実際のガイド情報の提示位置とにずれが生じないように、術中の患者の眼の各部位の位置や、眼の姿勢を堅強かつ高精度に推定することが重要である。
 上述したように正面画像を用いて眼の部位や姿勢を推定する場合には、状況によっては推定精度が低下してしまったり、そもそも推定を行うことが困難となったりすることがある。そこで、本技術では、患者の眼の断層画像を用いることで、より堅強かつ高精度に患者の眼の各部位と眼の姿勢を推定することができるようにした。
 例えば断層画像を光干渉断層計などからなる断層画像取得部65により取得(撮影)するようにすれば、照明等の撮影条件や、血管が見えづらい等の個人的な特徴などによらず、断層画像からより堅強に角膜と強膜の境界位置、隅角、虹彩の端点(内縁)などの部位を認識(検出)することが可能である。また、手術時の出血による眼の各部位の認識への影響も正面画像を用いる場合と比較すると十分に小さい。
 このように断層画像を用いて、より堅強かつ高精度に眼の各部位を認識することができれば、その認識結果を用いて患者の眼の姿勢を、より堅強かつ高精度に推定することができる。また、患者の眼の各部位の認識結果と、患者の眼の姿勢の推定結果とを用いて、より高精度にガイド情報を提示させることができる。
 例えば断層画像取得部65では、図10に示す断層画像P11が得られる。なお、より詳細には、断層画像P11は、実際に得られる断層画像の一部分のみを示している。
 図10に示す断層画像P11は、患者の眼の眼軸と略平行な断面の画像、正面画像と略垂直な断面の画像であり、この断層画像P11では、患者の眼の角膜181、強膜182、および虹彩183が観察されている。
 手術顕微鏡21の制御部66では、予め学習された辞書を用いた画像認識や、画像のコントラストを利用した画像認識等によって、断層画像P11から眼の各部位を認識することができる。例えば角膜181と強膜182の境界部分である境界位置B11および境界位置B12や、強膜182と虹彩183により形成される隅角の位置である隅角位置B13および隅角位置B14、虹彩の端点(内縁)である虹彩端点B15および虹彩端点B16などを画像認識により特定することができる。さらに、断層画像からは、後眼部における視神経乳頭の位置や中心窩の位置なども画像認識により求めることができる。
 また、制御部66では、断層画像取得部65で得られた各断面位置の断層画像から、例えば図11に示すボリュームデータP21を得ることができる。なお、図11において図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 ボリュームデータP21は、互いに断面位置が異なる複数の断層画像から再構築された、断層画像の被写体である患者の眼の3次元形状を示す立体画像である。すなわち、ボリュームデータP21は各断面位置の断層画像の集積結果として得られる画像である。
 例えばボリュームデータP21では、患者の眼の角膜181、虹彩183、および瞳孔211が観察されており、ボリュームデータP21から、直接、角膜181の境界である角膜輪部や、虹彩183と瞳孔211の境界部分である瞳孔211の輪郭を求めることができる。
 さらに、制御部66では、正面画像取得部64で得られる正面画像の撮影方向と同じ方向、つまり眼軸方向から見た患者の眼の画像を、断層画像取得部65で得られた各断面位置の断層画像を用いた被写体の再構築により求めることもできる。
 以下では、断層画像から再構築された、正面画像の撮影方向と同じ方向から見た患者の眼の画像を、再構築正面画像とも称することとする。また、以下では、正面画像の撮影方向を正面方向とも称することとする。
 制御部66は、上述した断層画像、ボリュームデータ、および再構築正面画像を適宜用いて、ガイド情報を提示するために必要となる角膜範囲、瞳孔範囲、および眼(眼球)の姿勢を認識する。なお、瞳孔範囲は必ずしも必要ではなく、ガイド情報の提示位置を定めるのに用いられる場合にのみ求められる。
 以下、これらの角膜範囲、瞳孔範囲、および眼の姿勢の認識について説明する。
(角膜範囲の認識について)
 例えば角膜範囲は、以下の(ア)および(イ)に示すように隅角位置、または角膜と強膜の境界位置を認識することで求めることが可能である。
(ア)隅角位置から角膜範囲を求める
 (1)1または数枚の断層画像における隅角位置から角膜範囲を推定する
 (2)断層画像のボリュームデータにおける隅角内側を角膜範囲とする
(イ)角膜と強膜の境界位置から角膜範囲を求める
 (1)1または数枚の断層画像における角膜と強膜の境界から角膜範囲を推定する
 (2)断層画像のボリュームデータにおける角膜と強膜の境界内側を角膜範囲とする
 すなわち、(ア)の(1)に示す方法で角膜範囲を求める場合、1または複数の断層画像について、断層画像から画像認識により2つの隅角位置が認識される。例えば図10に示した例では、断層画像P11から隅角位置B13および隅角位置B14が認識される。
 そして、そのようにして認識された断層画像上の各隅角位置と、各断層画像の断面位置とに基づいて角膜範囲が推定により求められる。
 具体的には、例えば複数の断層画像を用いる場合には、各断層画像で認識された隅角位置の正面方向から見たときの位置が求められ、正面方向から見たときに互いに隣接する隅角位置同士を結んで得られる円(環状の線)の内側の領域が角膜範囲とされる。ガイド情報の生成時には、このようにして求められた角膜範囲の輪郭部分が角膜輪部とされる。
 また、(ア)の(2)に示す方法で角膜範囲を求める場合、断層画像のボリュームデータから画像認識により隅角が認識される。この場合、認識結果として隅角の3次元形状が得られるので、その認識結果として得られた環状(円状)の隅角部分の内側の領域が角膜範囲とされる。
 (イ)の(1)に示す方法で角膜範囲を求める場合、1または複数の断層画像について、各断層画像から画像認識により角膜と強膜の境界位置が2つ認識される。例えば図10に示した例では、断層画像P11から境界位置B11および境界位置B12が認識される。
 そして、そのようにして認識された断層画像上の各境界位置と、各断層画像の断面位置とに基づいて、(ア)の(1)の方法と同様にして角膜範囲が推定により求められる。すなわち、例えば正面方向から見たときに互いに隣接する、角膜と強膜の各境界位置同士を結んで得られる円の内側の領域が角膜範囲とされる。
 さらに、(イ)の(2)に示す方法で角膜範囲を求める場合、断層画像のボリュームデータから画像認識により角膜と強膜の境界位置が認識される。この場合、認識結果として角膜と強膜の3次元形状が得られる。そのため、認識結果として得られた角膜と強膜の境界は環状(円形状)となるので、その環状の境界の内側の領域が角膜範囲とされる。
(瞳孔範囲の認識について)
 また、例えば瞳孔範囲は、以下の(ウ)の(1)または(2)に示すように虹彩の端点の位置に基づいて求めることが可能である。
(ウ)虹彩の端点位置から瞳孔範囲を求める
 (1)1または数枚の断層画像における虹彩の端点位置から瞳孔範囲を推定する
 (2)断層画像のボリュームデータにおける虹彩端点の内側を瞳孔範囲とする
 すなわち、(ウ)の(1)に示す方法で瞳孔範囲を求める場合、1または複数の断層画像について、断層画像から画像認識により虹彩の2つの端点位置が認識される。例えば図10に示した例では、断層画像P11から虹彩端点B15および虹彩端点B16が認識される。
 そして、そのようにして認識された断層画像上の各虹彩端点と、各断層画像の断面位置とに基づいて瞳孔範囲が推定により求められる。
 具体的には、例えば複数の断層画像を用いる場合には、各断層画像で認識された虹彩端点位置の正面方向から見たときの位置が求められ、正面方向から見たときに互いに隣接する虹彩端点位置同士を結んで得られる円の内側の領域が瞳孔範囲とされる。ガイド情報の生成時には、このようにして求められた瞳孔範囲が適宜利用されてガイド情報の提示位置が定められる。
 また、(ウ)の(2)に示す方法で瞳孔範囲を求める場合、断層画像のボリュームデータから画像認識により虹彩が認識される。この場合、認識結果として虹彩の3次元形状が得られるので、その認識結果として得られた虹彩の内側の端点、つまり環状(円状)である、虹彩の内側の端部分さらに内側の領域が瞳孔範囲とされる。
(眼の姿勢の認識について)
 さらに、例えば眼(眼球)の姿勢としては、正面方向から見た眼の回旋角度、つまり眼軸を回転軸とした眼球の回転角度と、3次元的な眼球の姿勢とが考えられる。
 ここで、眼の回旋角度は、正面方向から眼を見た場合における、術前画像を基準としたときの術中画像における眼球の回転角度、つまり眼球位置の眼軸回りの変化量である。
 例えば、眼の姿勢として回旋角度が求められる場合、眼の回旋角度は、以下の(エ)の(1)乃至(3)に示すように、視神経乳頭と中心窩の位置関係、または血管分布から求めることが可能である。
(エ)眼球の回旋角度を眼の姿勢として求める
 (1)断層画像のボリュームデータにおける視神経乳頭と中心窩の位置関係から求める
 (2)数枚の断層画像における視神経乳頭と中心窩のくぼみの位置関係から求める
 (3)数枚の断層画像または断層画像のボリュームデータにおける血管分布から求める
 すなわち、(エ)の(1)に示す方法では、断層画像のボリュームデータから視神経乳頭部分のくぼみと、中心窩部分のくぼみとが画像認識により求められ、それらの視神経乳頭部分のくぼみと、中心窩部分のくぼみとを結ぶ線分が、回旋角検出線として求められる。そして、正面方向から見た、術前における回旋角検出線と術中における回旋角検出線とのなす角度が、眼球の回旋角度として求められる。
 (エ)の(2)に示す方法では、複数の各断層画像から画像認識により視神経乳頭部分のくぼみと、中心窩部分のくぼみとが求められる。そして、その認識結果、例えばくぼみの深さと、各断層画像の断面位置とから、正面方向から見た視神経乳頭と中心窩の位置が推定され、それらの視神経乳頭と中心窩の位置関係から回旋角検出線が求められて、眼球の回旋角度が求められる。
 また、(エ)の(3)に示す方法では、数枚の断層画像、または断層画像のボリュームデータから血管分布が画像認識により求められ、術前と術中での血管分布を比較(マッチング)することにより、眼球の回旋角度が求められる。
 さらに、例えば眼の姿勢として、眼球の3次元的な姿勢、つまり3次元空間上の姿勢が求められる場合、以下の(オ)の(1)または(2)に示すように眼の各部位の位置の変化を求めることで、眼の姿勢を求めることができる。
(オ)眼球の3次元的な姿勢を眼の姿勢として求める
 (1)上記の(ア)乃至(エ)の一部または全部を組み合わせて求める
 (2)上記の(ア)乃至(エ)の一部または全部の組み合わせと、眼の部位の3次元形状とを組み合わせて求める
 (オ)の(1)に示す方法では、例えば(ア)または(イ)に示した方法により角膜範囲が認識され、(ウ)に示した方法により瞳孔範囲が認識され、(エ)に示した方法により視神経乳頭と中心窩の位置関係(回旋角検出線)が認識される。
 そして、それらの角膜範囲、瞳孔範囲、および回旋角検出線の術前と術中での位置関係から、3次元空間における眼球の位置関係が眼球の3次元的な姿勢として求められる。
 ここで、眼球の3次元的な姿勢は、例えば3次元空間における眼の回転移動量に基づいて求めることができる。具体的には、例えば術前での眼の所定部位の位置、つまり3次元座標系における座標(x,y,z)が、術中に座標(x’,y’,z’)へと移動したときの移動量(回転量)を示す行列により眼球の3次元的な姿勢を表現することができる。すなわち、次式(1)に示すように、座標(x,y,z)を座標(x’,y’,z’)へと変換する変換行列により表現することができる。
Figure JPOXMLDOC01-appb-M000001
 式(1)では、変換行列の各要素aij(但しi=1,2,3,j=1,2,3)は、例えば変換行列の各行のベクトルのノルムが1となるように定められたり、それぞれの行のベクトルが互いに直交するように定められたりするなどとすればよい。
 また、式(1)に示す変換行列を眼球の3次元的な姿勢を示す情報とする場合には、眼球の平行移動は無視され、眼球の向き、つまり回転移動のみが考慮されている。
 さらに、(オ)の(2)に示す方法では、上述した(オ)の(1)に示す方法に加えて、断層画像のボリュームデータから得られる強膜や網膜などの3次元形状も加味されて変換行列が求められ、眼球の3次元的な姿勢とされる。
 なお、以上において説明した(ア)乃至(オ)に示す方法により断層画像やボリュームデータから角膜範囲、瞳孔範囲、および眼の姿勢を求める対象となるのは、手術中に撮影された断層画像に限らず、手術前に撮影された断層画像でもよい。この場合、例えば手術前に撮影された断層画像に基づいて、手術前の眼の各部位や基準となる眼の姿勢が求められ、術前計画が立てられる。
 以上のようにして角膜範囲、瞳孔範囲、および眼の姿勢が求まると、それらの角膜範囲、瞳孔範囲、および眼の姿勢から、術中の眼の光学像や正面画像に重畳させて、ガイド情報を提示することができるようになる。
 このとき、ガイド情報を提示するには、角膜範囲や瞳孔範囲などの眼の部位と、ガイドとして提示すべきガイド情報との位置関係を予め求めておく必要がある。
 例えばガイド情報として眼内レンズ方向情報が提示される場合、術前計画時に図12に示すように、眼内レンズ方向情報により示される眼内レンズの方向と、回旋角検出線とのなす角度θが予め求められる。
 すなわち、図12の矢印A41に示すように、術前に正面画像取得部64により撮影された正面画像における患者の眼241に対する眼内レンズの方向が眼内レンズ向き242として決定されたとする。この例では、術中には患者の眼241における角膜輪部243に対応する角膜輪部情報と、眼内レンズ向き242に対応する眼内レンズ方向情報がガイド情報として提示される。
 この場合、矢印A42に示すように、術前に断層画像取得部65により取得された断層画像P31を含むいくつかの断層画像や、断層画像のボリュームデータに基づいて、上述した(エ)の(1)や(エ)の(2)に示した方法と同様にして、視神経乳頭と中心窩の位置が画像認識により求められる。
 この例では、断層画像P31における矢印B31に示す部分のくぼみが視神経乳頭の部分であると認識され、矢印B32に示す部分のくぼみが中心窩の部分であると認識される。
 このような認識結果から、例えば断層画像P31等から再構築された再構築正面画像P32における視神経乳頭と中心窩の位置関係が求まる。この例では、再構築正面画像P32における矢印B33により示される部分が視神経乳頭の部分を示しており、矢印B34に示す部分が中心窩の部分を示している。そして、これらの視神経乳頭と中心窩を結ぶ線分(直線)が、回旋角検出線244として求められる。
 このようにして正面方向における回旋角検出線244が求まると、矢印A41に示した正面画像における回旋角検出線の方向も求まる。矢印A41に示す図では、直線245が回旋角検出線の方向を示している。
 術前計画では、例えば直線245により示される回旋角検出線の方向と、眼内レンズ向き242により示される方向とのなす角度が角度θとして求められ、術前計画を示す術前計画情報の1つとされる。
 また、手術時には図13の矢印A51に示すように、術中に断層画像取得部65により取得された断層画像P41を含むいくつかの断層画像や、断層画像のボリュームデータに基づいて、上述した(エ)の(1)や(エ)の(2)に示した方法と同様にして、眼の姿勢として回旋角度が求められる。
 すなわち、まず画像認識により視神経乳頭と中心窩の位置が求められる。この例では、断層画像P41における矢印B41に示す部分のくぼみが視神経乳頭の部分であると認識され、矢印B42に示す部分のくぼみが中心窩の部分であると認識される。
 そして、視神経乳頭と中心窩の認識結果から、例えば断層画像P41等から再構築された再構築正面画像P42における視神経乳頭と中心窩の位置関係が求まる。この例では、再構築正面画像P42における矢印B43により示される部分が視神経乳頭の部分を示しており、矢印B44に示す部分が中心窩の部分を示している。
 なお、上記の説明では、断層画像P31や断層画像P41が丁度視神経乳頭や中心窩を通る形で取得される例を用いている。しかし、視神経乳頭と中心窩の双方を含む断層画像が取得できない場合でも、複数の断層画像から構成されるボリュームデータにおけるくぼみの位置に基づき、または、数枚の断層画像の各々におけるくぼみの位置とくぼみの程度に基づき、視神経乳頭と中心窩の位置を推定することができる。
 このようにして正面方向から見た視神経乳頭と中心窩の位置関係が求まると、これらの視神経乳頭と中心窩を結ぶ線分(直線)が、回旋角検出線271として求まり、この回旋角検出線271と、術前の回旋角検出線とから眼球の回旋角度が求められる。
 すると、眼球の回旋角度からガイド情報としての眼内レンズ方向情報を提示させる角度が分かるので、矢印A52に示すように、患者の眼の光学像に重畳されて、角膜輪部情報G31および眼内レンズ方向情報G32がガイド情報として提示される。
 ここで、角膜輪部情報G31は、術中に画像認識により求められた角膜範囲により特定される。また、眼内レンズ方向情報G32の提示方向は、眼球の回旋角度から求まる。すなわち、眼内レンズ方向情報が、術前計画により定められている、角度θにより定まる眼内レンズ方向情報の提示方向に対して、求められた回旋角度の分だけ回転された状態で提示される。換言すれば、眼内レンズ方向情報G32は、回旋角検出線271に対応する方向を示す直線272とのなす角度が、予め求められている角度θとなるように提示される。
 なお、ここでは、眼球の回旋角度に応じて眼内レンズ方向情報の提示方向を定める例について説明したが、眼の姿勢としての眼球の3次元的な姿勢と、術前計画とに基づいて眼内レンズ方向情報を表示するようにしてもよい。この場合、眼球の3次元的な姿勢に応じて、適宜、眼内レンズ方向情報に対して線形変換が行われて提示される。これにより、眼内レンズ方向情報が適切な方向で提示されるだけでなく、眼球の3次元的な姿勢に応じて、眼内レンズ方向情報が適切に変形される。
 また、例えばガイド情報として提示される創口位置情報については、角膜輪部に対する、眼の中心、すなわち角膜輪部の中心からの位置と大きさなどを術前計画情報として求めておけば、その術前計画情報と、術中の眼の姿勢とから正しい位置に創口位置情報を表示させることができる。
 さらに、ガイド情報として提示される前嚢切開位置情報については、角膜輪部に対する前嚢切開位置の大きさを術前計画情報として求めておけば、その術前計画情報と、術中の角膜範囲の認識結果とに基づいて、適切な位置に前嚢切開位置情報を提示することができる。
〈手術システムの構成例〉
 次に、以上において説明した手術システム11における、患者の眼の姿勢を推定するとともにガイド情報を生成して提示する部分のより詳細な構成について説明する。
 図14は、そのような機能を実現する手術システム11の構成例を示している。なお、図14において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図14に示す例では、手術システム11は、画像情報取得部301、画像処理装置302、およびガイド情報提示部303を有している。
 画像情報取得部301は、断層画像や正面画像を取得して画像処理装置302に供給する。なお、画像情報取得部301では、少なくとも断層画像が取得できればよく、正面画像は必要に応じて取得できればよい。
 画像処理装置302は、画像情報取得部301から供給された断層画像に基づいて、患者の眼の姿勢を求めるとともにガイド情報を生成してガイド情報提示部303に供給する。このとき、画像処理装置302は、正面画像にガイド情報を重畳させてガイド情報提示部303に供給するようにしてもよい。
 ガイド情報提示部303は、画像処理装置302から供給されたガイド情報を提示する。ここで、ガイド情報提示部303は、例えば図2に示した提示部63やモニタ33などからなる。
 また、画像処理装置302は、例えば図2に示した制御部66およびインターフェース部67により実現される。
 画像処理装置302は、画像認識部311、制御部312、インターフェース部67、およびガイド情報生成部313を有している。ここで、例えば画像認識部311、制御部312、およびガイド情報生成部313は、図2に示した制御部66がプログラムを実行することにより実現される。
 画像認識部311は、画像情報取得部301から供給された断層画像や正面画像に対して画像認識を行って、隅角位置、角膜と強膜の境界位置、虹彩の端点位置、視神経乳頭部、中心窩などの眼の各部位を認識し、その認識結果を制御部312に供給する。
 インターフェース部67は、術前の断層画像や正面画像、術前計画情報、術者等の入力指示などを取得して制御部312に供給する。
 制御部312は、画像処理装置302の各部を制御する。例えば制御部312は、画像認識部311から供給された眼の各部位の認識結果と、インターフェース部67から供給された術前の断層画像および術前計画情報とに基づいて、角膜範囲などの各部位の範囲や眼の姿勢を認識し、ガイド情報生成部313にガイド情報の生成を指示する。
 ガイド情報生成部313は、必要に応じて画像情報取得部301から供給された正面画像を用いて、制御部312の指示に従ってガイド情報を生成し、ガイド情報提示部303に供給する。上述したようにガイド情報は、患者の眼の光学像に重畳表示されるように、ガイドのみが提示される情報とされてもよいし、正面画像に重畳表示される画像情報とされてもよい。ガイド情報が正面画像に重畳表示される場合には、ガイド情報生成部313は、ガイド情報が重畳された正面画像を生成し、ガイド情報提示部303に出力する。
 また、画像情報取得部301が正面画像と断層画像を取得する場合、画像情報取得部301は、例えば図15に示す構成とされる。なお、図15において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図15に示す画像情報取得部301は、正面画像取得部64および断層画像取得部65から構成される。この例では、正面画像取得部64が正面画像を撮影して画像認識部311およびガイド情報生成部313に供給するとともに、断層画像取得部65が断層画像を撮影して画像認識部311に供給する。
 また、画像情報取得部301は、図16に示す構成とされるようにしてもよい。なお、図16において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図16に示す画像情報取得部301は、断層画像取得部65から構成される。この例では、断層画像取得部65が断層画像を撮影して画像認識部311に供給し、画像情報取得部301では正面画像の撮影は行われない。
〈ガイド情報提示処理の説明〉
 続いて、図14に示した手術システム11の動作について説明する。なお、以下では、ガイド情報提示部303としての提示部63にガイド情報が提示(表示)される場合を例として説明する。
 白内障手術が行われる場合、インターフェース部67は、予め術前の断層画像である術前画像と、術前計画情報とを取得して制御部312に供給する。そして、手術が開始されると、手術システム11は創口作成モード、前嚢切開モード、および眼内レンズ挿入モードの各モードでガイド情報提示処理を行って、ガイド情報を提示する。
 ここで、創口作成モードとは、術者が創口を作成するときのガイドとして創口位置情報を提示するモードであり、前嚢切開モードとは、術者が前嚢を切開するときのガイドとして、前嚢切開位置情報を提示するモードである。また、眼内レンズ挿入モードは、術者が水晶体内に眼内レンズを挿入するときのガイドとして眼内レンズ方向情報を提示するモードである。
 手術システム11は、適宜、モードの切り替えを行いながら、各モードでガイド情報提示処理を行う。具体的には、まず創口作成モードでガイド情報提示処理が行われた後、前嚢切開モードでガイド情報提示処理が行われ、さらに眼内レンズ挿入モードでガイド情報提示処理が行われる。例えばモードの切り替えは、術者等がインターフェース部67を操作することにより行われてもよいし、正面画像等に基づいて手術システム11により行われるようにしてもよい。
 ここで、図17のフローチャートを参照して、創口作成モードである場合を例として、手術システム11により行われるガイド情報提示処理について説明する。
 ステップS11において、画像情報取得部301は、画像情報を取得する。すなわち、画像情報取得部301の断層画像取得部65は、術中の断層画像である術中画像を各断面位置において撮影し、画像認識部311に供給する。
 ステップS12において、画像認識部311は、断層画像取得部65から供給された術中画像、または術中画像としての断層画像からなるボリュームデータに対して画像認識を行って、眼の各部位の位置を認識し、その認識結果を制御部312に供給する。
 ステップS12では、例えば術中画像としての断層画像またはボリュームデータにおける隅角位置や、角膜と強膜の境界位置、虹彩の端点位置、視神経乳頭の位置、中心窩の位置などの各部位の位置が認識される。
 ステップS13において、制御部312は、画像認識部311から供給された認識結果と、インターフェース部67から供給された術前画像とに基づいて、患者の眼の姿勢を求める。例えば制御部312は、上述した(ア)乃至(ウ)に示した方法により、適宜、眼の角膜範囲や瞳孔範囲を求め、さらに上述した(エ)や(オ)に示した方法により、眼の姿勢を求める。
 ここで、インターフェース部67から供給される術前画像では、術前画像として手術前に撮影された断層画像に対する画像認識等により、事前に角膜範囲や瞳孔範囲、視神経乳頭、中心窩、回旋角検出線、強膜、網膜などの位置や血管分布が求められた状態となっている。換言すれば、基準となる手術前の眼の部位や姿勢が求められた状態となっている。
 ステップS14において、制御部312は、現在のモードに従って、提示するガイド情報を決定する。例えば、この例では創口作成モードであるので、角膜輪部情報および創口位置情報が提示するガイド情報として決定される。
 提示するガイド情報を決定すると、制御部312は、ガイド情報の生成に必要となる各種の情報をガイド情報生成部313に供給し、ガイド情報の生成を指示する。
 例えば、この例では、制御部312は画像認識部311から供給された画像認識の結果から求まる角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
 また、制御部312は、ステップS13の処理で求められた眼の姿勢と、角膜範囲等の眼の各部位の位置や範囲と、インターフェース部67から供給された術前計画情報としての創口位置情報の提示位置を示す情報とに基づいて、現時刻において創口位置情報を提示すべき位置を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、創口位置情報の形状を変形させるようにしてもよい。
 制御部312は、このようにして求められた、創口位置情報を提示すべき位置を示す情報をガイド情報生成部313に供給し、ガイド情報としての創口位置情報の生成を指示する。
 ステップS15において、ガイド情報生成部313は、制御部312の指示に従ってガイド情報を生成し、ガイド情報提示部303に供給する。この例では、ガイド情報生成部313は、制御部312から供給された情報に基づいて、角膜輪部情報および創口位置情報を生成する。
 ステップS16において、ガイド情報提示部303の提示部63は、ガイド情報生成部313から供給されたガイド情報を提示する。これにより、例えば図7に示した角膜輪部情報G11と創口位置情報G12とが、患者の眼の光学像に重畳されて提示される。
 なお、モニタ33において、正面画像に角膜輪部情報と創口位置情報とが重畳表示されるようにしてもよい。そのような場合には、ガイド情報生成部313は、画像情報取得部301の正面画像取得部64から供給された正面画像に、生成した角膜輪部情報と創口位置情報を重畳させて、ガイド情報提示部303としてのモニタ33に供給する。
 ステップS17において、制御部312は、処理を終了するか否かを判定する。例えば現時点のモードから次のモードへの切り替えが指示されたときなど、ガイド情報の提示の終了が指示された場合に処理を終了すると判定される。
 ステップS17においてまだ処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返し行われる。
 これに対して、ステップS17において処理を終了すると判定された場合、ガイド情報提示処理は終了する。
 以上のようにして手術システム11は、患者の眼の断層画像に基づいて眼の各部位を認識し、その認識結果に基づいて眼の姿勢を求める。そして、手術システム11は、求めた眼の姿勢に基づいてガイド情報を生成し、提示する。
 このように断層画像に基づいて眼の各部位を認識し、眼の姿勢を求めることで、より堅強かつ高精度に眼の姿勢を求めることができる。その結果、より高精度にガイド情報を提示することができる。
 なお、ここでは創口作成モードである場合におけるガイド情報提示処理について詳細に説明したが、前嚢切開モードである場合、および眼内レンズ挿入モードである場合であっても図17を参照して説明したガイド情報提示処理と同様の処理が行われる。
 例えば前嚢切開モードである場合、ステップS14では、創口作成モードである場合と同様に、制御部312は角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
 また、制御部312は、現時刻における角膜範囲から定める角膜輪部と、インターフェース部67から供給された術前計画情報としての角膜輪部に対する前嚢切開位置の大きさを示す情報とに基づいて、現時刻において前嚢切開位置情報を提示すべき位置を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、前嚢切開位置情報の形状を変形させるようにしてもよい。
 制御部312は、このようにして求められた、前嚢切開位置情報を提示すべき位置を示す情報をガイド情報生成部313に供給し、ガイド情報としての前嚢切開位置情報の生成を指示する。そして、ステップS15において、ガイド情報生成部313は、制御部312の指示に従って角膜輪部情報と前嚢切開位置情報とをガイド情報として生成する。
 また、例えば眼内レンズ挿入モードである場合、ステップS14では創口作成モードである場合と同様に、制御部312は角膜範囲を示す情報をガイド情報生成部313に供給し、ガイド情報としての角膜輪部情報の生成を指示する。
 さらに、制御部312は、ステップS13の処理で眼の姿勢として求められた回旋角度と、インターフェース部67から供給された術前計画情報としての角度θとに基づいて、現時刻において眼内レンズ方向情報を提示すべき方向を求める。このとき、制御部312は、眼球の姿勢に応じて線形変換を行い、眼内レンズ方向情報の形状を変形させるようにしてもよい。
 制御部312は、このようにして求められた、眼内レンズ方向情報を提示すべき方向を示す情報をガイド情報生成部313に供給し、ガイド情報としての眼内レンズ方向情報の生成を指示する。そして、ステップS15において、ガイド情報生成部313は、制御部312の指示に従って角膜輪部情報と眼内レンズ方向情報とをガイド情報として生成する。
〈第2の実施の形態〉
〈画像認識について〉
 ところで、手術中には例えば図18に示すように、術者が術具を用いて手術を行うため、図19に示すようにその術具の影となる部分では、断層情報を取得することができない。なお、図19において図18における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。また、図19は、図18に示す患者の眼における点線PL11の部分の断面図を示している。
 図18に示す例では、術者が患者の眼の角膜341の部分から水晶体内部に術具342を挿入して手術を行っている。従って、このような状態で断層画像を撮影した場合、術具342の図中、奥行き側にある部分は影になってしまう。
 すなわち、図19に示すように術具342の図中、下側の部分が影になり、断層画像における、その部分に対応する領域が暗くなったり、不鮮明になったりして、有用な情報が得られなくなってしまう。換言すれば、術具342の影となる部分では、患者の眼の各部位の認識を行うことが困難である。
 そこで、断層画像における術具の影となる部分を画像認識に用いないようにしてもよい。そのような場合、例えば画像情報取得部301の構成は、図15に示した構成とされ、正面画像取得部64により撮影された正面画像が画像認識部311に供給される。すなわち、図17を参照して説明したステップS11の処理では、正面画像も取得される。
 そして、ステップS12では、まず画像認識部311により、正面画像に対する画像認識が行われる。正面画像に対する画像認識では、予め登録された辞書等を用いた画像認識などにより、正面画像から患者の眼以外の領域、例えば術具の領域が認識される。そして、その認識結果に基づいて、断層画像における術具の影となる領域が特定される。
 具体的には、正面画像における術具の領域の認識結果から断層画像における術具の領域が特定可能であるので、断層画像における術具の領域よりも正面方向の奥行き側、つまり角膜から見て中心窩側の領域が、術具の影となる領域として特定される。なお、断層画像における術具の影となる領域を特定する処理は、画像認識部311により行われてもよいし、制御部312により行われてもよい。
 さらに、画像認識部311は、断層画像における術具の影となる領域を除外して、断層画像や、その断層画像から得られるボリュームデータに基づき、画像認識により眼の各部位の位置を認識する。
 なお、上記では断層画像における術具の影となる領域を、正面画像における術具の領域の認識結果から推定しているが、断層画像において術具に関して得られる情報、例えば術具による強反射位置の情報などを用いて断層画像のみから推定するようにする方法を用いてもよい。
 このように患者の眼の各部位の位置を認識する際に、断層画像における有用な領域のみを用いることで、さらに堅強かつ高精度に眼の姿勢を求めることができる。
〈第3の実施の形態〉
〈断層画像の取得について〉
 また、正面画像を用いれば、画像認識によって大まかに角膜や瞳孔の位置を特定することができる。そこで、画像情報取得部301の構成が図15に示した構成とされる場合には、正面画像に基づいて、断層画像を取得する断面位置を決定するようにしてもよい。
 例えば中心窩や視神経乳頭は、眼を正面方向から見たときに瞳孔の中心付近、つまり眼軸付近に位置している。そのため、断層画像やボリュームデータから視神経乳頭や中心窩の位置を認識し、その認識結果を用いて眼の姿勢を求めるときには、正面画像から適切な断面位置を特定し、その特定結果に応じて断層画像を取得するようにすれば、より効率よく眼の姿勢を求めることができる。
 例えば術中において、図20に示すように正面画像P61が画像情報取得部301を構成する正面画像取得部64により取得されたとする。
 この場合、正面画像P61からは角膜371や瞳孔372の範囲を画像認識により推定することができる。また、角膜371や瞳孔372の中心近傍を通る直線PL31を含む断面位置で断層画像を取得すれば、その断層画像には中心窩や視神経乳頭が含まれている可能性が高い。一方で、角膜371や瞳孔372の端近傍を通る直線PL32を含む断面位置で断層画像を取得しても、その断層画像には中心窩や視神経乳頭が含まれている可能性が低い。
 そこで、正面画像P61から角膜371や瞳孔372の範囲を推定し、その推定結果を用いて直線PL31を含む断面位置など、1または複数の適切な断面位置で断層画像を取得し、直線PL32を含む断面位置では断層画像を取得しないようにするなどとすればよい。
 このような場合、図17を参照して説明したガイド情報提示処理のステップS11では、まず画像情報取得部301を構成する正面画像取得部64により、術中の正面画像が取得され、画像認識部311に供給される。
 そして、画像認識部311は、正面画像取得部64から供給された正面画像に対して画像認識を行って、角膜範囲や瞳孔範囲など、眼の各部位を認識し、その認識結果を制御部312に供給する。
 さらに、制御部312は、画像認識部311から供給された、正面画像における角膜範囲や瞳孔範囲などの各部位の認識結果に基づいて、断層画像を取得する断面位置を決定し、その決定に応じて画像情報取得部301の断層画像取得部65を制御する。この場合、例えば図20に示した直線PL31を含む断面位置や、その断面位置近傍のいくつかの断面位置が、断層画像を取得すべき断面位置として決定される。このようにして制御部312が断層画像取得部65を制御するときには、制御部312は取得制御部として機能する。
 断層画像取得部65は、制御部312の制御に従って、制御部312により指定された1または複数の断面位置で断層画像を取得して、画像認識部311に供給する。
 このように、正面画像から得られる情報に基づいて、適切な断面位置を決定すれば、より効率よく患者の眼の姿勢を求めることができるようになる。
〈第4の実施の形態〉
〈正面画像を用いた画像認識の精度向上について〉
 さらに、画像情報取得部301の構成が図15に示した構成とされる場合、術中に撮影された正面画像から、画像認識により大まかな角膜や瞳孔の位置を特定することができる。そこで、その特定結果用いて断層画像からの眼の各部位の検出範囲を定め、その検出範囲を対象とした画像認識により、断層画像から眼の各部位の位置を検出(認識)するようにしてもよい。
 例えば図21に示すように、術中に正面画像P61および断層画像P71が撮影されたとする。なお、図21において図20における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図21では、正面画像P61は、術中に正面画像取得部64により取得された正面画像を示しており、断層画像P71は、正面画像P61と同時刻またはほぼ同時刻に断層画像取得部65により撮影された断層画像を示している。
 例えば、断層画像P71から隅角位置を認識する画像認識が画像認識部311により行われる場合について考える。この場合、画像認識部311は、まず正面画像P61に対して画像認識を行い、正面画像P61から角膜371を認識する。
 そして画像認識部311は、断層画像P71における、角膜371の端部分に対応する位置を含む所定幅の領域である検出範囲ST11および検出範囲ST12を、隅角位置の認識を行う対象となる領域の範囲として決定する。これは、隅角は角膜の端部分近傍に位置するからである。
 画像認識部311は、このようにして決定した検出範囲ST11および検出範囲ST12の領域のみを処理対象として、断層画像P71から画像認識により隅角位置を認識する。そして、例えば制御部312では、断層画像P71等からの隅角位置の認識結果に基づいて、角膜範囲が認識される。
 このように、正面画像から得られる情報に基づいて、断層画像に対する画像認識時の検出範囲が決定される場合、図17を参照して説明したガイド情報提示処理では、ステップS11において、画像情報として正面画像と断層画像が取得される。
 そして、ステップS12において、画像認識部311は、正面画像取得部64から供給された正面画像に対して画像認識を行い、眼の各部位を認識するとともに、その認識結果に基づいて断層画像について認識対象となっている眼の部位ごとに、検出範囲を決定する。
 さらに、画像認識部311は、断層画像取得部65から供給された断層画像に対して、決定された検出範囲の領域のみを処理対象として画像認識を行い、断層画像上の眼の各部位の位置を認識する。
 このとき、断層画像上の眼の部位を認識するための検出範囲を決定するために、正面画像に対して行われる画像認識では、その画像認識で認識対象となる眼の部位は、断層画像での認識対象となる眼の部位と同じであってもよいし、異なる部位であってもよい。
 このようにして正面画像から得られる情報から検出範囲を決定し、その検出範囲を対象として断層画像上の眼の各部位の位置を認識することで、断層画像での眼の各部位の位置の認識精度を向上させることができる。
 なお、ここでは、断層画像上の眼の各部位の位置を認識する例について説明したが、正面画像に基づいて、断層画像から得られるボリュームデータについて検出範囲を決定し、ボリュームデータの検出範囲から眼の各部位の位置が認識されるようにしてもよい。
〈第5の実施の形態〉
〈正面画像を用いた画像認識の精度向上について〉
 ところで、正面画像に被写体として含まれている眼の血管や虹彩は、正面画像中の血管や虹彩の位置を正確に認識することができれば、術中と術前の眼の位置関係、つまり眼の姿勢を精度よく把握するのに有用な情報である。
 そこで、断層画像と正面画像の両方を用いて、より高精度に眼の姿勢を求めるようにしてもよい。具体的には、例えば画像情報取得部301の構成が図15に示した構成とされる場合、断層画像に基づいて、粗い精度で眼の姿勢を把握しておき、さらに正面画像に基づいて、最終的な、より精度の高い眼の姿勢を求めるようにしてもよい。
 例えば眼の姿勢として、回旋角度が求められるとする。そのような場合、まず術前に得られた断層画像と、術中に得られた断層画像とから、眼の姿勢を示す回旋角度が求められる。その結果、例えば図22の矢印A71に示すように回旋角度θ1が得られたとする。
 図22に示す例では、粗検出として求められた回旋角度θ1は、術前と術中の断層画像に基づいて求められた、術前の断層画像から再構築された再構築正面画像P91における回旋角検出線に対する、術中の断層画像から再構築された再構築正面画像P92における回旋角検出線の回転角度を示している。
 このようにして回旋角度θ1が求められると、その回旋角度θ1に基づいて、矢印A72に示すように正面画像を用いた回旋角度の検出範囲ST21が定められる。すなわち、正面画像を用いた回旋角度の検出範囲が、断層画像に基づいて算出された眼の姿勢から定まる、妥当であると思われる眼の姿勢の範囲内に制限される。具体的には、例えば回旋角度θ1を中心とする所定の角度範囲が検出範囲ST21として定められる。
 そして、矢印A73に示すように、回旋角度θ1により定められた検出範囲ST21内で、術前に得られた正面画像P93と、術中に得られた正面画像P94とから最終的な回旋角度θ2が求められる。ここで、回旋角度θ2は、必ず回旋角度θ1により定められた検出範囲ST21内の角度となる。
 正面画像に基づいて回旋角度θ2を求めるにあたっては、正面画像から画像認識により認識された血管や虹彩等の眼の各部位が用いられる。すなわち、それらの眼の各部位の位置関係がマッチングにより求められて、その結果得られた位置関係から回旋角度θ2が求められる。このとき、検出範囲ST21内で正面画像P93が回転され、正面画像P93上の眼の各部位と、術中に得られた正面画像P94上の眼の各部位とが重なるときの正面画像P93の回転角度が回旋角度θ2とされる。
 このように、断層画像に基づいて眼の姿勢としての回旋角度を求め、さらにその回旋角度と正面画像とから最終的な回旋角度を求めることで、より高精度に眼の姿勢としての回旋角度を求めることができる。その結果、さらに堅強かつ高精度にガイド情報を提示することができるようになる。
 なお、断層画像と正面画像とに基づいて眼の姿勢が求められる場合、手術システム11では、図17を参照して説明したガイド情報提示処理が開始される前に、予めインターフェース部67により術前の断層画像および正面画像と、術前計画情報とが取得されて制御部312に供給される。
 そして、ステップS11では、画像情報取得部301の正面画像取得部64および断層画像取得部65により、術中の正面画像および断層画像が取得されて画像認識部311に供給される。
 また、ステップS12では、画像認識部311は、正面画像取得部64から供給された、術中の正面画像に対して画像認識を行って、血管や虹彩等の各部位を認識するとともに、断層画像取得部65から供給された断層画像に対して画像認識を行って、眼の各部位の位置を認識する。そして、画像認識部311は、正面画像からの各部位の認識結果と、断層画像からの各部位の認識結果とを制御部312に供給する。
 さらにステップS13では、制御部312は、画像認識部311から供給された、断層画像からの各部位の認識結果と、インターフェース部67から供給された術前の断層画像とに基づいて、患者の眼の姿勢として回旋角度を求める。また、制御部312は、求めた回旋角度から、正面画像を用いた回旋角度の検出時の検出範囲を決定する。
 制御部312は、決定した検出範囲内で、画像認識部311から供給された正面画像からの各部位の認識結果と、インターフェース部67から供給された術前の正面画像とに基づいて、眼の回旋角度を最終的な患者の眼の姿勢として求める。
 なお、ここでは眼の姿勢として回旋角度を求める例について説明したが、眼の姿勢として眼の3次元的な姿勢を求める場合においても、以上において説明した処理と同様の処理を行って、より高精度に眼の姿勢を求めることが可能である。
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、
 前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
 前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
 を備える手術システム。
(2)
 前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに備える
 (1)に記載の手術システム。
(3)
 前記姿勢算出部は、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出する
 (2)に記載の手術システム。
(4)
 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
 前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
 を備える画像処理装置。
(5)
 前記姿勢算出部は、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出する
 (4)に記載の画像処理装置。
(6)
 前記姿勢算出部は、前記眼の3次元の姿勢を算出する
 (4)に記載の画像処理装置。
(7)
 前記姿勢算出部は、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出する
 (6)に記載の画像処理装置。
(8)
 前記姿勢算出部は、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出する
 (5)乃至(7)の何れか一項に記載の画像処理装置。
(9)
 前記画像認識部は、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識する
 (4)乃至(8)の何れか一項に記載の画像処理装置。
(10)
 前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
 前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識する
 (4)乃至(9)の何れか一項に記載の画像処理装置。
(11)
 前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出する
 (4)乃至(9)の何れか一項に記載の画像処理装置。
(12)
 前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出する
 (11)に記載の画像処理装置。
(13)
 前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
 前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに備える
 (4)乃至(9)の何れか一項に記載の画像処理装置。
(14)
 前記画像認識部は、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識し、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識する
 (4)乃至(9)の何れか一項に記載の画像処理装置。
(15)
 前記画像認識部は、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識する
 (4)乃至(9)の何れか一項に記載の画像処理装置。
(16)
 前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに備える
 (4)乃至(15)の何れか一項に記載の画像処理装置。
(17)
 前記断層画像は、光干渉断層計により撮影された画像である
 (4)乃至(16)の何れか一項に記載の画像処理装置。
(18)
 手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、
 前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する
 ステップを含む画像処理方法。
 11 手術システム, 21 手術顕微鏡, 33 モニタ, 63 提示部, 64 正面画像取得部, 65 断層画像取得部, 66 制御部, 67 インターフェース部, 301 画像情報取得部, 302 画像処理装置, 303 ガイド情報提示部, 311 画像認識部, 312 制御部, 313 ガイド情報生成部

Claims (18)

  1.  手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像を取得する断層画像取得部と、
     前記断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
     前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
     を備える手術システム。
  2.  前記手術対象である前記眼を略眼軸方向から撮影する正面画像取得部をさらに備える
     請求項1に記載の手術システム。
  3.  前記姿勢算出部は、前記所定部位の認識結果と、前記正面画像取得部により得られた正面画像とに基づいて、前記眼の姿勢を算出する
     請求項2に記載の手術システム。
  4.  手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識する画像認識部と、
     前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する姿勢算出部と
     を備える画像処理装置。
  5.  前記姿勢算出部は、前記眼軸を回転軸とする前記眼の回旋角度を前記眼の姿勢として算出する
     請求項4に記載の画像処理装置。
  6.  前記姿勢算出部は、前記眼の3次元の姿勢を算出する
     請求項4に記載の画像処理装置。
  7.  前記姿勢算出部は、前記眼の回転量に基づいて前記眼の3次元の姿勢を算出する
     請求項6に記載の画像処理装置。
  8.  前記姿勢算出部は、前記所定部位として認識された視神経乳頭と中心窩の位置関係に基づいて前記眼の姿勢を算出する
     請求項5に記載の画像処理装置。
  9.  前記画像認識部は、前記眼の手術前または手術中の前記断層画像に基づいて、前記眼の所定部位を認識する
     請求項4に記載の画像処理装置。
  10.  前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
     前記特定の部位の認識結果により定まる前記断層画像上の領域を対象として、前記断層画像における前記所定部位を認識する
     請求項4に記載の画像処理装置。
  11.  前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果と、前記眼を略前記眼軸方向から撮影して得られた正面画像とに基づいて、最終的な前記眼の姿勢を算出する
     請求項4に記載の画像処理装置。
  12.  前記姿勢算出部は、前記所定部位の認識結果に基づく前記眼の姿勢の算出結果により定まる姿勢の範囲内で、前記正面画像に基づいて前記最終的な前記眼の姿勢を算出する
     請求項11に記載の画像処理装置。
  13.  前記画像認識部は、前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像における前記眼の特定の部位を認識し、
     前記特定の部位の認識結果により定まる断面位置の前記断層画像を取得させる取得制御部をさらに備える
     請求項4に記載の画像処理装置。
  14.  前記画像認識部は、前記眼の手術中に前記眼を略前記眼軸方向から撮影して得られた正面画像に基づいて、前記正面画像上の術具を認識し、前記術具の認識結果により定まる前記断層画像上の領域を除外して、前記所定部位を認識する
     請求項4に記載の画像処理装置。
  15.  前記画像認識部は、互いに断面位置が異なる複数の前記断層画像から得られるボリュームデータにおける前記所定部位を認識する
     請求項4に記載の画像処理装置。
  16.  前記眼の姿勢に基づいて、前記眼の手術時のガイドとなるガイド情報を生成するガイド情報生成部をさらに備える
     請求項4に記載の画像処理装置。
  17.  前記断層画像は、光干渉断層計により撮影された画像である
     請求項4に記載の画像処理装置。
  18.  手術対象である眼の眼軸方向と略平行な方向の断面の画像である断層画像に基づいて、前記断層画像における前記眼の所定部位を認識し、
     前記所定部位の認識結果に基づいて、前記眼の姿勢を算出する
     ステップを含む画像処理方法。
PCT/JP2016/064083 2015-05-26 2016-05-12 手術システム、並びに画像処理装置および方法 WO2016190113A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/566,776 US10537389B2 (en) 2015-05-26 2016-05-12 Surgical system, image processing device, and image processing method
EP16799821.0A EP3305173B1 (en) 2015-05-26 2016-05-12 Surgery system, and device and method for processing image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015106419A JP2016214781A (ja) 2015-05-26 2015-05-26 手術システム、並びに画像処理装置および方法
JP2015-106419 2015-05-26

Publications (1)

Publication Number Publication Date
WO2016190113A1 true WO2016190113A1 (ja) 2016-12-01

Family

ID=57392732

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/064083 WO2016190113A1 (ja) 2015-05-26 2016-05-12 手術システム、並びに画像処理装置および方法

Country Status (4)

Country Link
US (1) US10537389B2 (ja)
EP (1) EP3305173B1 (ja)
JP (1) JP2016214781A (ja)
WO (1) WO2016190113A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021527480A (ja) * 2018-06-20 2021-10-14 アルコン インコーポレイティド 補助術野視覚化システム
EP3607922B1 (en) 2017-05-09 2022-07-20 Sony Group Corporation Image processing device, image processing method, and image processing program
WO2022163190A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6736490B2 (ja) * 2017-01-17 2020-08-05 キヤノン株式会社 画像処理装置、光干渉断層撮像装置、システム、画像処理方法、及びプログラム
DE102018124065A1 (de) * 2018-09-28 2020-04-02 Carl Zeiss Meditec Ag Verfahren zum Erzeugen einer Referenzinformation eines Auges, insbesondere einer optisch angezeigten Referenzrhexis, sowie ophthalmochirurgische Vorrichtung
US11918294B2 (en) * 2019-01-31 2024-03-05 Brainlab Ag Virtual trajectory planning
JP7304508B2 (ja) * 2019-02-19 2023-07-07 株式会社シンクアウト 情報処理システムおよび情報処理プログラム
US20230368380A1 (en) * 2020-09-21 2023-11-16 Carl Zeiss Meditec, Inc. Device for positioning an implant in a target area of an eye
WO2022163189A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
EP4221630A1 (en) * 2021-09-29 2023-08-09 Cilag GmbH International Surgical devices, systems, and methods using multi-source imaging
WO2023079384A1 (en) * 2021-11-03 2023-05-11 Alcon Inc. Computerized treatment plan with alternatives for guiding ophthalmic surgery
WO2024057162A1 (en) * 2022-09-13 2024-03-21 Alcon Inc. Toric intraocular lens alignment guide

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010538700A (ja) * 2007-09-06 2010-12-16 アルコン レンゼックス, インコーポレーテッド 外科的光破壊の精密な目標設定
JP2014140490A (ja) * 2013-01-23 2014-08-07 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム
JP2015513933A (ja) * 2012-04-20 2015-05-18 バーフェリヒト ゲゼルシャフト ミット ベシュレンクテル ハフツング 角膜切除レーザーを制御する技術

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152469A (ja) 2011-01-27 2012-08-16 Nidek Co Ltd 眼科用手術顕微鏡
JP6278295B2 (ja) * 2013-06-13 2018-02-14 国立大学法人 筑波大学 脈絡膜の血管網を選択的に可視化し解析する光干渉断層計装置及びその画像処理プログラム
CN104249372B (zh) * 2013-06-26 2016-04-27 鸿富锦精密工业(深圳)有限公司 夹取装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010538700A (ja) * 2007-09-06 2010-12-16 アルコン レンゼックス, インコーポレーテッド 外科的光破壊の精密な目標設定
JP2015513933A (ja) * 2012-04-20 2015-05-18 バーフェリヒト ゲゼルシャフト ミット ベシュレンクテル ハフツング 角膜切除レーザーを制御する技術
JP2014140490A (ja) * 2013-01-23 2014-08-07 Nidek Co Ltd 眼科解析装置、及び眼科解析プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3305173A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3607922B1 (en) 2017-05-09 2022-07-20 Sony Group Corporation Image processing device, image processing method, and image processing program
JP2021527480A (ja) * 2018-06-20 2021-10-14 アルコン インコーポレイティド 補助術野視覚化システム
JP7417551B2 (ja) 2018-06-20 2024-01-18 アルコン インコーポレイティド 補助術野視覚化システム
WO2022163190A1 (ja) * 2021-01-29 2022-08-04 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム

Also Published As

Publication number Publication date
US20180098812A1 (en) 2018-04-12
EP3305173A1 (en) 2018-04-11
EP3305173B1 (en) 2021-09-15
JP2016214781A (ja) 2016-12-22
US10537389B2 (en) 2020-01-21
EP3305173A4 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
WO2016190113A1 (ja) 手術システム、並びに画像処理装置および方法
JP7249278B2 (ja) 眼科手術用の適応的画像レジストレーション
WO2017169823A1 (ja) 画像処理装置および方法、手術システム並びに手術用部材
EP2497410B1 (en) Ophthalmologic apparatus and control method of the same
US20210311295A1 (en) Information processing apparatus, information processing method, and operation microscope apparatus
Richa et al. Vision-based proximity detection in retinal surgery
US20230053366A1 (en) Assembly comprising an oct device for ascertaining a 3d reconstruction of an object region volume, computer program, and computer-implemented method for same
WO2017135278A1 (ja) 断層画像撮影装置
JP6819223B2 (ja) 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム
CN114222521A (zh) 即时眼睛凝视校准系统和方法
JP2018515187A (ja) Oct画像の修正
US20240081921A1 (en) System and method for verification of conversion of locations between coordinate systems
US20210076934A1 (en) Method for the continuous control of the fixation of a patient's eye during the detection of biometric measurement data of the patient's eye
JPWO2018193932A1 (ja) 情報処理装置、術具、情報処理方法及びプログラム
JP7184077B2 (ja) 制御装置および方法、並びに手術顕微鏡システム
JP7024240B2 (ja) 眼科システムおよび眼科システム制御プログラム
JP2022544363A (ja) アイトラッキング固視モニタリングシステム及び方法
WO2022163190A1 (ja) 画像処理装置、画像処理方法及び手術顕微鏡システム
US20240082056A1 (en) Automated image guidance for ophthalmic surgery
WO2023203433A1 (en) Ophthalmic image registration using interpretable artificial intelligence based on deep learning
GB2576139A (en) Ocular assessment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16799821

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15566776

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016799821

Country of ref document: EP