WO2018105411A1 - 画像処理装置および方法、並びに手術顕微鏡システム - Google Patents

画像処理装置および方法、並びに手術顕微鏡システム Download PDF

Info

Publication number
WO2018105411A1
WO2018105411A1 PCT/JP2017/042152 JP2017042152W WO2018105411A1 WO 2018105411 A1 WO2018105411 A1 WO 2018105411A1 JP 2017042152 W JP2017042152 W JP 2017042152W WO 2018105411 A1 WO2018105411 A1 WO 2018105411A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
illumination
coaxial
oblique illumination
oblique
Prior art date
Application number
PCT/JP2017/042152
Other languages
English (en)
French (fr)
Inventor
潤一郎 榎
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2018554921A priority Critical patent/JPWO2018105411A1/ja
Priority to EP17878731.3A priority patent/EP3553584A4/en
Priority to US16/465,151 priority patent/US20190328225A1/en
Publication of WO2018105411A1 publication Critical patent/WO2018105411A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes

Definitions

  • the present technology relates to an image processing apparatus and method, and a surgical microscope system, and more particularly, to an image processing apparatus and method, and a surgical microscope system that can perform surgery more comfortably.
  • an ophthalmic microscope is known.
  • image recognition is performed on an image acquired during surgery for the eye to be treated, and a tomographic plane of the eye to be treated is determined on the basis of the recognition result.
  • An image that can be obtained has been proposed (see, for example, Patent Document 1).
  • the illumination light is irradiated from the direction different from the optical axis direction of the observation optical system and the coaxial illumination that irradiates the observation target eye with the illumination light from the optical axis direction of the observation optical system of the microscope. It is common to observe the eye of the surgical target by performing oblique illumination for irradiating simultaneously.
  • the optimal illumination intensity of the coaxial illumination and oblique illumination is different for each operation process, that is, for each procedure. Therefore, in order to obtain a good operative field, it is necessary to adjust the illumination intensity of the coaxial illumination and the oblique illumination for each process during the eye surgery, which is troublesome. If it does so, an operator etc. will not be able to perform an operation comfortably.
  • the present technology has been made in view of such a situation, and makes it possible to perform surgery more comfortably.
  • the image processing apparatus includes a coaxial illumination image obtained by performing coaxial illumination on the eye to be operated and an oblique illumination image obtained by performing oblique illumination on the eye.
  • An image acquisition unit for acquiring, and generating a surgical field image of the eye based on the coaxial illumination image and the oblique illumination image, or a specific region based on at least one of the coaxial illumination image and the oblique illumination image
  • an image processing unit for detecting.
  • the coaxial illumination light of the coaxial illumination and the oblique illumination light of the oblique illumination are light having different wavelengths, and the image processing apparatus is further provided with a control unit that controls the coaxial illumination and the oblique illumination to be performed simultaneously. be able to.
  • the image acquisition unit can acquire the coaxial illumination image and the oblique illumination image by optically separating the coaxial illumination light and the oblique illumination light.
  • the image acquisition unit can acquire the coaxial illumination image and the oblique illumination image from data obtained by receiving the coaxial illumination light and the oblique illumination light.
  • the image processing apparatus further includes a control unit that performs control so that the coaxial illumination and the oblique illumination are alternately performed, and the image acquisition unit obtains the coaxial illumination image and the oblique illumination image in a time-sharing manner. Can be made.
  • the image processing unit can generate the surgical field image by mixing the coaxial illumination image and the oblique illumination image at a predetermined mixing ratio.
  • the image processing unit can determine the mixing ratio for each region.
  • the image processing unit detects a region of a surgical instrument or a region of a specific part of the eye based on at least one of the coaxial illumination image and the oblique illumination image, and for each region based on the detection result
  • the mixing ratio can be determined.
  • the image processing unit can determine the mixing ratio based on at least one of the use of the surgical field image and the eye surgery process.
  • the image processing unit can generate the surgical field image after performing enhancement processing on at least one of the coaxial illumination image and the oblique illumination image.
  • the image processing unit determines whether to perform the enhancement processing for each of the coaxial illumination image and the oblique illumination image based on at least one of a use of the surgical field image and a step of the eye surgery. be able to.
  • the image processing unit can detect a specular reflection region based on the coaxial illumination image and the oblique illumination image, and generate the surgical field image with a reduced specular reflection component based on the detection result.
  • the image processing unit can detect a region of a specific part of the eye as the specific region.
  • the image processing unit can detect the pupil region of the eye by comparing the coaxial illumination image and the oblique illumination image.
  • the image processing apparatus may further include a control unit that performs imaging control of the coaxial illumination image and the oblique illumination image based on the detection result of the region of the specific part.
  • the control unit can perform exposure control or shooting position control as the shooting control.
  • the image processing unit can generate guide information for assisting the eye operation based on the detection result of the region of the specific part of the eye.
  • An image processing method includes a coaxial illumination image obtained by performing coaxial illumination on an eye to be operated and an oblique illumination image obtained by performing oblique illumination on the eye. Acquiring and generating a surgical field image of the eye based on the coaxial illumination image and the oblique illumination image, or detecting a specific region based on at least one of the coaxial illumination image and the oblique illumination image including.
  • a coaxial illumination image obtained by performing coaxial illumination on the eye to be operated and an oblique illumination image obtained by performing oblique illumination on the eye are acquired,
  • a surgical field image of the eye is generated based on the coaxial illumination image and the oblique illumination image, or a specific region is detected based on at least one of the coaxial illumination image and the oblique illumination image.
  • the surgical microscope system irradiates a surgical target eye with coaxial illumination light, performs coaxial illumination, and irradiates the eye with oblique illumination light.
  • An oblique illumination light source, a coaxial illumination image obtained by performing the coaxial illumination, an image acquisition unit for obtaining an oblique illumination image obtained by performing the oblique illumination, the coaxial illumination image, and the oblique illumination image Or an image processing unit that detects a specific region based on at least one of the coaxial illumination image and the oblique illumination image.
  • coaxial illumination light is applied to the eye to be operated to perform coaxial illumination
  • oblique illumination light is applied to the eye to perform oblique illumination
  • the coaxial illumination is performed.
  • a coaxial illumination image obtained by performing illumination and an oblique illumination image obtained by performing oblique illumination are acquired, and an operative field image of the eye is generated based on the coaxial illumination image and the oblique illumination image.
  • the specific area is detected based on at least one of the coaxial illumination image and the oblique illumination image.
  • the surgery can be performed more comfortably.
  • This technology obtains a coaxial illumination image taken with the illumination target eye illuminated with coaxial illumination, and an oblique illumination image taken with the illumination target eye illuminated with oblique illumination. It is intended to make it possible to separately acquire an image by illumination and an image by oblique illumination. Thereby, for example, a good surgical field can be obtained more easily, and the surgeon can perform the operation more comfortably.
  • coaxial illumination for illuminating a subject from the completely same direction as the optical axis, and a direction shifted by 4 to 6 degrees with respect to the optical axis.
  • oblique illumination that illuminates the subject.
  • FIG. 1 shows an optical system portion of a general ophthalmic microscope.
  • the microscope is provided with a light source 12 for oblique illumination together with an optical system 11-1 and an optical system 11-2 that are optical systems of eyepieces.
  • the optical system 11-1 and the optical system 11-2 are also simply referred to as the optical system 11 when it is not necessary to distinguish between them.
  • the optical system 11-1 and the optical system 11-2 are observation optical systems for observing the eye to be operated.
  • the optical system 11-1 and the optical system 11-2 are partially connected to the eye through the optical system 11.
  • Illumination light is irradiated.
  • Such illumination of the subject from the same direction as the optical axis direction of the observation optical system is called coaxial illumination.
  • an ophthalmic microscope is provided with a light source 12 at a position shifted from the optical system 11, and illumination light is emitted to the eye as a subject by the light source 12 when observing the eye to be operated.
  • the Illumination by the light source 12 is illumination from a direction deviated by 4 to 6 degrees from the optical axis direction of the optical system 11 which is an observation optical system, and such illumination is called oblique illumination.
  • illumination cannot be obtained, that is, reflected light from the retina cannot be received.
  • the illumination is observed with oblique illumination as shown in FIG. Sufficient visibility cannot be obtained in the surgical field.
  • FIG. 2 shows the part of the eye to be operated that is observed with oblique illumination.
  • the surgical instrument 41 is inserted into the eye to be operated in the operative field.
  • the posterior capsule portion of the eye is dark and sufficient. Visibility is not obtained.
  • FIG. 3 shows a portion of the eye to be operated that is observed with coaxial illumination.
  • the surgical instrument 41 is inserted into the eye to be operated in the surgical field.
  • the part indicated by the arrow Q11 is the edge part of the anterior capsule of the eye, and because of the coaxial illumination, each part of the eye such as the posterior capsule is bright and high visibility is obtained. Yes.
  • the part indicated by the arrow Q12 wrinkles on the corneal surface caused by the insertion of the surgical instrument 41 can also be confirmed.
  • the portion indicated by the arrow Q21 is the edge portion of the anterior capsule of the eye, and because of the coaxial illumination, bright and high visibility is obtained in each portion of the eye such as the posterior capsule. However, the shadow of the surgical instrument 71 and the shadow of the groove formed by the insertion of the surgical instrument 71 are not observed, and sufficient shadow contrast is not obtained.
  • FIG. 5 high visibility can be obtained in the surgical field where coaxial illumination and oblique illumination are performed simultaneously during ultrasonic lens emulsification suction in cataract surgery, and sufficient Shadow contrast can also be obtained.
  • parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • a groove formed by inserting the surgical tool 71 can be observed, and a shadow is visible at the groove portion. That is, sufficient shadow contrast is obtained.
  • An operator who observes the surgical field can feel a three-dimensional effect from visual information such as the shadow of the groove.
  • cataract surgery there are a technique in which contrast is important, such as an anterior capsulotomy, and a technique that requires a certain amount of information about the three-dimensional effect, such as in trenching during ultrasonic lens emulsification.
  • the best balance between the illumination intensity of the coaxial illumination and the illumination intensity of the oblique illumination differs depending on the technique, and in order to obtain a good operative field, that is, a visual field at the time of the operation, for each procedure, that is, every operation process. It takes time to adjust the illumination intensity of the coaxial illumination and the oblique illumination as appropriate. In other words, it was difficult to easily obtain a good surgical field.
  • a coaxial illumination image captured in a state where the eye of the surgical target is illuminated with coaxial illumination and an oblique illumination image captured in a state where the eye of the surgical target is illuminated with oblique illumination are acquired. It made it easier to get a good operative field. Thereby, the trouble at the time of an operation decreases, and an operator etc. can perform an operation more comfortably now.
  • FIG. 6 is a diagram illustrating a configuration example of an embodiment of a microscope system to which the present technology is applied.
  • 6 includes an ophthalmic video microscope 111, a display unit 112-1, and a display unit 112-2.
  • the microscope system 101 performs imaging and image processing in conjunction with illumination in the ophthalmic video microscope 111, thereby enabling image processing that has not been obtained under conventional illumination. It provides information that supports the surgical field and surgery.
  • the display unit 112-1 and the display unit 112-2 include, for example, a liquid crystal display and the like, and display the surgical field image supplied from the ophthalmic video microscope 111.
  • the display unit 112-1 and the display unit 112-2 are also simply referred to as the display unit 112 when it is not necessary to distinguish between them.
  • these display units 112 may be displays having different uses.
  • the display unit 112-1 is for presenting an operative field image for observing the operative field to a surgeon performing eye surgery
  • the display unit 112-2 is for observing or supervising the operation.
  • an operation field image may be presented to an observer or the like.
  • the ophthalmic video microscope 111 can generate different operative field images for each display unit 112 and supply each of the obtained plurality of operative field images to each of the plurality of display units 112.
  • the number of the display units 112 connected to the ophthalmic video microscope 111 is not limited to two, and may be any number. That is, one display unit 112 may be connected to the ophthalmic video microscope 111, or three or more display units 112 may be connected.
  • the ophthalmic video microscope 111 has an image acquisition unit 121, an image recording unit 122, an image processing unit 123, and a microscope control unit 124.
  • the image acquisition unit 121 irradiates the eye to be operated with illumination light under the control of the microscope control unit 124, and acquires an image with the eye as a subject. Specifically, the image acquisition unit 121 acquires a coaxial illumination image obtained by performing coaxial illumination and an oblique illumination image obtained by performing oblique illumination, and supplies the acquired images to the image recording unit 122 and the image processing unit 123. To do.
  • the coaxial illumination image is an image of the eye to be operated, which is taken in a state where only the coaxial illumination is performed without performing oblique illumination.
  • the oblique illumination image is an image of the eye to be operated, which is photographed with only oblique illumination without performing coaxial illumination.
  • the coaxial illumination image and the oblique illumination image acquired by the image acquisition unit 121 may be supplied to only one of the image recording unit 122 and the image processing unit 123.
  • the image processing unit 123 reads the coaxial illumination image and the oblique illumination image from the image recording unit 122, and performs image processing or the like. .
  • the image processing unit 123 generates an operative field image based on the coaxial illumination image and the oblique illumination image, and supplies the obtained operative field image to the display unit 112 for display.
  • the surgical field image obtained by the image processing unit 123 may be supplied to the image recording unit 122 and recorded.
  • the image processing unit 123 specifies (detects) a region of a desired part of the eye to be operated on the surgical field image based on the coaxial illumination image and the oblique illumination image, and further, based on the identification result.
  • the display unit 112 guide information and the like for assisting surgery can be displayed superimposed on the surgical field image.
  • the image processing unit 123 supplies the microscope control unit 124 with the result of image processing using the coaxial illumination image and the oblique illumination image, that is, for example, the identification result (detection result) of a specific region on the surgical field image. .
  • the microscope control unit 124 controls the illumination such as the coaxial illumination and the oblique illumination by the image acquisition unit 121 based on the result of the image processing or the like, or acquires the coaxial illumination image and the oblique illumination image by the image acquisition unit 121 (photographing). ).
  • timing of illumination and adjustment of illumination intensity can be controlled.
  • control of the timing of photographing a coaxial illumination image or oblique illumination image control of the timing of photographing a coaxial illumination image or oblique illumination image, exposure control (exposure control), control of a photographing position, and the like can be performed.
  • the coaxial illumination light and the oblique illumination light are light in different wavelength bands, for example, spectroscopy is performed by a prism or the like, and the eye state at the same time is completely acquired as a coaxial illumination image and an oblique illumination image. be able to. That is, the coaxial illumination image and the oblique illumination image at the same time can be acquired separately.
  • the image acquisition unit 121 can be configured as shown in FIG. 7, for example.
  • parts corresponding to those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the image acquisition unit 121 includes an infrared light source 151, a visible light source 152, an infrared cut film 153, a half mirror 154, and a photographing unit 155.
  • the infrared light source 151 is an oblique illumination light source that performs oblique illumination by irradiating the eye E11 to be operated with infrared light as oblique illumination light.
  • An optical system that guides oblique illumination light to the eye E11 may be provided between the infrared light source 151 and the eye E11 in the image acquisition unit 121.
  • the visible light source 152 is a coaxial illumination light source that performs coaxial illumination by irradiating the eye E11 to be operated with visible light as coaxial illumination light. That is, the coaxial illumination light output from the visible light source 152 enters the half mirror 154 via the infrared cut film 153, is reflected by the half mirror 154, and enters the eye E11.
  • the infrared light component contained in the coaxial illumination light is removed (cut) by the infrared cut film 153. That is, only the visible light component of the coaxial illumination light passes through the infrared cut film 153.
  • a coaxial illumination optical system that includes the half mirror 154 and other optical elements and guides the coaxial illumination light to the eye E11 is provided. It has been.
  • a part of the coaxial illumination optical system is an optical system that is common to a part of the observation optical system (imaging optical system) for observing the eye E11 by the imaging unit 155, thereby realizing the coaxial illumination. Yes.
  • the coaxial illumination light irradiated to the eye E11 is reflected by, for example, the anterior capsule, the posterior capsule, the retina, etc. of the eye E11 and enters the imaging unit 155 via the half mirror 154.
  • the half mirror 154 reflects half of the coaxial illumination light incident from the visible light source 152 via the infrared cut film 153 and enters the eye E11, and transmits the remaining half of the incident coaxial illumination light.
  • the half mirror 154 transmits half of the oblique illumination light and the coaxial illumination light incident from the eye E11 to enter the imaging unit 155 and reflects the other half of the oblique illumination light and the coaxial illumination light.
  • the photographing unit 155 outputs the coaxial illumination image and the oblique illumination image obtained by photographing to the image processing unit 123.
  • the photographing unit 155 can be an image sensor having a pixel arrangement as shown in FIG.
  • the imaging element 181 shown in FIG. 8 is a W pixel introduction sensor in which a color filter is provided for each pixel on the surface of the pixel light receiving unit.
  • a color filter is provided for each pixel on the surface of the pixel light receiving unit.
  • one square represents one pixel, and characters in these pixels indicate color filters provided in those pixels.
  • the pixel with the letter “R” is a pixel (hereinafter also referred to as an R pixel) that is provided with a color filter that transmits R component light, that is, red light, and receives R component light.
  • the pixel marked with the letter “W” is provided with a color filter that transmits W component light, that is, light in the entire wavelength band (white light), and receives the W component light (hereinafter referred to as W pixel). Also called).
  • the coaxial illumination light that is visible light and the oblique illumination light that is infrared light enter the image sensor 181 at the same time, so the image sensor 181 receives the light incident on the pixel via the color filter.
  • An image is taken by receiving light and performing photoelectric conversion.
  • infrared light can be obtained from data of three primary colors obtained by photoelectric conversion at the R pixel, G pixel, and B pixel and data obtained by photoelectric conversion at the W pixel. It is possible to obtain an image of visible light composed of RGB color components from which components are removed and an image of infrared light composed of only infrared light components.
  • the visible light image thus obtained is used as the coaxial illumination image, and the infrared light image is used as the oblique illumination image.
  • the upper-layer image sensor 211 is an image sensor in which a color filter is provided for each pixel on the surface of the pixel light receiving unit.
  • a color filter is provided for each pixel on the surface of the pixel light receiving unit.
  • one square represents one pixel, and characters in these pixels indicate color filters provided in those pixels.
  • the lower image sensor 212 arranged on the lower side is an image sensor having pixels of the same size as each pixel of the image sensor 211.
  • one square represents one pixel
  • a character “IR” in the pixel represents an infrared light component that is a light component received by the pixel.
  • each pixel of the image sensor 211 When visible light and infrared light are incident on each pixel of the image sensor 211, part of the visible light and infrared light is received by the pixel of the image sensor 211, and the remaining part of the incident light is imaged. The light passes through the pixel of the element 211 and enters the pixel of the imaging element 212.
  • components that pass through each pixel of the image sensor 211 are mainly infrared light components, and each pixel of the image sensor 212 receives infrared light components.
  • the coaxial illumination light which is visible light
  • the oblique illumination light which is infrared light
  • the image sensor 211 receives and photoelectrically converts the incident light. Take a picture.
  • the image sensor 212 receives the light transmitted through the image sensor 211 and photoelectrically converts it to capture an image.
  • the imaging unit 155 shown in FIG. 10 includes a prism 241, an image sensor 242 and an image sensor 243.
  • the prism 241 is disposed so that the incident surface 251 of the prism 241 is located on the half mirror 154 side, that is, the light incident side, and the dichroic film 252 is formed on the surface of the prism 241 that faces the incident surface 251. Is provided.
  • the photographing unit 155 can optically separate the coaxial illumination light, which is visible light, and the oblique illumination light, which is infrared light, in the prism 241.
  • the coaxial illumination light and the oblique illumination light are transmitted through the incident surface 251 of the prism 241 and these lights enter the dichroic film 252, the oblique illumination light that is infrared light is reflected by the dichroic film 252 and is visible.
  • the coaxial illumination light that is light passes through the dichroic film 252.
  • the oblique illumination light reflected by the dichroic film 252 is further reflected by the incident surface 251 and enters the image sensor 242 that is an image sensor.
  • the image sensor 242 receives the oblique illumination light that has entered and photoelectrically converts the oblique illumination light, thereby obtaining an oblique illumination image composed only of the oblique illumination component. That is, an oblique illumination image is captured by the image sensor 242.
  • the coaxial illumination light transmitted through the dichroic film 252 enters the image sensor 243 that is an image sensor.
  • the image sensor 243 receives the incident coaxial illumination light and photoelectrically converts it, thereby acquiring a coaxial illumination image consisting only of the component of the coaxial illumination light. That is, a coaxial illumination image is taken by the image sensor 243.
  • dichroic film 252 reflects infrared light here, visible light may be reflected by the dichroic film 252.
  • the coaxial illumination light incident on the prism 241 is reflected by the dichroic film 252, further reflected by the incident surface 251, and then incident on the image sensor 242.
  • the oblique illumination light incident on the prism 241 passes through the dichroic film 252 and enters the image sensor 243. Therefore, in this case, a coaxial illumination image is captured by the image sensor 242 and an oblique illumination image is captured by the image sensor 243.
  • the photographing unit 155 optically separates the coaxial illumination light and the oblique illumination light before photographing, the photographing unit 155 can be configured as shown in FIG. In FIG. 11, parts corresponding to those in FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the filter 282 is disposed between the half mirror 281 and the image sensor 243, and the filter 283 is disposed between the incident surface 251 and the image sensor 242.
  • the coaxial illumination light out of the coaxial illumination light and the oblique illumination light incident on the filter 282 is cut by the filter 282, and only the oblique illumination light passes through the filter 282 and enters the image sensor 243. Further, the oblique illumination light of the coaxial illumination light and the oblique illumination light incident on the filter 283 is cut by the filter 283, and only the coaxial illumination light passes through the filter 283 and enters the image sensor 242.
  • an oblique illumination image is captured by the image sensor 243, and a coaxial illumination image is captured by the image sensor 242.
  • the oblique illumination image may be captured by the image sensor 242 and the coaxial illumination image may be captured by the image sensor 243.
  • the filter 282 is a band pass filter that passes the wavelength band of visible light
  • the filter 283 is a visible light cut filter.
  • the configuration of the ophthalmic video microscope 111 can be configured to perform shooting and image processing in conjunction with illumination by an illumination light source that can be turned on and off at high speed.
  • the illumination light source that can turn on and off the light at high speed is used as the light source for the coaxial illumination light and the oblique illumination light, and the coaxial illumination light and the oblique illumination light are irradiated to the eye to be operated at different timings
  • the coaxial illumination image and the oblique illumination image can be acquired in a time division manner.
  • the coaxial illumination image and the oblique illumination image can be acquired in a time-division manner by photographing at a high frame rate with a single camera in synchronization with turning on and off of the light source.
  • an even frame of a video (moving image) obtained by shooting may be an oblique illumination image
  • an odd frame may be a coaxial illumination image.
  • the image acquisition unit 121 When acquiring the coaxial illumination image and the oblique illumination image in a time-sharing manner, the image acquisition unit 121 is configured as shown in FIG. 12, for example.
  • FIG. 12 portions corresponding to those in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the visible light source 311 emits visible light as oblique illumination light
  • the visible light source 152 emits visible light as coaxial illumination light.
  • the visible light source 311 is an oblique illumination light source that performs oblique illumination by irradiating the eye E11 to be operated with visible light as oblique illumination light.
  • the oblique illumination light irradiated to the eye E11 is reflected by, for example, the anterior capsule or the posterior capsule of the eye E11 and enters the imaging unit 312 via the half mirror 154.
  • the photographing unit 312 is a camera that can photograph a moving image of visible light at a high frame rate, and extracts a coaxial illumination image and an oblique illumination image from the photographed moving image and supplies them to the image processing unit 123. .
  • the microscope control unit 124 When photographing the coaxial illumination image and the oblique illumination image, the microscope control unit 124 turns on and off the visible light source 311 and the visible light source 152 alternately at high speed.
  • the microscope control unit 124 outputs oblique illumination light from the visible light source 311 and does not output coaxial illumination from the visible light source 152, and does not output oblique illumination light from the visible light source 311.
  • the visible light source 311 and the visible light source 152 are controlled so that the coaxial illumination output state in which the coaxial illumination light is output from the visible light source 152 is alternately switched at high speed.
  • the microscope control unit 124 causes the photographing unit 312 to capture a moving image in synchronization with switching between the oblique illumination output state and the coaxial illumination output state. That is, the shooting of the moving image by the imaging unit 312 is controlled so that the period of the oblique illumination output state is a period of one frame of the moving image and the period of the coaxial illumination output state is a period of another frame. .
  • the coaxial illumination image and the oblique illumination image are alternately acquired for each frame.
  • the coaxial illumination image is acquired for two frames
  • the oblique illumination image is acquired for one frame.
  • the coaxial illumination light and the oblique illumination light are light having the same wavelength
  • the coaxial illumination light and the oblique illumination light may be light having different wavelengths.
  • the surgical field image obtained as a processing result in the image processing unit 123 is supplied to the display unit 112 and displayed, or based on the processing result in the image processing unit 123, the microscope control unit 124 performs an image acquisition unit.
  • the operation of 121 is controlled.
  • the image processing unit 123 uses the coaxial illumination image and the oblique illumination image to perform a technique with high visibility for each procedure by image processing.
  • a field image or the like can be generated. As a result, a good surgical field can be obtained more easily, and as a result, the surgeon can perform the operation more comfortably.
  • the coaxial illumination and the oblique illumination are simultaneously performed, and the balance of the illumination intensity in these illuminations is adjusted.
  • the coaxial illumination image and the oblique illumination image are individually acquired, the coaxial illumination image and the oblique illumination image are arbitrarily divided by image processing, that is, arbitrarily mixed. It can be mixed at a ratio to obtain an operative field image.
  • the microscope system 101 can also adjust the balance between the intensity of the coaxial illumination and the intensity of the oblique illumination by image processing.
  • the operative field image can be obtained by mixing the pixel values of the pixels having the same positional relationship between the coaxial illumination image and the oblique illumination image at an arbitrary mixing ratio, that is, by performing weighted addition.
  • the target pixel of the operative field image to be obtained is the target pixel
  • the pixel value of the pixel of interest can be obtained by performing weighted addition with the weight determined by the mixing ratio with the pixel value of the pixel.
  • the coaxial illumination image is a visible light image
  • the oblique illumination image is an infrared light image, that is, a monochrome image.
  • a colored operative field image can be obtained by mixing the luminance image and the oblique illumination image that constitute the coaxial illumination image.
  • the color coaxial illumination image which is a visible light image, as necessary to obtain a coaxial illumination image including a Y image, a Cb image, and a Cr image.
  • the Y image is a luminance image composed of a Y component (luminance component)
  • the Cb image is a color difference image composed of a Cb component (blue color difference component)
  • the Cr image is a Cr component (red color difference component). It is the image of the color difference which consists of.
  • the operation field is generated from the coaxial illumination image that is a visible light image and the oblique illumination image, and the coaxial illumination image that is a visible light image and the oblique illumination image that is an infrared light image.
  • the process for generating an image is also referred to as a mixing process without particular distinction. That is, even when the surgical field image is generated from the oblique illumination image that is a monochrome image and the coaxial illumination image that is a visible light image, it is also simply referred to as mixing the oblique illumination image and the coaxial illumination image.
  • object recognition image recognition
  • the region of the specific part of the eye is identified (detected) by comparing the coaxial illumination image and the oblique illumination image to identify the pupil region, and the like. You may make it determine the mixing ratio of each area
  • the mixing ratio when the mixing ratio is determined for each region, at least one of the coaxial illumination image and the oblique illumination image is used to detect the region of the surgical instrument or the specific part of the eye, and based on the detection result.
  • the mixing ratio of each region may be determined.
  • the surgical field image may be generated after performing edge enhancement processing as image processing on at least one of the coaxial illumination image and the oblique illumination image.
  • the coaxial illumination image subjected to edge enhancement processing and the oblique illumination image not subjected to edge enhancement processing are mixed to produce oblique illumination. It is also possible to obtain an operative field image that emphasizes the visibility of the transparent body without enhancing the edge component of the shadow. In this way, a surgical field image with higher visibility can be obtained by appropriately performing edge enhancement processing on the coaxial illumination image and the oblique illumination image according to the application.
  • edge enhancement processing is performed as an example of image processing
  • other display enhancement processing such as contrast enhancement processing may be performed.
  • the mixing ratio for each region or the entire image, the presence or absence of edge emphasis processing, etc. in the mixing process described above is changed according to the presentation destination of the operator or observer who presents the operative field image, that is, the use of the operative field image can do.
  • the presentation destination of the operator or observer who presents the operative field image that is, the use of the operative field image can do.
  • the synthesis mode is made different depending on the operation process (procedure).
  • the mixing ratio and the strength and presence / absence of edge enhancement processing may be changed for each step such as incision of the anterior capsule, ultrasonic lens emulsification and suction, and intraocular lens insertion.
  • step S11 the image acquisition unit 121 acquires the coaxial illumination image and the oblique illumination image according to the control of the microscope control unit 124, and supplies them to the image processing unit 123.
  • the microscope control unit 124 controls the infrared light source 151 and the visible light source 152 to simultaneously apply oblique illumination light and coaxial illumination light to the eye to be operated. Irradiate. That is, control is performed so that coaxial illumination and oblique illumination are performed simultaneously.
  • the imaging unit 155 obtains an oblique illumination image and a coaxial illumination image by optically separating the oblique illumination light and the coaxial illumination light incident from the eye to be operated, or simultaneously receiving and photoelectrically converting the oblique illumination light and the coaxial illumination light. .
  • the microscope control unit 124 controls the visible light source 311 and the visible light source 152 to generate oblique illumination light and coaxial illumination light for the eye to be operated. Irradiate alternately. That is, control is performed so that coaxial illumination and oblique illumination are alternately performed.
  • the imaging unit 312 receives oblique illumination light or coaxial illumination light incident from the eye to be operated and performs photoelectric conversion, thereby obtaining an oblique illumination image and a coaxial illumination image in a time-sharing manner.
  • step S12 the image processing unit 123 selects a synthesis mode.
  • the image processing unit 123 selects a synthesis mode based on a signal supplied from an input operation unit (not shown) in response to an input operation by an operator or the like.
  • the surgical process may be specified by the image processing unit 123 performing image recognition on the coaxial illumination image or the oblique illumination image supplied from the image acquisition unit 121, or an operation input by an operator or the like. You may make it identify based on.
  • composition mode may be selected, or a plurality of composition modes may be selected.
  • synthesis mode it is assumed that only one synthesis mode is selected. However, when a plurality of synthesis modes are selected, the processing from step S13 to step S15 described below is performed for each synthesis mode.
  • step S13 the image processing unit 123 performs edge enhancement processing on the coaxial illumination image and the oblique illumination image supplied from the image acquisition unit 121 as necessary based on the combination mode selected in step S12.
  • whether to perform edge enhancement processing for each of the coaxial illumination image and the oblique illumination image is determined based on the synthesis mode. Specifically, for example, when the observation mode is selected as the synthesis mode, the edge enhancement process is performed on the coaxial illumination image, and the edge enhancement process is not performed on the oblique illumination image. .
  • step S14 the image processing unit 123 determines the mixing ratio of the coaxial illumination image and the oblique illumination image based on the synthesis mode selected in step S12.
  • the image processing unit 123 performs object recognition or the like to detect a surgical tool or a specific part of the eye from the coaxial illumination image or the oblique illumination image, and determines the mixing ratio for each region according to the detection result. Also good. For example, it is assumed that the operation mode in which the operation process is ultrasonic lens emulsification and suction is selected as the synthesis mode. In this case, for example, the image processing unit 123 makes the mixing ratio of the oblique illumination image higher than that of the coaxial illumination image, and in particular, the area including the surgical instrument in the oblique illumination image has a higher mixing ratio than the other areas. The mixing ratio is determined as follows.
  • step S13 and step S14 may be performed simultaneously.
  • step S15 the image processing unit 123 mixes the coaxial illumination image and the oblique illumination image, which have been subjected to edge enhancement processing as necessary in step S13, at the mixing ratio determined in step S14, and the operative field image. Generate.
  • the oblique illumination image is an infrared light image, as described above, the oblique illumination image and the Y image of the coaxial illumination image are mixed (synthesized) to generate the surgical field image.
  • the microscope system 101 acquires the coaxial illumination image and the oblique illumination image to generate the surgical field image.
  • the microscope system 101 acquires the coaxial illumination image and the oblique illumination image to generate the surgical field image.
  • ophthalmic microscopes sometimes use coaxial illumination, and a specular reflection component exists in the central part of the operative field. This has led to a decrease in visibility of the operative field even in the ophthalmic optical microscope, but in the case of the ophthalmic video microscope, the information on the operative field may disappear due to the occurrence of whiteout.
  • the microscope system 101 only the specular reflection of the coaxial illumination light exists in the coaxial illumination image, for example, as shown in FIG. 14, and only the specular reflection of the oblique illumination light, for example, as shown in FIG. Exists. Further, in the surgical field image, for example, as shown in FIG. 16, there is specular reflection of coaxial illumination light and oblique illumination light. 14 to 16, the same reference numerals are given to the portions corresponding to those in FIG. 4, and the description thereof will be omitted as appropriate.
  • FIG. 15 shows an oblique illumination image.
  • the portion indicated by the arrow Q61 at the approximate center of the oblique illumination image is whiteout or close to whiteout due to specular reflection of oblique illumination light on the cornea surface or the like.
  • FIG. 16 shows an operative field image.
  • a portion indicated by an arrow Q71 in the approximate center of the operative field image has a specular reflection region due to specular reflection on the corneal surface of coaxial illumination light and oblique illumination light, The visibility in those specular reflection areas is reduced.
  • the image processing unit 123 can remove the influence of the specular reflection in the specular reflection region of the oblique illumination image by using the image information of the coaxial illumination image. On the contrary, if the image information of the oblique illumination image is used, the influence of the specular reflection in the specular reflection region of the coaxial illumination image can be removed. Accordingly, the image processing unit 123 can obtain an operation field image in which the influence of specular reflection is reduced, that is, the component of specular reflection is removed.
  • the coaxial illumination image and the oblique illumination image there is an area in which only one of the images has a whiteout brightness value or a brightness value close to whiteout, that is, an area in which the brightness value is equal to or greater than a threshold value.
  • the specular reflection area is an area in which only one of the images has a whiteout brightness value or a brightness value close to whiteout, that is, an area in which the brightness value is equal to or greater than a threshold value.
  • the mixing ratio is determined for each area according to the detection result of the specular reflection area, and an operation field image is generated by the mixing process.
  • both the coaxial illumination image and the oblique illumination image are visible light images.
  • the mixing ratio of the coaxial illumination image is substantially 0, and only the oblique illumination image is substantially used to generate the surgical field image.
  • the mixture ratio of the oblique illumination image is substantially 0, and the operation field image is generated using substantially only the coaxial illumination image.
  • the coaxial illumination image is a visible light image and the oblique illumination image is an infrared light image.
  • the mixing ratio of the Y image of the coaxial illumination image is substantially 0, and substantially only the oblique illumination image is used to generate a mixed luminance image.
  • the mixture ratio of the oblique illumination image is substantially 0, and substantially only the Y image of the coaxial illumination image is used to generate a mixed luminance image.
  • a surgical field image is generated from the obtained mixed luminance image and the Cb image and Cr image of the coaxial illumination image. Thereby, an operation field image without a specular reflection area can be obtained.
  • the image processing unit 123 performs a gain adjustment by multiplying the coaxial illumination image and the oblique illumination image by multiplying the digital gain, and then performing a mixing process or the like, the mirror surface of the coaxial illumination image or the oblique illumination image is used.
  • the occurrence of overexposure can be suppressed by reducing the digital gain in the reflection area.
  • step S41 a specular reflection component removal process performed by the microscope system 101 when generating a specular reflection component, that is, an operation field image with reduced whiteout will be described with reference to a flowchart of FIG.
  • the process in step S41 is the same as the process in step S11 in FIG.
  • the image processing unit 123 compares the coaxial illumination image and the oblique illumination image for each pixel, and the luminance value of the pixel in the coaxial illumination image is equal to or greater than the threshold value, but the oblique illumination image having the same positional relationship as that pixel.
  • a region of a pixel having a luminance value of less than a threshold is detected as a specular reflection region.
  • the image processing unit 123 compares the coaxial illumination image and the oblique illumination image for each pixel, and the luminance value of the pixel in the oblique illumination image is equal to or greater than the threshold value, but the coaxial illumination image has the same positional relationship as that pixel.
  • a region of a pixel having a luminance value of less than a threshold is detected as a specular reflection region.
  • a specular reflection area is an area where a difference value of luminance values of pixels having the same positional relationship between a coaxial illumination image and an oblique illumination image is a threshold value or more. Good.
  • step S44 the image processing unit 123 generates a surgical field image in which the specular reflection component is reduced based on the detection result of the specular reflection area of the coaxial illumination image and the oblique illumination image.
  • the image processing unit 123 uses only the oblique illumination image for the region that is the specular reflection region in the coaxial illumination image, and the region that is the specular reflection region in the oblique illumination image.
  • the mixing ratio is determined for each region so that only substantially coaxial illumination images are used.
  • the image processing unit 123 mixes the coaxial illumination image and the oblique illumination image based on the determined mixing ratio, and generates an operation field image in which the specular reflection component is reduced (removed).
  • the image processing unit 123 supplies the obtained operative field image to the display unit 112 for display, or supplies the operative field image to the image recording unit 122 for recording to remove the specular reflection component. Ends.
  • the microscope system 101 acquires the coaxial illumination image and the oblique illumination image, detects the specular reflection area, and generates the surgical field image based on the detection result. By doing in this way, an operation field image with little specular reflection and high visibility can be obtained, and as a result, the surgeon can perform an operation comfortably in a good operation field.
  • the image processing unit 123 can detect the pupil region easily and with high accuracy by comparing the coaxial illumination image and the oblique illumination image.
  • the luminance value of the pixel at the position (x, y) on the coaxial illumination image is expressed as YP (x, y).
  • YS luminance value of the pixel at the position (x, y) on the oblique illumination image
  • is a coefficient for correcting the difference in sensitivity of the coaxial illumination image
  • is a coefficient for correcting the difference in sensitivity of the oblique illumination image
  • I (x, y) ⁇ ⁇ YP (x, y) ⁇ ⁇ YS (x, y) (1)
  • the area in the pupil is the area that becomes the center of the surgical field, and the brightness of the surgical field also changes depending on the progress (process) of the surgery.
  • the pupil region is detected by the image processing unit 123
  • exposure control is performed according to the detected pupil region, or the pupil region is always the center of the operative field image. It is possible to perform shooting control such as controlling the shooting position. By doing in this way, the surgeon can obtain a surgical field with appropriate brightness, or can observe a surgical field image in which the pupil region is located at the center of the image, so that the operation can be performed comfortably. be able to.
  • guide information indicating the lens direction and the like are displayed together with the edge of the pupil region by superimposing it on the pupil region of the operative field image, or the lens direction with respect to the eyeball is specified.
  • the detection result of the pupil region may be used for a tracking process or the like.
  • step S71 is the same as the process in step S11 in FIG.
  • step S72 the image processing unit 123 performs a pupil region detection process based on the coaxial illumination image and the oblique illumination image supplied from the image acquisition unit 121.
  • the image processing unit 123 detects the pupil region by calculating the above-described equation (1) and comparing the luminance difference I (x, y) obtained as a result with the threshold value.
  • step S73 the image processing unit 123 determines whether or not a pupil region is detected as a result of the detection process in step S72.
  • step S73 If it is determined in step S73 that it has not been detected, then the process returns to step S71, and the above-described process is repeated.
  • step S73 when it is determined in step S73 that the pupil region has been detected, the image processing unit 123 supplies the detection result of the pupil region to the microscope control unit 124, and the process proceeds to step S74.
  • step S74 the microscope control unit 124 performs control according to the detection result of the pupil region supplied from the image processing unit 123.
  • the microscope control unit 124 performs exposure control when the image acquisition unit 121 captures the coaxial illumination image and the oblique illumination image so that the pupil region in the coaxial illumination image and the oblique illumination image has appropriate brightness. That is, the exposure time at the time of shooting is controlled.
  • the microscope control unit 124 physically tilts or translates the optical system so that the pupil region is positioned at the center of the image in the coaxial illumination image or the oblique illumination image. Controls the shooting position (shooting direction).
  • the microscope control unit 124 controls the image acquisition unit 121 so that the captured image is trimmed so that the pupil region is positioned at the center of the image in the coaxial illumination image or the oblique illumination image.
  • An image or an oblique illumination image may be generated.
  • the image processing unit 123 generates, as guide information, an image showing an edge part (boundary part) of the pupil region or an image showing the direction of the intraocular lens at the pupil region position according to the detection result of the pupil region. You may make it perform the image process which superimposes guide information on an operative field image. In this case, the image processing unit 123 supplies the operative field image on which the guide information is superimposed to the display unit 112 for display. In addition, the image processing unit 123 may perform tracking processing of a specific part of the eye such as the pupil region based on the detection result of the pupil region.
  • step S75 the image processing unit 123 determines whether or not to end the process. If it is determined in step S75 that the process is not yet finished, the process returns to step S71, and the above-described process is repeated.
  • step S75 if it is determined in step S75 that the process is to be terminated, the pupil region detection process is terminated.
  • the microscope system 101 acquires the coaxial illumination image and the oblique illumination image, detects the pupil region, and performs control such as imaging control based on the detection result.
  • control such as imaging control based on the detection result.
  • an operation field image with appropriate brightness can be obtained, or the pupil can be observed at the center of the operation field, so that the operator can perform a comfortable operation in a good operation field. It can be performed.
  • Image acquisition and information presentation utilizing wavelength characteristics Furthermore, for example, when the image acquisition unit 121 has the configuration shown in FIG. 7, image processing using information obtained from an infrared light image can be performed.
  • information that cannot be obtained from the visible light image can be obtained from the captured image.
  • Information can be used for image processing.
  • an oblique illumination image that is an infrared light image can be obtained. Therefore, if this oblique illumination image and the coaxial illumination image are mixed to generate a surgical field image, the visibility of the scleral valve portion provided with the outflow channel of the aqueous humor can be improved, and a better technique can be achieved. You can get a field. Therefore, the surgeon can perform the operation more comfortably by performing the operation while viewing such an operative field image.
  • the image processing unit 123 detects the edge of the scleral valve from the oblique illumination image that is an infrared light image, and superimposes the guide information by superimposing information indicating the detected edge portion on the coaxial illumination image. It is also possible to perform image processing to obtain a operative field image. Accordingly, appropriate guide information can be presented without staining the patient's eyeball, and the operator can perform the operation more comfortably.
  • the coaxial illumination image and the oblique illumination image are separately acquired, so that a good surgical field can be easily obtained by subsequent image processing, or more appropriate imaging control can be performed.
  • the surgeon can perform the operation comfortably.
  • the following advantages (1) to (4) can be obtained.
  • Advantage (2) Generation of an operative field image in which the degree of influence of illumination is changed for each region. For example, if the operative field image generation processing described with reference to FIG. 13 is performed, a stereoscopic effect by shadow contrast and a contrast by transillumination are compatible. Can be obtained, making it easier to operate. In addition, by appropriately determining the mixing ratio in the mixing process, it is possible to obtain an operative field image in which important information is emphasized for each observer.
  • Detection of pupil region For example, if the pupil region detection processing described with reference to FIG. 18 is performed, the pupil region can be easily detected, and exposure control and photographing position are used using the detection result. A good surgical field can be obtained by controlling the above.
  • Advantage (4) Information acquisition by specific wavelength component For example, as in the above-described example of improving the visibility of the outflow path of aqueous humor, visible light such as infrared light is captured to capture visible light. Information useful for surgery that cannot be obtained from images can be obtained. By appropriately superimposing and displaying the information obtained in this way on the surgical field image, the surgeon can perform the operation more comfortably.
  • the above-described series of processing can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose computer capable of executing various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 19 is a block diagram showing an example of a hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 505 is further connected to the bus 504.
  • An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an image sensor, and the like.
  • the output unit 507 includes a display, a speaker, and the like.
  • the recording unit 508 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 509 includes a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program recorded in the recording unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program, for example. Is performed.
  • the program executed by the computer (CPU 501) can be provided by being recorded in a removable recording medium 511 as a package medium or the like, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Further, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the present technology can be configured as follows.
  • An image acquisition unit for acquiring a coaxial illumination image obtained by performing coaxial illumination on the eye to be operated, and an oblique illumination image obtained by performing oblique illumination on the eye;
  • An image processing unit that generates a surgical field image of the eye based on the coaxial illumination image and the oblique illumination image, or detects a specific region based on at least one of the coaxial illumination image and the oblique illumination image;
  • An image processing apparatus comprising: (2) The coaxial illumination light of the coaxial illumination and the oblique illumination light of the oblique illumination are light having different wavelengths,
  • the image processing unit according to any one of (1) to (5), wherein the image processing unit generates the surgical field image by mixing the coaxial illumination image and the oblique illumination image at a predetermined mixing ratio. . (7) The image processing device according to (6), wherein the image processing unit determines the mixing ratio for each region. (8) The image processing unit detects a region of a surgical instrument or a region of a specific part of the eye based on at least one of the coaxial illumination image and the oblique illumination image, and determines the region for each region based on the detection result. The image processing apparatus according to (7), wherein a mixing ratio is determined.
  • the image processing unit according to any one of (6) to (8), wherein the image processing unit determines the mixing ratio based on at least one of a use of the surgical field image and a step of the eye surgery. apparatus. (10) The image processing unit generates the operative field image after performing enhancement processing on at least one of the coaxial illumination image and the oblique illumination image. (6) to (9) Image processing apparatus. (11) The image processing unit determines whether to perform the enhancement processing for each of the coaxial illumination image and the oblique illumination image based on at least one of the use of the surgical field image and the eye surgery step. The image processing apparatus according to 10).
  • the image processing unit detects a specular reflection region based on the coaxial illumination image and the oblique illumination image, and generates the surgical field image in which the specular reflection component is reduced based on the detection result.
  • the image processing apparatus according to any one of 11).
  • the image processing device according to any one of (1) to (12), wherein the image processing unit detects a region of a specific part of the eye as the specific region.
  • the image processing unit detects the pupil region of the eye by comparing the coaxial illumination image and the oblique illumination image.
  • the image processing apparatus according to (13) or (14), further including a control unit that performs imaging control of the coaxial illumination image and the oblique illumination image based on a detection result of the region of the specific part.
  • a control unit that performs imaging control of the coaxial illumination image and the oblique illumination image based on a detection result of the region of the specific part.
  • the control unit performs exposure control or control of a shooting position as the shooting control.
  • the image processing unit generates guide information for assisting surgery of the eye based on a detection result of the region of the specific part of the eye (13) to (16).
  • Image processing device
  • a coaxial illumination light source for irradiating coaxial illumination light to the eye to be operated and performing coaxial illumination
  • An oblique illumination light source that irradiates oblique illumination light to the eye and performs oblique illumination
  • An image acquisition unit for acquiring a coaxial illumination image obtained by performing the coaxial illumination, and an oblique illumination image obtained by performing the oblique illumination
  • An image processing unit that generates a surgical field image of the eye based on the coaxial illumination image and the oblique illumination image, or detects a specific region based on at least one of the coaxial illumination image and the oblique illumination image
  • a surgical microscope system comprising:

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Vascular Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Eye Examination Apparatus (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

本技術は、より快適に手術を行うことができるようにする画像処理装置および方法、並びに手術顕微鏡システムに関する。 画像処理装置は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、同軸照明画像および斜照明画像に基づいて眼の術野画像を生成するか、または同軸照明画像および斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。本技術は顕微鏡システムに適用することができる。

Description

画像処理装置および方法、並びに手術顕微鏡システム
 本技術は画像処理装置および方法、並びに手術顕微鏡システムに関し、特に、より快適に手術を行うことができるようにした画像処理装置および方法、並びに手術顕微鏡システムに関する。
 従来、眼科用の顕微鏡が知られている。例えば眼科用の顕微鏡に関する技術として、施術対象の眼について術中に取得された画像に対して画像認識を行い、その認識結果に基づいて施術対象の眼の断層面を決定することで、適切な断層画像を得ることができるようにしたものが提案されている(例えば、特許文献1参照)。
特開2016-73409号公報
 ところで、眼科用の顕微鏡においては、観察対象となる眼に対して顕微鏡の観察光学系の光軸方向から照明光を照射する同軸照明と、観察光学系の光軸方向とは異なる方向から照明光を照射する斜照明とを同時に行って、手術対象の眼を観察することが一般的である。
 これは、同軸照明を行うことで徹照を得て、水晶体の前嚢や後嚢を良好なコントラストで観察することができ、斜照明を行うことで良好なシャドーコントラストを得て術野を立体的に観察することができるからである。
 しかしながら、同軸照明と斜照明を行って手術対象の眼を観察する場合、手術の工程ごと、つまり手技ごとに同軸照明と斜照明の最適な照明強度は異なる。そのため、良好な術野を得るためには、眼の手術中に工程ごとに同軸照明と斜照明の照明強度の調整を行わなければならず、手間が発生してしまう。そうすると、術者等が快適に手術を行うことができなくなってしまう。
 本技術は、このような状況に鑑みてなされたものであり、より快適に手術を行うことができるようにするものである。
 本技術の第1の側面の画像処理装置は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。
 前記同軸照明の同軸照明光と、前記斜照明の斜照明光とを互いに異なる波長の光とし、画像処理装置には前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに設けることができる。
 前記画像取得部には、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得させることができる。
 前記画像取得部には、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得させることができる。
 画像処理装置には、前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに設け、前記画像取得部には、前記同軸照明画像と前記斜照明画像とを時分割で取得させることができる。
 前記画像処理部には、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合させて前記術野画像を生成させることができる。
 前記画像処理部には、領域ごとに前記混合比率を決定させることができる。
 前記画像処理部には、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出させ、その検出結果に基づいて領域ごとに前記混合比率を決定させることができる。
 前記画像処理部には、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定させることができる。
 前記画像処理部には、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行わせてから前記術野画像を生成させることができる。
 前記画像処理部には、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定させることができる。
 前記画像処理部には、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出させ、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成させることができる。
 前記画像処理部には、前記特定領域として前記眼の特定部位の領域を検出させることができる。
 前記画像処理部には、前記同軸照明画像と前記斜照明画像とを比較させて、前記眼の瞳孔領域を検出させることができる。
 画像処理装置には、前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに設けることができる。
 前記制御部には、前記撮影制御として露出制御または撮影位置の制御を行わせることができる。
 前記画像処理部には、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成させることができる。
 本技術の第1の側面の画像処理方法は、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出するステップを含む。
 本技術の第1の側面においては、手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像が取得され、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像が生成されるか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域が検出される。
 本技術の第2の側面の手術顕微鏡システムは、手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部とを備える。
 本技術の第2の側面においては、手術対象の眼に対して同軸照明光が照射されて同軸照明が行われ、前記眼に対して斜照明光が照射されて斜照明が行われ、前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像が取得され、前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像が生成されるか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域が検出される。
 本技術の第1の側面および第2の側面によれば、より快適に手術を行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
一般的な眼科用の顕微鏡について説明する図である。 斜照明により観察される術野について説明する図である。 同軸照明により観察される術野について説明する図である。 同軸照明により観察される術野での影の視認性について説明する図である。 同軸照明と斜照明により観察される術野での影の視認性について説明する図である。 顕微鏡システムの構成例を示す図である。 画像取得部の構成例を示す図である。 撮影部の構成例を示す図である。 撮影部の他の構成例を示す図である。 撮影部の他の構成例を示す図である。 撮影部の他の構成例を示す図である。 画像取得部の他の構成例を示す図である。 術野画像生成処理を説明するフローチャートである。 同軸照明画像での鏡面反射領域について説明する図である。 斜照明画像での鏡面反射領域について説明する図である。 術野画像での鏡面反射領域について説明する図である。 鏡面反射成分除去処理を説明するフローチャートである。 瞳孔領域検出処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術について〉
 本技術は、同軸照明により手術対象の眼を照明した状態で撮影された同軸照明画像と、斜照明により手術対象の眼を照明した状態で撮影された斜照明画像とを取得することで、同軸照明による映像と斜照明による映像を分離取得することができるようにするものである。これにより、例えば、より簡単に良好な術野を得ることができ、術者等はより快適に手術を行うことができるようになる。
 例えば、一般的な眼科用の顕微鏡においては、図1に示すように光軸と完全に同一の方向から被写体を照明する同軸照明と、光軸に対して4度乃至6度だけずれた方向から被写体を照明する斜照明とが存在する。
 図1は、一般的な眼科用の顕微鏡の光学系部分を示している。この例では、顕微鏡には接眼レンズの光学系である光学系11-1および光学系11-2とともに、斜照明用の光源12が設けられている。なお、以下、光学系11-1および光学系11-2を特に区別する必要のない場合、単に光学系11とも称する。
 光学系11-1および光学系11-2は、手術対象の眼を観察するための観察光学系となっており、被写体である眼の観察時にはこれらの光学系11の一部を介して眼に照明光が照射される。このような観察光学系の光軸方向と同じ方向からの被写体の照明は同軸照明と呼ばれている。
 これに対して、眼科用の顕微鏡には光学系11とずれた位置に光源12が設けられており、手術対象の眼の観察時には光源12によっても被写体である眼に対して照明光が照射される。光源12による照明は、観察光学系である光学系11の光軸方向とは4度乃至6度だけずれた方向からの照明となり、このような照明は斜照明と呼ばれている。
 照明として斜照明のみを行った場合、徹照を得ることができないため、つまり網膜からの反射光を受光することができないため、例えば図2に示すように斜照明を行った状態で観察される術野では十分な視認性を得ることができない。
 図2は、斜照明を行った状態で観察される手術対象の眼の部分を示している。
 この例では、術野内では手術対象の眼に術具41が挿入された状態となっているが、照明として斜照明のみを行った状態であるため、眼の後嚢部分などが暗く、十分な視認性が得られていない。
 これに対して、同軸照明では徹照を得ることで、例えば図3に示すように透明な水晶体の前嚢や後嚢の観察によいコントラストを得ることができる。しかし、その一方で同軸照明であるため十分なシャドーコントラストを得ることができない。なお、図3において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図3は、同軸照明を行った状態で観察される手術対象の眼の部分を示している。この例では、術野内では手術対象の眼に術具41が挿入された状態となっている。
 図3に示す術野の例では、矢印Q11に示す部分は眼の前嚢の縁の部分となっており、同軸照明であるため後嚢など眼の各部が明るく、高い視認性が得られている。例えば矢印Q12に示す部分では、術具41の挿入により生じた角膜表面の皺も確認することができる。
 しかし、この術野は同軸照明のみの照明となっているため、術野内では術具41等の影は観察されず、十分なシャドーコントラストを得ることができない。
 そのため、眼の手術時には、同軸照明と斜照明とを組み合わせて斜照明によりシャドーコントラストを得ることができるようにすることが一般的である。
 例えば図4に示すように、白内障手術における超音波水晶体乳化吸引時に同軸照明のみを行った状態での術野では、高い視認性を得ることができるが術具71等の影は観察されない。
 この例では、矢印Q21に示す部分は眼の前嚢の縁の部分となっており、同軸照明であるため後嚢など眼の各部で明るく高い視認性が得られている。しかし、術具71の影や、術具71の挿入によってできた溝の影などは観察されず、十分なシャドーコントラストが得られていない。
 これに対して、例えば図5に示すように、白内障手術における超音波水晶体乳化吸引時に同軸照明と斜照明を同時に行った状態での術野では、高い視認性を得ることができ、かつ十分なシャドーコントラストも得ることができる。なお、図5において図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図5に示す術野内では、術具71の挿入によってできた溝を観察することができ、さらにその溝の部分に影が見える状態となっている。つまり、十分なシャドーコントラストが得られている。術野を観察する術者等は、このような溝部分の影等の視覚情報から立体感を感じることができる。
 さて、例えば白内障手術においては、前嚢切開のようなコントラストが重要な手技と、超音波水晶体乳化吸引時の溝堀時のように立体感の情報もある程度必要な手技とが存在する。
 そのため、同軸照明の照明強度と、斜照明の照明強度とのベストなバランスは手技によって異なっており、手術時に良好な術野、つまり視野を得るためには手技ごとに、つまり手術の工程ごとに同軸照明と斜照明の照明強度を適宜調整する手間が発生する。換言すれば、簡単に良好な術野を得ることは困難であった。
 また、最近の眼科手術においては、光学顕微鏡の接眼部をカメラに置き換え、ディスプレイに表示された映像を見ながら手術をするヘッズアップサージェリ(Heads up Surgery)が存在する。ヘッズアップサージェリでは、画像処理を用いることがメリットとして挙げられており、例えば照明の光量を減らしたとしても、デジタルゲインにより明るい術野を得ることができる。
 しかし、ヘッズアップサージェリにおいても、接眼レンズでの目視による観察時と同様に同軸照明と斜照明の照明強度のバランス制御が必要となり、手間が発生してしまう。
 また、同軸照明の照明光と、斜照明の照明光とが混ざった映像しか得ることができないため、例えば画像処理により視認性を向上させるために、前嚢や後嚢のコントラストだけを上げたり、シャドーコントラストだけを上げたりすることは困難である。
 そこで、本技術では、同軸照明により手術対象の眼を照明した状態で撮影された同軸照明画像と、斜照明により手術対象の眼を照明した状態で撮影された斜照明画像とを取得することで、より簡単に良好な術野を得ることができるようにした。これにより、手術時の手間が少なくなり、術者等はより快適に手術を行うことができるようになる。
〈顕微鏡システムの構成例〉
 それでは、以下、本技術を適用した具体的な実施の形態について説明する。
 図6は、本技術を適用した顕微鏡システムの一実施の形態の構成例を示す図である。
 図6に示す顕微鏡システム101は、眼科ビデオ顕微鏡111、表示部112-1、および表示部112-2を有している。
 この顕微鏡システム101は、眼科ビデオ顕微鏡111において照明と連動した撮影および画像処理を行うことで、これまでの照明の下では得られなかった画像処理を可能にし、その結果、術者に対して良好な術野や、手術をサポートする情報を提供するものである。
 顕微鏡システム101においては、眼科ビデオ顕微鏡111に対して2つの表示部112-1および表示部112-2が接続されている。
 眼科ビデオ顕微鏡111は、手術対象、すなわち施術対象となる患者の眼を被写体として撮影を行い、患者の眼を被写体とする術野の画像を術野画像として生成する。また、眼科ビデオ顕微鏡111は、得られた術野画像を表示部112-1や表示部112-2に供給して表示させる。
 表示部112-1および表示部112-2は、例えば液晶ディスプレイなどからなり、眼科ビデオ顕微鏡111から供給された術野画像を表示する。以下では、表示部112-1および表示部112-2を特に区別する必要のない場合、単に表示部112とも称することとする。
 また、これらの表示部112は、用途が異なるディスプレイとされてもよい。例えば表示部112-1は、眼の手術を行う術者に対して術野を観察するための術野画像を提示するためのものとされ、表示部112-2は手術を観察したり監督したりするための観察者等に対して術野画像を提示するためのものとされてもよい。
 したがって、眼科ビデオ顕微鏡111では、表示部112ごとに異なる術野画像を生成して、得られた複数の術野画像のそれぞれを、複数の表示部112のそれぞれに供給することができる。
 なお、眼科ビデオ顕微鏡111に接続される表示部112の数は2つに限らず、いくつであってもよい。すなわち、眼科ビデオ顕微鏡111に1つの表示部112が接続されるようにしてもよいし、3以上の表示部112が接続されるようにしてもよい。
 また、眼科ビデオ顕微鏡111は、画像取得部121、画像記録部122、画像処理部123、および顕微鏡制御部124を有している。
 画像取得部121は、顕微鏡制御部124の制御に従って手術対象となる眼に照明光を照射し、眼を被写体とする画像を取得する。具体的には、画像取得部121は、同軸照明を行って得られる同軸照明画像と、斜照明を行って得られる斜照明画像とを取得して、画像記録部122および画像処理部123に供給する。
 ここで、同軸照明により手術対象の眼に対して照射される照明光を同軸照明光と称することとすると、同軸照明画像は、同軸照明光を被写体となる眼に照射し、その眼で反射された同軸照明光を受光して光電変換することにより得られる画像である。
 換言すれば、同軸照明画像は、斜照明を行わずに同軸照明のみを行った状態で撮影された手術対象の眼の画像であるともいうことができる。
 また、斜照明により手術対象の眼に対して照射される照明光を斜照明光と称することとすると、斜照明画像は、斜照明光を被写体となる眼に照射し、その眼で反射された斜照明光を受光して光電変換することにより得られる画像である。
 換言すれば、斜照明画像は、同軸照明を行わずに斜照明のみを行った状態で撮影された手術対象の眼の画像であるともいうことができる。
 なお、画像取得部121により取得された同軸照明画像および斜照明画像は、画像記録部122および画像処理部123のうちの何れか一方のみに供給されるようにしてもよい。例えば、同軸照明画像および斜照明画像が画像記録部122のみに供給される場合には、画像処理部123は、画像記録部122から同軸照明画像および斜照明画像を読み出して、画像処理等を行う。
 以下では、同軸照明画像および斜照明画像が少なくとも画像処理部123に供給されるものとして説明を続ける。
 画像記録部122は、画像取得部121から供給された同軸照明画像および斜照明画像を記録するとともに、必要に応じて記録している同軸照明画像および斜照明画像を画像処理部123に供給する。
 画像処理部123は、画像取得部121または画像記録部122から供給された同軸照明画像や斜照明画像に基づいて各種の画像処理を行う。
 例えば画像処理部123は、同軸照明画像および斜照明画像に基づいて術野画像を生成し、得られた術野画像を表示部112に供給して表示させる。なお、画像処理部123で得られた術野画像が画像記録部122に供給されて記録されるようにしてもよい。
 また、例えば画像処理部123は、同軸照明画像および斜照明画像の少なくとも何れか一方に基づいて、術具の領域や眼の特定部位の領域等の特定の領域を検出する処理を画像処理として行う。
 具体的には、例えば画像処理部123は、同軸照明画像および斜照明画像に基づいて術野画像上における手術対象の眼の所望部位の領域を特定(検出)し、さらにその特定結果に基づいて表示部112を制御して、手術の補助のためのガイド情報等を術野画像に重畳表示させることができる。
 さらに、例えば画像処理部123は、同軸照明画像および斜照明画像を用いた画像処理の結果、すなわち例えば術野画像上の特定部位の領域の特定結果(検出結果)を顕微鏡制御部124に供給する。
 顕微鏡制御部124は、画像処理部123から供給された画像処理の結果等に基づいて画像取得部121を制御する。
 例えば顕微鏡制御部124は、画像処理の結果等に基づいて、画像取得部121による同軸照明や斜照明などの照明を制御したり、画像取得部121による同軸照明画像や斜照明画像の取得(撮影)を制御したりする。
 具体的には、例えば照明制御として、照明を行うタイミングや照明強度の調整などを制御することができる。また、例えば画像の取得の制御として、同軸照明画像や斜照明画像の撮影のタイミングの制御や露出制御(露光制御)、撮影位置の制御などを行うことができる。
〈画像取得部の構成例1〉
 続いて、図6に示した画像取得部121の具体的な構成例について説明する。
 例えば眼科ビデオ顕微鏡111の構成を、互いに異なる波長の照明光による照明と連動した撮影および画像処理を行う構成とすることができる。
 そのような場合、同軸照明光と斜照明光とを互いに異なる波長の光として、同軸照明画像および斜照明画像の撮影を同時に行うことができる。
 ここでは、例えば同軸照明光は可視光、すなわち、より詳細には赤外光成分が除去(カット)された可視光成分の光とされ、斜照明光は赤外光とされるものとする。
 このように同軸照明光と斜照明光とを互いに異なる波長帯域の光とすれば、例えばプリズム等により分光を行って、完全に同一時刻の眼の状態を同軸照明画像および斜照明画像として取得することができる。すなわち、同一時刻の同軸照明画像と斜照明画像とを分離して取得することができる。
 具体的には、同軸照明光と斜照明光とを互いに異なる波長の光とする場合、画像取得部121は、例えば図7に示す構成とすることができる。なお、図7において図6における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図7に示す例では、画像取得部121は、赤外光源151、可視光源152、赤外カットフィルム153、ハーフミラー154、および撮影部155を有している。
 赤外光源151は、斜照明光として赤外光を手術対象の眼E11に対して照射し、斜照明を行う斜照明光源である。なお、画像取得部121における赤外光源151と眼E11との間には、斜照明光を眼E11へと導く光学系が設けられていてもよい。
 眼E11に照射された斜照明光は、例えば眼E11の前嚢や後嚢などにおいて反射され、ハーフミラー154を介して撮影部155に入射する。
 可視光源152は、同軸照明光として可視光を手術対象の眼E11に対して照射し、同軸照明を行う同軸照明光源である。すなわち、可視光源152から出力された同軸照明光は、赤外カットフィルム153を介してハーフミラー154に入射するとともに、ハーフミラー154で反射され、眼E11へと入射する。
 このとき、より詳細には同軸照明光に含まれる赤外光成分は、赤外カットフィルム153で除去(カット)される。すなわち、同軸照明光のうちの可視光成分のみが赤外カットフィルム153を透過する。
 また、より詳細には、画像取得部121における可視光源152と眼E11との間には、ハーフミラー154や他の光学素子からなる、同軸照明光を眼E11へと導く同軸照明光学系が設けられている。この同軸照明光学系の一部は、撮影部155により眼E11を観察するための観察光学系(撮影光学系)の一部と共通の光学系となっており、これにより同軸照明が実現されている。
 眼E11に照射された同軸照明光は、例えば眼E11の前嚢や後嚢、網膜などにおいて反射され、ハーフミラー154を介して撮影部155に入射する。
 赤外カットフィルム153は、赤外光成分をカットし、可視光成分のみを透過させるフィルタであり、可視光源152から入射した同軸照明光のうちの可視光成分のみを透過させてハーフミラー154へと入射させる。
 ハーフミラー154は、赤外カットフィルム153を介して可視光源152から入射した同軸照明光のうちの半分を反射して眼E11に入射させるとともに、入射した同軸照明光の残りの半分を透過させる。
 同様に、ハーフミラー154は、眼E11から入射した斜照明光および同軸照明光のうちの半分を透過させて撮影部155へと入射させるとともに、斜照明光および同軸照明光の残りの半分を反射させる。
 撮影部155は、ハーフミラー154を介して眼E11から入射した斜照明光および同軸照明光を受光して光電変換することで、斜照明画像および同軸照明画像を取得する。すなわち、撮影部155は、斜照明画像を撮影する赤外カメラとして機能するとともに、同軸照明画像を撮影する可視光カメラとしても機能する。
 撮影部155は、撮影により得られた同軸照明画像および斜照明画像を画像処理部123へと出力する。
〈撮影部の構成例1〉
 ここで、図7に示した撮影部155のより詳細な構成例について説明する。
 例えば撮影部155は、図8に示すような画素配列のイメージセンサ、すなわち撮像素子181を有するカメラとすることができる。
 図8に示す撮像素子181は、画素受光部の表面に、画素ごとにカラーフィルタが設けられたW画素導入センサとされている。ここでは、1つの四角形は1つの画素を表しており、それらの画素内の文字は、それらの画素に設けられたカラーフィルタを示している。
 すなわち、文字「R」が記された画素は、R成分の光、つまり赤色の光を透過させるカラーフィルタが設けられ、R成分の光を受光する画素(以下、R画素とも称する)である。
 また、文字「G」が記された画素は、G成分の光、つまり緑色の光を透過させるカラーフィルタが設けられ、G成分の光を受光する画素(以下、G画素とも称する)である。文字「B」が記された画素は、B成分の光、つまり青色の光を透過させるカラーフィルタが設けられ、B成分の光を受光する画素(以下、B画素とも称する)である。
 さらに、文字「W」が記された画素は、W成分の光、すなわち全波長帯域の光(白色光)を透過させるカラーフィルタが設けられ、W成分の光を受光する画素(以下、W画素とも称する)である。
 図8では、撮像素子181においてはR画素、G画素、B画素、およびW画素の各画素の配列はベイヤー配列の一部、より詳細にはベイヤー配列におけるG画素の一部をW画素に置き換えた配列とされている。
 画像取得時には、可視光である同軸照明光と、赤外光である斜照明光とが同時に撮像素子181に入射してくるので、撮像素子181はカラーフィルタを介して画素内に入射した光を受光して光電変換することで画像を撮影する。
 以上のような構成とすることで、R画素、G画素、およびB画素での光電変換で得られた3原色のデータと、W画素での光電変換で得られたデータとから、赤外光成分が除去されたRGBの各色成分からなる可視光の画像と、赤外光成分のみからなる赤外光の画像とを得ることができる。そして、このようにして得られた可視光の画像が同軸照明画像とされ、赤外光の画像が斜照明画像とされる。
 以上のように図8に示す撮像素子181からなるカメラを撮影部155とすれば、撮像素子181という単一のセンサで同軸照明画像と斜照明画像を分離して取得することができる。
〈撮影部の構成例2〉
 また、撮影部155を、例えば図9に示すようにセンサ部分を2層構造としたカメラとするようにしてもよい。
 図9に示す例では、撮影部155は互いに重ねられて配置されたイメージセンサである撮像素子211および撮像素子212を有している。特に、ここでは撮像素子211が撮影部155におけるハーフミラー154側、つまり光の入射側に配置されている。
 上層の撮像素子211は、画素受光部の表面に、画素ごとにカラーフィルタが設けられたイメージセンサとされている。ここでは、1つの四角形は1つの画素を表しており、それらの画素内の文字は、それらの画素に設けられたカラーフィルタを示している。
 すなわち、文字「R」が記された画素は、R成分の光を透過させるカラーフィルタが設けられたR画素を示しており、文字「G」が記された画素は、G成分の光を透過させるカラーフィルタが設けられたG画素を示している。また、文字「B」が記された画素は、B成分の光を透過させるカラーフィルタが設けられたB画素を示している。
 撮像素子211では、これらのR画素、G画素、およびB画素がベイヤー配列で配置されている。
 また、撮像素子211の図中、下側に配置された下層の撮像素子212は、撮像素子211の各画素と同じ大きさの画素を有するイメージセンサとなっている。なお、撮像素子212において、1つの四角形は1つの画素を表しており、それらの画素内の文字「IR」は、画素が受光する光の成分である赤外光成分を示している。
 撮像素子211の各画素に可視光と赤外光が入射すると、それらの可視光と赤外光の一部は撮像素子211の画素により受光され、それの入射した光の残りの一部が撮像素子211の画素を透過して撮像素子212の画素に入射する。
 特に、撮像素子211の各画素を透過する成分は主に赤外光成分となっており、撮像素子212の各画素では赤外光成分が受光される。
 画像取得時には、可視光である同軸照明光と、赤外光である斜照明光とが同時に撮像素子211に入射してくるので、撮像素子211は入射した光を受光して光電変換することで画像を撮影する。同時に、撮像素子212も撮像素子211を透過してきた光を受光して光電変換することで画像を撮影する。
 以上のような構成とすることで、撮像素子211の各画素での光電変換で得られたデータと、撮像素子212の各画素での光電変換で得られたデータとから、赤外光成分が除去されたRGBの各色成分からなる可視光の画像を得ることができる。また、例えば撮像素子212の各画素での光電変換で得られたデータから、赤外光成分のみからなる赤外光の画像を得ることができる。そして、このようにして得られた可視光の画像が同軸照明画像とされ、赤外光の画像が斜照明画像とされる。
〈撮影部の構成例3〉
 さらに、撮影部155は同軸照明光と斜照明光とを受光前、つまり撮影前に光学的に分離させる構成を有するカメラとされてもよい。すなわち、例えばダイクロイック膜と反射を組み合わせたプリズムで赤外光と可視光とを分離してもよい。
 そのような場合、撮影部155は、例えば図10に示すように構成される。
 図10に示す撮影部155は、プリズム241、撮像素子242、および撮像素子243を有している。
 この例では、プリズム241の入射面251がハーフミラー154側、つまり光の入射側に位置するようにプリズム241が配置されており、プリズム241における入射面251と対向する面の部分にダイクロイック膜252が設けられている。
 例えばダイクロイック膜252は、入射した光のうちの赤外光の波長よりも長い波長の光を反射させ、入射した光のうちの赤外光の波長よりも短い波長の光を透過させる。
 したがって、撮影部155では、プリズム241において可視光である同軸照明光と、赤外光である斜照明光とを光学的に分離させることができる。
 すなわち、同軸照明光と斜照明光とがプリズム241の入射面251を透過して、それらの光がダイクロイック膜252に入射すると、赤外光である斜照明光はダイクロイック膜252で反射され、可視光である同軸照明光はダイクロイック膜252を透過する。
 そして、ダイクロイック膜252で反射された斜照明光は、さらに入射面251で反射され、イメージセンサである撮像素子242に入射する。撮像素子242は、入射した斜照明光を受光して光電変換することにより、斜照明光の成分のみからなる斜照明画像を取得する。すなわち、撮像素子242によって斜照明画像が撮影される。
 これに対して、ダイクロイック膜252を透過した同軸照明光は、イメージセンサである撮像素子243に入射する。撮像素子243は、入射した同軸照明光を受光して光電変換することにより、同軸照明光の成分のみからなる同軸照明画像を取得する。すなわち、撮像素子243によって同軸照明画像が撮影される。
 なお、ここではダイクロイック膜252において赤外光が反射される構成としたが、ダイクロイック膜252において可視光が反射されるようにしてもよい。
 そのような場合、プリズム241に入射した同軸照明光は、ダイクロイック膜252において反射された後、さらに入射面251で反射され、撮像素子242に入射する。また、プリズム241に入射した斜照明光は、ダイクロイック膜252を透過して撮像素子243に入射する。したがって、この場合には、撮像素子242により同軸照明画像が撮影され、撮像素子243により斜照明画像が撮影されることになる。
〈撮影部の構成例4〉
 さらに、撮影部155において同軸照明光と斜照明光を撮影前に光学的に分離させる場合、撮影部155を図11に示す構成とすることもできる。なお、図11において図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図11に示す撮影部155は、プリズム241、ハーフミラー281、フィルタ282、フィルタ283、撮像素子242、および撮像素子243を有している。
 図11に示す撮影部155の構成は、図10に示した撮影部155のダイクロイック膜252に代えてハーフミラー281を配置し、さらにフィルタ282およびフィルタ283を設けた構成とされている。
 特に、図11に示す撮影部155では、ハーフミラー281と撮像素子243との間にフィルタ282が配置されており、入射面251と撮像素子242との間にフィルタ283が配置されている。
 ここで、フィルタ282は特定の波長帯域、例えば赤外光の波長帯域の光のみを透過させるバンドパスフィルタなどからなる。また、フィルタ283は、例えば赤外カットフィルタなどとされ、入射した光のうちの赤外光成分を除去(カット)し、それ以外の成分を透過させる。
 したがって、この例では同軸照明光と斜照明光とがプリズム241の入射面251を透過して、それらの光がハーフミラー281に入射すると、同軸照明光と斜照明光の半分はハーフミラー281を透過してフィルタ282へと入射する。一方、ハーフミラー281に入射した同軸照明光と斜照明光の残りの半分はハーフミラー281で反射し、さらに入射面251でも反射してフィルタ283へと入射する。
 そして、フィルタ282へと入射した同軸照明光と斜照明光のうちの同軸照明光はフィル282でカットされ、斜照明光のみがフィルタ282を透過して撮像素子243へと入射する。また、フィルタ283へと入射した同軸照明光と斜照明光のうちの斜照明光はフィル283でカットされ、同軸照明光のみがフィルタ283を透過して撮像素子242へと入射する。
 これにより、撮像素子243では斜照明画像が撮影され、撮像素子242では同軸照明画像が撮影されることになる。
 なお、ここでは撮像素子243で斜照明画像が撮影される例について説明したが、撮像素子242で斜照明画像が撮影され、撮像素子243で同軸照明画像が撮影されるようにしてもよい。そのような場合、フィルタ282は可視光の波長帯域を通過させるバンドパスフィルタとされ、フィルタ283は可視光カットフィルタとされる。
〈画像取得部の構成例2〉
 また、図6に示した画像取得部121の構成は、図7に示した構成に限らず、同軸照明画像と斜照明画像とを取得することができれば、他のどのような構成とされてもよい。
 例えば眼科ビデオ顕微鏡111の構成を、高速でオン、オフできる照明光源による照明と連動した撮影および画像処理を行う構成とすることができる。
 そのような場合、光の照射を高速にオン、オフできる照明光源を同軸照明光や斜照明光の光源として用いて、手術対象の眼に対して同軸照明光と斜照明光を異なるタイミングで照射し、時分割で同軸照明画像と斜照明画像を取得することができる。
 この場合、光源のオン、オフと同期して、1つのカメラにより高速なフレームレートで撮影を行うことで、同軸照明画像と斜照明画像を時分割で分離させて取得することができる。このとき、例えば撮影で得られる映像(動画像)の偶数フレームを斜照明画像とし、奇数フレームを同軸照明画像とするなどすればよい。
 このように同軸照明画像と斜照明画像を時分割で取得する場合、画像取得部121を図7に示した構成とする場合とは異なり、取得される同軸照明画像と斜照明画像とは、厳密には完全に同一時刻の映像とはならない。しかし、十分に高速なフレームレートで撮影を行うことで、同軸照明画像と斜照明画像の撮影時刻の差の影響を、例えば術者等の眼には気にならないレベルまで十分に小さくすることができる。また、この場合には、同軸照明画像と斜照明画像の両方の画像を可視光の画像とすることが可能である。
 同軸照明画像と斜照明画像を時分割で取得する場合、画像取得部121は、例えば図12に示すように構成される。なお、図12において図7における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図12に示す例では、画像取得部121は、可視光源311、可視光源152、ハーフミラー154、および撮影部312を有している。
 この例では、可視光源311は斜照明光として可視光を射出し、可視光源152は同軸照明光として可視光を射出する。
 図12に示す画像取得部121では、図7に示した赤外光源151に代えて可視光源311が設けられている。可視光源311は、斜照明光として可視光を手術対象の眼E11に対して照射し、斜照明を行う斜照明光源である。眼E11に照射された斜照明光は、例えば眼E11の前嚢や後嚢などにおいて反射され、ハーフミラー154を介して撮影部312に入射する。
 また、撮影部312は、可視光の動画像を高フレームレートで撮影可能なカメラなどとされ、撮影された動画像から同軸照明画像と斜照明画像とを抽出して画像処理部123に供給する。
 同軸照明画像と斜照明画像の撮影時には、顕微鏡制御部124は、可視光源311と可視光源152を高速で交互にオン、オフさせる。
 すなわち、顕微鏡制御部124は、可視光源311から斜照明光が出力され、かつ可視光源152からは同軸照明光が出力されない斜照明出力状態と、可視光源311からは斜照明光が出力されず、かつ可視光源152からは同軸照明光が出力される同軸照明出力状態とが高速で交互に切り替わるように、可視光源311と可視光源152を制御する。
 同時に、顕微鏡制御部124は斜照明出力状態と同軸照明出力状態の切り替えに同期させて、撮影部312に動画像を撮影させる。すなわち、斜照明出力状態の期間が動画像の1フレーム分の期間となり、同軸照明出力状態の期間が他の1フレーム分の期間となるように、撮影部312による動画像の撮影が制御される。
 これにより、撮影部312で得られた動画像における、例えば奇数フレームが同軸照明画像となり、偶数フレームが斜照明画像となる。撮影部312は、撮影された動画像の奇数フレームと偶数フレームとを分離させることで、同軸照明画像と斜照明画像を取得し、後段の画像処理部123へと出力する。
 なお、ここでは同軸照明画像と斜照明画像が1フレームずつ交互に取得される例について説明するが、例えば同軸照明画像が2フレーム分取得された後、斜照明画像が1フレーム分だけ取得されるなどしてもよい。
 また、ここでは同軸照明光と斜照明光とが同じ波長の光である例について説明したが、同軸照明光と斜照明光は互いに異なる波長の光であってもよい。
 以上のように画像取得部121を図7に示した構成としても、図12に示した構成としても、同軸照明画像と斜照明画像とを分離して取得することができる。
 同軸照明画像と斜照明画像の取得後、リアルタイムで画像処理を行う場合には、得られた同軸照明画像と斜照明画像が画像処理部123へと供給され、画像処理部123で各種の画像処理が行われる。例えば画像処理として、術野画像を生成する処理などが行われる。
 そして、画像処理部123での処理結果として得られた術野画像等が表示部112に供給されて表示されたり、画像処理部123での処理結果に基づいて、顕微鏡制御部124により画像取得部121の動作が制御されたりする。
 一方、例えばリアルタイムでの画像処理が行われない場合には、同軸照明画像と斜照明画像が個別に画像記録部122に供給され、記録される。そして、例えば手術等を見直す際などに、画像記録部122に記録された同軸照明画像と斜照明画像に基づいて画像処理部123で画像処理が行われ、その結果得られた術野画像等が表示部112に供給されて表示される。
 このようにして同軸照明画像と斜照明画像とを分離して取得することで、画像処理部123において、これらの同軸照明画像と斜照明画像とから、画像処理によって手技ごとに視認性の高い術野画像等を生成することができる。これにより、より簡単に良好な術野を得ることができ、その結果、術者等はより快適に手術を行うことができる。
 また、例えば同軸照明画像と斜照明画像とから画像処理によって手術対象の眼の特定の部位を検出することができる。この検出結果を用いれば、眼の手術に有用なガイドとなるガイド情報を提示したり、眼の特定部位に合わせた露出制御等の撮影制御を行ったりすることができ、術者等がより快適に手術を行うことができるようにすることができる。
〈術野画像生成処理の説明〉
 それでは、以下、顕微鏡システム101により実現される機能の例について、具体的に説明する。
 まず、顕微鏡システム101において、同軸照明画像と斜照明画像とから術野画像を生成する処理について説明する。
 顕微鏡システム101では、同軸照明により前嚢や後嚢について良好なコントラストが得られる同軸照明画像と、斜照明により十分なシャドーコントラストが得られる斜照明画像とを、手技ごとや観察者ごとに自由な混合比で混合(合成)し、視認性の高い、つまり良好な術野の術野画像を生成することが可能である。
 具体的には、同軸照明を行うと、徹照により術野内の透明体である前嚢や後嚢、角膜のコントラストが上がり、切開縁や後嚢の安定性などを確認することができる。一方で、斜照明を行うと、斜照明により得られるシャドーコントラストによって、術野内の術具の影や超音波水晶体乳化吸引時の溝の深さなどの立体感の情報を得ることができる。
 しかし、これらの透明体のコントラストや、術具等のシャドーコントラストは、何れも周囲に対し暗く見えることで得られる情報である。そのため、場合によっては、例えばシャドーコントラストが後嚢の視認性を低下させるといったことが発生する。
 そのため、一般的には、同軸照明と斜照明とを同時に行うとともに、それらの照明における照明強度のバランスの調整が行われていた。
 これに対して、顕微鏡システム101では、同軸照明画像と斜照明画像とが個別に取得されるため、それらの同軸照明画像と斜照明画像とを画像処理によって任意の割り合いで、つまり任意の混合比率で混合し、術野画像とすることができる。
 換言すれば、顕微鏡システム101では同軸照明の強度と斜照明の強度とのバランス調整を画像処理によっても行うことができる。
 具体的には、例えば画像取得部121が図12に示した構成とされる場合には、同軸照明画像と斜照明画像の両方の画像を可視光画像とすることができる。
 したがって、この場合、任意の混合比率で同軸照明画像と斜照明画像の同じ位置関係の画素の画素値を混合、すなわち重み付き加算することで術野画像を得ることができる。つまり、これから得ようとする術野画像の注目する画素を注目画素とすると、注目画素と同じ位置関係にある同軸照明画像の画素の画素値と、注目画素と同じ位置関係にある斜照明画像の画素の画素値とを混合比率により定まる重みで重み付き加算することで、注目画素の画素値を得ることができる。
 これに対して、例えば画像取得部121が図7に示した構成とされる場合には、同軸照明画像は可視光画像となるが斜照明画像は赤外光画像、つまりモノクロ画像となる。
 しかし、このような場合においても同軸照明画像を構成する輝度の画像と斜照明画像とを混合することで、色付きの、つまりカラーの術野画像を得ることができる。
 すなわち、まず可視光画像であるカラーの同軸照明画像に対し、必要に応じて画像変換処理が行われ、Y画像、Cb画像、およびCr画像からなる同軸照明画像とされる。ここで、Y画像はY成分(輝度成分)からなる輝度の画像であり、Cb画像はCb成分(青の色差成分)からなる色差の画像であり、Cr画像はCr成分(赤の色差成分)からなる色差の画像である。
 その後、モノクロ画像である斜照明画像と、同軸照明画像を構成するY画像との同じ位置関係の画素の画素値が任意の混合比率で混合され、混合輝度画像とされる。そして、このようにして得られた混合輝度画像、Cb画像、およびCr画像からなるカラーの画像が術野画像とされる。
 なお、以下では、可視光画像である同軸照明画像と斜照明画像から術野画像を生成する処理、および可視光画像である同軸照明画像と、赤外光画像である斜照明画像とから術野画像を生成する処理を特に区別せずに混合処理とも称することとする。すなわち、モノクロ画像である斜照明画像と、可視光画像である同軸照明画像とから術野画像を生成する場合においても、単に斜照明画像と同軸照明画像を混合するとも称することとする。
 また、画像処理として混合処理を行って術野画像を生成する場合、領域ごとに異なる混合比率で同軸照明画像と斜照明画像とを混合することも可能である。
 例えば術者が操作している術具については3次元的な位置の把握が重要となる。そこで、術具の周囲の領域については、混合処理時において術野画像に対する斜照明画像の寄与率、つまり斜照明画像の混合比率を増加させることによって、立体感の把握をしやすい術野画像を得ることができるようにしてもよい。
 このとき、同軸照明画像や斜照明画像における術具の領域の特定方法としては、例えば同軸照明画像や斜照明画像に対する物体認識(画像認識)などを行うようにすればよい。
 その他、術具に対して特定の色や形状のマーカを付加しておき、同軸照明画像や斜照明画像からマーカを検出することで術具の領域を特定するようにしてもよいし、観察者等が術具の領域を入力により指定するようにしてもよい。
 また、例えば図18のフローチャートを参照して後述するように同軸照明画像と斜照明画像とを比較して瞳孔領域を特定するなどして、眼の特定部位の領域を特定(検出)し、その特定結果に応じて各領域の混合比率を決定するようにしてもよい。
 このように、領域ごとに混合比率を決定する場合には、同軸照明画像および斜照明画像の少なくとも何れか一方が用いられて術具や眼の特定部位の領域が検出され、その検出結果に基づいて各領域の混合比率が決定されるようにすればよい。
 さらに、同軸照明画像と斜照明画像の少なくとも何れか一方に対して画像処理としてエッジ強調処理を施してから、術野画像を生成するようにしてもよい。
 例えば影のない同軸照明画像に対してエッジ強調処理を施してから、エッジ強調処理が施された同軸照明画像と、エッジ強調処理が施されていない斜照明画像とを混合することで、斜照明による影のエッジ成分を強調せずに透明体の視認性を強調した術野画像を得ることも可能となる。このように、用途に応じて同軸照明画像や斜照明画像に対して、適宜、エッジ強調処理を施すことで、より視認性の高い術野画像を得ることができる。
 なお、ここでは、画像処理の例としてエッジ強調処理が行われる場合について説明するが、その他、例えばコントラスト強調処理など、他の表示強調処理が行われるようにしてもよい。
 以上において説明した混合処理における領域ごとまたは画像全体の混合比率、エッジ強調処理の有無などは、術野画像を提示する術者や観察者などの提示先、つまり術野画像の用途に応じて変更することができる。換言すれば、どの表示部112に供給する術野画像であるかに応じて異なる混合比率での混合処理を行ったり、エッジ強調処理を行うか否かを選択的に切り替えたりすることができる。
 例えば、指導医や助手などの術具を操作しない観察者に対して提示する術野画像を生成する場合や、後から手術時の映像を見て、つまり後から手術を振り返って勉強等するための術野画像を生成する場合などが考えられる。そのような場合には、例えば合併症である破嚢の発生に注意するために斜照明の影響は排除してシャドーコントラストは強調せずに、前嚢、後嚢、および角膜の視認性を向上させることなどが考えられる。
 以下では、混合処理等を行って術野画像を生成するときの合成モードとして、施術モードおよび観察モードを含む複数のモードがあるものとする。
 ここで、施術モードは実際に手術を行う術者に対して提示する術野画像を生成するモードであり、観察モードは手術中または手術後に手術を観察する指導医や助手、学習者などに対して提示する術野画像を生成するモードである。
 さらに、より詳細には、例えば術野画像の用途、つまり術野画像の提示先が同じであっても手術の工程(手技)によって合成モードが異なるようになされている。
 術野画像の用途が同じであっても手術の工程(手技)ごとに合成モードが異なれば、それらの工程ごとに異なる混合処理やエッジ強調処理などを行うことができる。具体的には、例えば白内障手術では、前嚢の切開や超音波水晶体乳化吸引、眼内レンズ挿入などの工程ごとに混合比率、エッジ強調処理の強度や有無が変更されるようにしてもよい。
 なお、以下では、術野画像の提示先(用途)と手術の工程との組み合わせごとに合成モードが定められている例について説明するが、術野画像の提示先と手術の工程の少なくとも何れか一方のみに対して合成モードが定められているようにしてもよい。
 ここで、図13のフローチャートを参照して、術野画像を生成するときに顕微鏡システム101により行われる術野画像生成処理について説明する。
 ステップS11において、画像取得部121は、顕微鏡制御部124の制御に従って同軸照明画像および斜照明画像を取得して画像処理部123に供給する。
 例えば画像取得部121が図7に示した構成とされる場合、顕微鏡制御部124は赤外光源151および可視光源152を制御し、手術対象の眼に対して斜照明光と同軸照明光を同時に照射させる。すなわち、同軸照明と斜照明とが同時に行われるように制御される。
 そして、撮影部155は、手術対象の眼から入射してきた斜照明光と同軸照明光を光学的に分離させて、または同時に受光して光電変換することで、斜照明画像と同軸照明画像を得る。
 また、例えば画像取得部121が図12に示した構成とされる場合、顕微鏡制御部124は可視光源311および可視光源152を制御し、手術対象の眼に対して斜照明光と同軸照明光を交互に照射させる。すなわち、同軸照明と斜照明とが交互に行われるように制御される。
 そして、撮影部312は、手術対象の眼から入射してきた斜照明光または同軸照明光を受光して光電変換することで、斜照明画像と同軸照明画像を時分割で得る。
 ステップS12において、画像処理部123は合成モードを選択する。例えば画像処理部123は、術者等の入力操作に応じて図示せぬ入力操作部から供給された信号に基づいて合成モードを選択する。
 その他、例えば画像処理部123が接続されている表示部112のなかの電源がオンされている表示部112を特定し、その特定結果に基づいて術野画像の提示先を特定するようにしてもよい。この場合、例えば電源がオンされている表示部112に対して予め定められた術野画像の提示先と、何らかの方法により特定された手術の工程とに基づいて、合成モードが選択される。
 例えば手術の工程は、画像処理部123が画像取得部121から供給された同軸照明画像や斜照明画像に対する画像認識等を行うことにより特定されるようにしてもよいし、術者等による操作入力に基づいて特定されるようにしてもよい。
 なお、合成モードは1つのみ選択されるようにしてもよいし、複数選択されるようにしてもよい。以下では合成モードが1つだけ選択されるものとして説明を行うが、合成モードが複数選択された場合には、以下において説明するステップS13乃至ステップS15の処理は合成モードごとに処理が行われる。
 ステップS13において、画像処理部123は、ステップS12において選択した合成モードに基づいて、必要に応じて画像取得部121から供給された同軸照明画像や斜照明画像に対してエッジ強調処理を行う。
 ここでは、例えば同軸照明画像と斜照明画像のそれぞれについて、エッジ強調処理を行うかが合成モードに基づいて決定される。具体的には、例えば合成モードとして観察モードが選択された場合には、同軸照明画像に対してエッジ強調処理が行われ、斜照明画像に対してはエッジ強調処理は行われないようにされる。
 なお、エッジ強調処理を行うにあたっては、例えば同軸照明画像や斜照明画像に対する物体認識等が行われて術具や眼の特定部位などが検出され、その検出結果に応じて領域ごとにエッジ強調処理が行われるようにしてもよい。すなわち、画像の特定領域のみに対してエッジ強調処理が行われるようにしてもよいし、画像の領域ごとにエッジ強調処理の強調度合いが決定されるようにしてもよい。
 ステップS14において、画像処理部123はステップS12において選択した合成モードに基づいて、同軸照明画像および斜照明画像の混合比率を決定する。
 例えば画像処理部123は、合成モードに対して予め定められた混合比率を、混合処理時の混合比率として決定する。
 また、例えば画像処理部123が物体認識等を行って同軸照明画像や斜照明画像から術具や眼の特定部位を検出し、その検出結果に応じて領域ごとに混合比率を決定するようにしてもよい。例えば合成モードとして、手術の工程が超音波水晶体乳化吸引である施術モードが選択されているとする。この場合、例えば画像処理部123は、同軸照明画像よりも斜照明画像の混合比率が高くなるようにし、特に斜照明画像における術具が含まれる領域が他の領域よりも混合比率がより高くなるように混合比率を決定する。
 なお、ステップS13とステップS14の処理は同時に行われるようにしてもよい。
 ステップS15において、画像処理部123は、ステップS13において、必要に応じてエッジ強調処理が施された同軸照明画像および斜照明画像を、ステップS14で決定された混合比率で混合し、術野画像を生成する。なお、斜照明画像が赤外光画像である場合には、上述したように斜照明画像と、同軸照明画像のY画像とが混合(合成)されて術野画像が生成される。
 術野画像が得られると、画像処理部123は、得られた術野画像を表示部112に供給して表示させたり、画像記録部122に供給して記録させたりして術野画像生成処理は終了する。
 以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して術野画像を生成する。このようにすることで、術者等が照明強度の調整等の面倒な操作を行うことなく、簡単に合成モードごとに適切な術野画像、すなわち用途に応じた視認性の高い術野画像を得ることができる。したがって、術者は良好な術野で快適に手術を行うことができる。
〈鏡面反射成分除去処理の説明〉
 また、画像処理部123における画像処理として、術野画像における鏡面反射成分を除去する処理を行うこともできる。
 一般的に眼科顕微鏡では、同軸照明を用いていることもあり、鏡面反射成分が術野の中央部に存在する。これは、眼科光学顕微鏡でも術野の視認性低下につながっていたが、眼科ビデオ顕微鏡の場合でも白飛びの発生により術野の情報が消えることが生じ得る。
 顕微鏡システム101では、同軸照明画像においては、例えば図14に示すように同軸照明光の鏡面反射のみが存在し、斜照明画像においては、例えば図15に示すように斜照明光の鏡面反射のみが存在する。また、術野画像には、例えば図16に示すように同軸照明光と斜照明光の鏡面反射が存在する。なお、図14乃至図16において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 例えば図14は同軸照明画像を示している。この例では同軸照明画像の略中央における矢印Q51に示す部分に、同軸照明光の角膜表面等での鏡面反射により白飛びまたは白飛びに近い輝度の領域があり、その領域における視認性が低下している。以下、鏡面反射によって白飛びが生じているか、または白飛びに近い輝度となっている領域を、特に鏡面反射領域とも称することとする。
 同様に、図15は斜照明画像を示しており、この例では斜照明画像の略中央における矢印Q61に示す部分に、斜照明光の角膜表面等での鏡面反射により白飛びまたは白飛びに近い輝度の鏡面反射領域があり、その鏡面反射領域における視認性が低下している。
 したがって、単純にこれらの同軸照明画像と斜照明画像を混合して術野画像を生成しても、例えば図16に示すように同軸照明光や斜照明光の鏡面反射の影響、つまり鏡面反射成分は残ったままとなる。図16は術野画像を示しており、この例では術野画像の略中央における矢印Q71に示す部分に、同軸照明光および斜照明光の角膜表面等での鏡面反射による鏡面反射領域があり、それらの鏡面反射領域における視認性が低下している。
 しかし、同軸照明画像においては同軸照明光の鏡面反射領域のみが存在し、斜照明光の鏡面反射領域は存在しない。同様に、斜照明画像においては斜照明光の鏡面反射領域のみが存在し、同軸照明光の鏡面反射領域は存在しない。
 したがって、画像処理部123では、同軸照明画像の画像情報を用いれば、斜照明画像の鏡面反射領域における鏡面反射の影響を除去することができる。逆に、斜照明画像の画像情報を用いれば、同軸照明画像の鏡面反射領域における鏡面反射の影響を除去することができる。これらのことから、画像処理部123では、鏡面反射の影響を低減させた、つまり鏡面反射の成分を除去した術野画像を得ることができる。
 具体的には、例えば同軸照明画像と斜照明画像のうち、一方の画像のみで白飛びの輝度値、または白飛びに近い輝度値となっている領域、すなわち輝度値が閾値以上である領域が鏡面反射領域とされる。
 同軸照明画像と斜照明画像から鏡面反射領域が検出されると、その後、鏡面反射領域の検出結果に応じて領域ごとに混合比率が決定され、混合処理により術野画像が生成される。
 例えば同軸照明画像と斜照明画像がともに可視光画像であるとする。
 この場合、例えば同軸照明画像に鏡面反射領域がある部分については、同軸照明画像の混合比率は略0とされ、実質的に斜照明画像のみが用いられて術野画像が生成される。同様に、例えば斜照明画像に鏡面反射領域がある部分については、斜照明画像の混合比率は略0とされ、実質的に同軸照明画像のみが用いられて術野画像が生成される。これにより、鏡面反射領域のない術野画像を得ることができる。
 また、例えば同軸照明画像が可視光画像であり、斜照明画像が赤外光画像であるとする。
 この場合、例えば同軸照明画像に鏡面反射領域がある部分については、同軸照明画像のY画像の混合比率は略0とされ、実質的に斜照明画像のみが用いられて混合輝度画像が生成される。同様に、例えば斜照明画像に鏡面反射領域がある部分については、斜照明画像の混合比率は略0とされ、実質的に同軸照明画像のY画像のみが用いられて混合輝度画像が生成される。そして、得られた混合輝度画像と、同軸照明画像のCb画像およびCr画像とから術野画像が生成される。これにより、鏡面反射領域のない術野画像を得ることができる。
 また、鏡面反射領域が検出された場合、鏡面反射領域のみデジタルゲインを下げることにより、白飛び自体を発生しにくくする画像処理も可能である。
 例えば画像処理部123において、同軸照明画像および斜照明画像に対して、デジタルゲインを乗算してゲイン調整を行った後、混合処理等が行われる場合には、同軸照明画像や斜照明画像の鏡面反射領域のデジタルゲインを減少させることで白飛びの発生を抑制することができる。
 さらに、例えば顕微鏡制御部124が画像処理部123による鏡面反射領域の検出結果に基づいて、鏡面反射領域に対応する画素列(ライン)の露光時間を短くするなどの露出制御を行うようにしてもよい。
 ここで、図17のフローチャートを参照して、鏡面反射成分、すなわち白飛びを低減させた術野画像を生成するときに顕微鏡システム101により行われる鏡面反射成分除去処理について説明する。なお、ステップS41の処理は図13のステップS11の処理と同様であるので、その説明は省略する。
 ステップS42において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて、同軸照明画像から鏡面反射領域を検出する。
 すなわち、画像処理部123は、同軸照明画像と斜照明画像とを画素ごとに比較して、同軸照明画像における画素の輝度値が閾値以上であるが、その画素と同じ位置関係にある斜照明画像の画素の輝度値が閾値未満である画素の領域を鏡面反射領域として検出する。
 ステップS43において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて、斜照明画像から鏡面反射領域を検出する。
 すなわち、画像処理部123は、同軸照明画像と斜照明画像とを画素ごとに比較して、斜照明画像における画素の輝度値が閾値以上であるが、その画素と同じ位置関係にある同軸照明画像の画素の輝度値が閾値未満である画素の領域を鏡面反射領域として検出する。
 なお、より詳細にはステップS42とステップS43の処理は同時に行われる。また、同軸照明画像と斜照明画像の同じ位置関係の画素の輝度値の差分値が閾値以上となる領域を鏡面反射領域とするなど、鏡面反射領域の検出方法はどのような方法であってもよい。
 ステップS44において、画像処理部123は、同軸照明画像および斜照明画像の鏡面反射領域の検出結果に基づいて、鏡面反射成分を低減させた術野画像を生成する。
 すなわち、例えば上述したように、画像処理部123は同軸照明画像で鏡面反射領域となっている領域についてはほぼ斜照明画像のみが用いられ、斜照明画像で鏡面反射領域となっている領域についてはほぼ同軸照明画像のみが用いられるように、領域ごとに混合比率を決定する。そして、画像処理部123は、決定した混合比率に基づいて同軸照明画像と斜照明画像とを混合し、鏡面反射成分が低減(除去)された術野画像を生成する。
 なお、混合処理では、図13を参照して説明したように合成モードや物体認識結果なども考慮されて術野画像が生成されるようにしてもよい。また、同軸照明画像や斜照明画像に対して適宜、エッジ強調処理が行われるようにしてもよい。
 術野画像が得られると、画像処理部123は、得られた術野画像を表示部112に供給して表示させたり、画像記録部122に供給して記録させたりして鏡面反射成分除去処理は終了する。
 以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して鏡面反射領域を検出し、その検出結果に基づいて術野画像を生成する。このようにすることで、鏡面反射が少なく視認性の高い術野画像を得ることができ、その結果、術者は良好な術野で快適に手術を行うことができる。
〈瞳孔領域検出処理の説明〉
 さらに、画像処理部123では、同軸照明と斜照明という互いに異なる照明方法で得られた同軸照明画像と斜照明画像とを用いて高精度に眼の部位を検出することができる。以下では、眼の特定の部位として瞳孔領域を検出する例について説明する。
 例えば、図3に示した例のように、徹照を得られる同軸照明では瞳孔内が明るく観察されるのに対して、例えば図2に示した例のように、徹照を得られない斜照明では瞳孔内が周囲に対して暗く観察される。しがって、同軸照明画像上では瞳孔の領域は明るくなっており、斜照明画像上では瞳孔の領域は暗くなっている。
 画像処理部123では、このような特性を利用することで、同軸照明画像と斜照明画像とを比較して簡単かつ高精度に瞳孔領域を検出することができる。
 具体的には、例えば2次元のxy座標系により表される位置を(x,y)としたときに、同軸照明画像上の位置(x,y)にある画素の輝度値をYP(x,y)と記し、斜照明画像上の位置(x,y)にある画素の輝度値をYS(x,y)と記すこととする。
 また、同軸照明画像の感度の差を補正する係数をαとし、斜照明画像の感度の差を補正する係数をβとする。さらに、位置(x,y)における同軸照明画像と斜照明画像との輝度差をI(x,y)とすると、この輝度差I(x,y)は、次式(1)により求めることができる。
 I(x,y)=α×YP(x,y)-β×YS(x,y) ・・・(1)
 上述したように同軸照明画像上では瞳孔領域は明るくなっており、斜照明画像上では瞳孔領域は暗くなっているため、瞳孔領域では瞳孔外の領域と比較すると輝度差I(x,y)が十分に大きな値となるはずである。そこで、例えば輝度差I(x,y)を閾値処理することで、簡単に瞳孔領域を検出することができる。この場合、輝度差I(x,y)が予め定められた閾値以上となる領域が瞳孔領域とされる。
 例えば白内障の手術では、瞳孔内の領域は術野の中心となる領域であり、その術野の明るさも手術の進行(工程)によって変化する。
 そこで、例えば白内障手術時においては、画像処理部123で瞳孔領域が検出されると、検出された瞳孔領域の部分に合わせた露出制御を行ったり、常に瞳孔領域が術野画像の中心となるように撮影位置を制御したりするなどの撮影制御を行うことができる。このようにすることで、術者は、適切な明るさの術野を得ることができたり、画像中心に瞳孔領域が位置する術野画像を観察したりすることができ、快適に手術を行うことができる。
 また、その他、例えば白内障手術時の眼内レンズ挿入の工程では、術野画像の瞳孔領域に重畳させて瞳孔領域の縁とともにレンズ方向等を示すガイド情報を表示させたり、眼球に対するレンズ方向を特定するためのトラッキング処理等に瞳孔領域の検出結果を用いたりするようにしてもよい。
 ここで、図18のフローチャートを参照して、瞳孔領域を検出するときに顕微鏡システム101により行われる瞳孔領域検出処理について説明する。なお、ステップS71の処理は図13のステップS11の処理と同様であるので、その説明は省略する。
 ステップS72において、画像処理部123は、画像取得部121から供給された同軸照明画像および斜照明画像に基づいて瞳孔領域の検出処理を行う。
 すなわち、画像処理部123は、上述した式(1)を計算するとともに、その結果得られた輝度差I(x,y)と閾値とを比較することで瞳孔領域を検出する。
 ステップS73において、画像処理部123は、ステップS72における検出処理の結果、瞳孔領域が検出されたか否かを判定する。
 ステップS73において検出されなかったと判定された場合、その後、処理はステップS71に戻り、上述した処理が繰り返し行われる。
 これに対して、ステップS73において瞳孔領域が検出されたと判定された場合、画像処理部123は瞳孔領域の検出結果を顕微鏡制御部124に供給し、処理はステップS74へと進む。
 ステップS74において、顕微鏡制御部124は、画像処理部123から供給された瞳孔領域の検出結果に応じた制御を行う。
 例えば顕微鏡制御部124は、同軸照明画像や斜照明画像における瞳孔領域が適切な明るさとなるように、画像取得部121による同軸照明画像および斜照明画像の撮影時の露出制御を行う。すなわち、撮影時における露光時間などの制御が行われる。
 また、例えば顕微鏡制御部124は、同軸照明画像や斜照明画像における画像中心の位置に瞳孔領域が位置するように、物理的に光学系を傾けたり平行移動させたりするなどして画像取得部121による撮影位置(撮影方向)を制御する。
 その他、例えば顕微鏡制御部124が画像取得部121を制御して、同軸照明画像や斜照明画像における画像中心の位置に瞳孔領域が位置するように、撮影された画像のトリミングを行わせて同軸照明画像や斜照明画像を生成させるようにしてもよい。
 さらに、画像処理部123が瞳孔領域の検出結果に応じて、瞳孔領域の縁部分(境界部分)を示す画像や、瞳孔領域位置における眼内レンズの方向を示す画像をガイド情報として生成し、そのガイド情報を術野画像に重畳させる画像処理を行うようにしてもよい。この場合、画像処理部123は、ガイド情報が重畳された術野画像を表示部112に供給して表示させる。その他、画像処理部123が瞳孔領域の検出結果に基づいて、瞳孔領域等の眼の特定部位のトラッキング処理を行うようにしてもよい。
 ステップS75において、画像処理部123は、処理を終了するか否かを判定する。ステップS75において、まだ処理を終了しないと判定された場合、処理はステップS71に戻り、上述した処理が繰り返し行われる。
 これに対してステップS75において、処理を終了すると判定された場合、瞳孔領域検出処理は終了する。
 以上のようにして顕微鏡システム101は、同軸照明画像と斜照明画像を取得して瞳孔領域を検出し、その検出結果に基づいて撮影制御等の制御を行う。このようにすることで、例えば適切な明るさの術野画像を得ることができたり、術野の中心で瞳孔を観察することができたりして、術者は良好な術野で快適に手術を行うことができる。
 なお、ここでは、眼の特定部位として瞳孔領域を検出する例について説明したが、同軸照明画像と斜照明画像から他のどのような部位を検出するようにしてもよい。
〈波長の特性を活かした情報取得と情報提示について〉
 さらに、例えば画像取得部121が図7に示した構成とされる場合には、赤外光画像から得られる情報を利用した画像処理を行うこともできる。
 すなわち、例えば赤外光などの可視光とは異なる波長の光で画像を撮影すると、撮影された画像から、可視光画像からは得られない情報を得ることができるので、そのようにして得られた情報を画像処理に利用することができる。
 具体的には、例えば「第27回日本緑内障学会 抄録集 赤外線画像を用いてニードリングによる濾過胞再建術の術前に、強膜弁の位置決めを行った4例」によると、赤外光で撮影すると白目上にある緑内障のトラベクレクトミー手術で作成した、房水の流出路の視認性が向上するという報告がなされている。
 顕微鏡システム101では、画像取得部121を例えば図7に示した構成とすれば、赤外光画像である斜照明画像を得ることができる。そのため、この斜照明画像と同軸照明画像とを混合して術野画像を生成すれば、房水の流出路が設けられた強膜弁部分の視認性を向上させることができ、より良好な術野を得ることができる。したがって、術者はこのような術野画像を見ながら手術を行うことで、より快適に手術を行うことができる。
 なお、この場合、画像処理部123において、例えば斜照明画像から強膜弁部分や房水の流出路部分を検出し、強膜弁部分や房水の流出路部分の領域において斜照明画像の混合比率がより高くなるように、領域ごとに混合比率を決定するようにしてもよい。
 また、画像処理部123において、赤外光画像である斜照明画像から強膜弁の縁を検出し、検出された縁部分を示す情報を同軸照明画像に重畳するなどして、ガイド情報が重畳された術野画像とする画像処理を行うこともできる。これにより、患者の眼球を染色することなく適切なガイド情報を提示することができ、術者はより快適に手術を行うことができる。
 以上のように、顕微鏡システム101によれば、同軸照明画像と斜照明画像とをそれぞれ分離して取得することで、その後の画像処理によって簡単に良好な術野を得たり、より適切な撮影制御を行ったりすることができ、術者が快適に手術を行うことができるようになる。例えば顕微鏡システム101によれば、以下の(1)乃至(4)等の利点を得ることができる。
 利点(1):鏡面反射成分の除去
 例えば図17を参照して説明した鏡面反射成分除去処理を行えば、術野の中心で邪魔となる鏡面反射がなくなるため、視認性が向上し、執刀に集中できるようになる。
 利点(2):領域ごとに照明の影響度合いを変えた術野画像の生成
 例えば図13を参照して説明した術野画像生成処理を行えば、シャドーコントラストによる立体感と徹照によるコントラストが両立した術野画像を得ることができ、執刀がしやすくなる。また、混合処理での混合比率を適切に決定することで、観察者ごとに重要な情報を強調した術野画像を得ることができるようになる。
 利点(3):瞳孔領域の検出
 例えば図18を参照して説明した瞳孔領域検出処理を行えば、容易に瞳孔領域を検出することができ、また、その検出結果を用いて露出制御や撮影位置の制御などを行うことで、良好な術野を得ることができる。
 利点(4):特定波長成分による情報取得
 例えば上述した房水の流出路の視認性向上の例のように、赤外光などの可視光とは異なる波長の画像を撮影することで、可視光画像からは得られない、手術に有用な情報を得ることができる。このようにして得られた情報を適宜、術野画像に重畳表示することで、術者はより快適に手術を行うことができるようになる。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。
 図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
 前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
 を備える画像処理装置。
(2)
 前記同軸照明の同軸照明光と、前記斜照明の斜照明光とは互いに異なる波長の光であり、
 前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに備える
 (1)に記載の画像処理装置。
(3)
 前記画像取得部は、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得する
 (2)に記載の画像処理装置。
(4)
 前記画像取得部は、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得する
 (2)に記載の画像処理装置。
(5)
 前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに備え、
 前記画像取得部は、前記同軸照明画像と前記斜照明画像とを時分割で取得する
 (1)に記載の画像処理装置。
(6)
 前記画像処理部は、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合して前記術野画像を生成する
 (1)乃至(5)の何れか一項に記載の画像処理装置。
(7)
 前記画像処理部は、領域ごとに前記混合比率を決定する
 (6)に記載の画像処理装置。
(8)
 前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出し、その検出結果に基づいて領域ごとに前記混合比率を決定する
 (7)に記載の画像処理装置。
(9)
 前記画像処理部は、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定する
 (6)乃至(8)の何れか一項に記載の画像処理装置。
(10)
 前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行ってから前記術野画像を生成する
 (6)乃至(9)の何れか一項に記載の画像処理装置。
(11)
 前記画像処理部は、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定する
 (10)に記載の画像処理装置。
(12)
 前記画像処理部は、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出し、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成する
 (1)乃至(11)の何れか一項に記載の画像処理装置。
(13)
 前記画像処理部は、前記特定領域として前記眼の特定部位の領域を検出する
 (1)乃至(12)の何れか一項に記載の画像処理装置。
(14)
 前記画像処理部は、前記同軸照明画像と前記斜照明画像とを比較して、前記眼の瞳孔領域を検出する
 (13)に記載の画像処理装置。
(15)
 前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに備える
 (13)または(14)に記載の画像処理装置。
(16)
 前記制御部は、前記撮影制御として露出制御または撮影位置の制御を行う
 (15)に記載の画像処理装置。
(17)
 前記画像処理部は、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成する
 (13)乃至(16)の何れか一項に記載の画像処理装置。
(18)
 手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、
 前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する
 ステップを含む画像処理方法。
(19)
 手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、
 前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、
 前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
 前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
 を備える手術顕微鏡システム。
 101 顕微鏡システム, 111 眼科ビデオ顕微鏡, 121 画像取得部, 122 画像記録部, 123 画像処理部, 124 顕微鏡制御部

Claims (19)

  1.  手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
     前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
     を備える画像処理装置。
  2.  前記同軸照明の同軸照明光と、前記斜照明の斜照明光とは互いに異なる波長の光であり、
     前記同軸照明と前記斜照明が同時に行われるように制御する制御部をさらに備える
     請求項1に記載の画像処理装置。
  3.  前記画像取得部は、前記同軸照明光と前記斜照明光とを光学的に分離させて、前記同軸照明画像および前記斜照明画像を取得する
     請求項2に記載の画像処理装置。
  4.  前記画像取得部は、前記同軸照明光と前記斜照明光を受光して得られたデータから、前記同軸照明画像および前記斜照明画像を取得する
     請求項2に記載の画像処理装置。
  5.  前記同軸照明と前記斜照明が交互に行われるように制御する制御部をさらに備え、
     前記画像取得部は、前記同軸照明画像と前記斜照明画像とを時分割で取得する
     請求項1に記載の画像処理装置。
  6.  前記画像処理部は、前記同軸照明画像と前記斜照明画像とを所定の混合比率で混合して前記術野画像を生成する
     請求項1に記載の画像処理装置。
  7.  前記画像処理部は、領域ごとに前記混合比率を決定する
     請求項6に記載の画像処理装置。
  8.  前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて、術具の領域または前記眼の特定部位の領域を検出し、その検出結果に基づいて領域ごとに前記混合比率を決定する
     請求項7に記載の画像処理装置。
  9.  前記画像処理部は、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記混合比率を決定する
     請求項6に記載の画像処理装置。
  10.  前記画像処理部は、前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に対して強調処理を行ってから前記術野画像を生成する
     請求項6に記載の画像処理装置。
  11.  前記画像処理部は、前記同軸照明画像および前記斜照明画像のそれぞれについて、前記術野画像の用途および前記眼の手術の工程の少なくとも何れか一方に基づいて前記強調処理を行うかを決定する
     請求項10に記載の画像処理装置。
  12.  前記画像処理部は、前記同軸照明画像および前記斜照明画像に基づいて鏡面反射領域を検出し、その検出結果に基づいて鏡面反射成分が低減された前記術野画像を生成する
     請求項1に記載の画像処理装置。
  13.  前記画像処理部は、前記特定領域として前記眼の特定部位の領域を検出する
     請求項1に記載の画像処理装置。
  14.  前記画像処理部は、前記同軸照明画像と前記斜照明画像とを比較して、前記眼の瞳孔領域を検出する
     請求項13に記載の画像処理装置。
  15.  前記特定部位の領域の検出結果に基づいて、前記同軸照明画像および前記斜照明画像の撮影制御を行う制御部をさらに備える
     請求項13に記載の画像処理装置。
  16.  前記制御部は、前記撮影制御として露出制御または撮影位置の制御を行う
     請求項15に記載の画像処理装置。
  17.  前記画像処理部は、前記眼の前記特定部位の領域の検出結果に基づいて、前記眼の手術の補助のためのガイド情報を生成する
     請求項13に記載の画像処理装置。
  18.  手術対象の眼に対して同軸照明を行うことで得られる同軸照明画像と、前記眼に対して斜照明を行うことで得られる斜照明画像を取得し、
     前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する
     ステップを含む画像処理方法。
  19.  手術対象の眼に対して同軸照明光を照射し、同軸照明を行う同軸照明光源と、
     前記眼に対して斜照明光を照射し、斜照明を行う斜照明光源と、
     前記同軸照明を行うことで得られる同軸照明画像と、前記斜照明を行うことで得られる斜照明画像を取得する画像取得部と、
     前記同軸照明画像および前記斜照明画像に基づいて前記眼の術野画像を生成するか、または前記同軸照明画像および前記斜照明画像の少なくとも何れか一方に基づいて特定領域を検出する画像処理部と
     を備える手術顕微鏡システム。
PCT/JP2017/042152 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム WO2018105411A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018554921A JPWO2018105411A1 (ja) 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム
EP17878731.3A EP3553584A4 (en) 2016-12-06 2017-11-24 IMAGE PROCESSING DEVICE AND METHOD AND OPERATION OF A MICROSCOPE SYSTEM
US16/465,151 US20190328225A1 (en) 2016-12-06 2017-11-24 Image processing device and method, and operating microscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016236708 2016-12-06
JP2016-236708 2016-12-06

Publications (1)

Publication Number Publication Date
WO2018105411A1 true WO2018105411A1 (ja) 2018-06-14

Family

ID=62491445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/042152 WO2018105411A1 (ja) 2016-12-06 2017-11-24 画像処理装置および方法、並びに手術顕微鏡システム

Country Status (4)

Country Link
US (1) US20190328225A1 (ja)
EP (1) EP3553584A4 (ja)
JP (1) JPWO2018105411A1 (ja)
WO (1) WO2018105411A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111317439A (zh) * 2020-04-14 2020-06-23 上海美沃精密仪器股份有限公司 现实增强显微镜及其现实增强方法
WO2020170866A1 (ja) * 2019-02-20 2020-08-27 ソニー株式会社 制御装置、眼科用顕微鏡システム、眼科用顕微鏡及び画像処理装置
JP2021527480A (ja) * 2018-06-20 2021-10-14 アルコン インコーポレイティド 補助術野視覚化システム
JP7417981B2 (ja) 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123297A (ja) * 1991-11-01 1993-05-21 Topcon Corp 眼科装置
JPH08164155A (ja) * 1994-12-14 1996-06-25 Nikon Corp 眼科用照明装置
JP2003177327A (ja) * 2001-09-07 2003-06-27 Leica Microsystems (Schweiz) Ag ステレオ手術顕微鏡の0°照明及び斜照明を同時に行うためのプリズム構造体
JP2010181688A (ja) * 2009-02-06 2010-08-19 Yokogawa Electric Corp 共焦点顕微鏡装置
JP2014233469A (ja) * 2013-06-03 2014-12-15 株式会社ニデック レーザ治療装置およびレーザ治療補助プログラム
JP2016073409A (ja) 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP2016112358A (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、手術顕微鏡システム及び情報処理方法
JP2016185178A (ja) * 2015-03-27 2016-10-27 株式会社トプコン 眼科用顕微鏡システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09197289A (ja) * 1996-01-23 1997-07-31 Nikon Corp 顕微鏡
JPH10133122A (ja) * 1996-10-25 1998-05-22 Nikon Corp 手術用顕微鏡
JP2001017459A (ja) * 1999-07-02 2001-01-23 Topcon Corp 手術用顕微鏡
JP2013160664A (ja) * 2012-02-07 2013-08-19 Renesas Electronics Corp 半導体装置の製造方法、及び、検査装置
JP6325815B2 (ja) * 2013-12-27 2018-05-16 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JP6550262B2 (ja) * 2015-05-08 2019-07-24 オリンパス株式会社 顕微鏡システムおよび照明操作装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123297A (ja) * 1991-11-01 1993-05-21 Topcon Corp 眼科装置
JPH08164155A (ja) * 1994-12-14 1996-06-25 Nikon Corp 眼科用照明装置
JP2003177327A (ja) * 2001-09-07 2003-06-27 Leica Microsystems (Schweiz) Ag ステレオ手術顕微鏡の0°照明及び斜照明を同時に行うためのプリズム構造体
JP2010181688A (ja) * 2009-02-06 2010-08-19 Yokogawa Electric Corp 共焦点顕微鏡装置
JP2014233469A (ja) * 2013-06-03 2014-12-15 株式会社ニデック レーザ治療装置およびレーザ治療補助プログラム
JP2016073409A (ja) 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP2016112358A (ja) * 2014-12-18 2016-06-23 ソニー株式会社 情報処理装置、手術顕微鏡システム及び情報処理方法
JP2016185178A (ja) * 2015-03-27 2016-10-27 株式会社トプコン 眼科用顕微鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3553584A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021527480A (ja) * 2018-06-20 2021-10-14 アルコン インコーポレイティド 補助術野視覚化システム
JP7417551B2 (ja) 2018-06-20 2024-01-18 アルコン インコーポレイティド 補助術野視覚化システム
WO2020170866A1 (ja) * 2019-02-20 2020-08-27 ソニー株式会社 制御装置、眼科用顕微鏡システム、眼科用顕微鏡及び画像処理装置
JP7417981B2 (ja) 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置
CN111317439A (zh) * 2020-04-14 2020-06-23 上海美沃精密仪器股份有限公司 现实增强显微镜及其现实增强方法

Also Published As

Publication number Publication date
EP3553584A4 (en) 2020-01-01
JPWO2018105411A1 (ja) 2019-10-24
US20190328225A1 (en) 2019-10-31
EP3553584A1 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US11986244B2 (en) Wide field fundus camera with auto-montage at a single alignment
US7572009B2 (en) Method and apparatus for processing an eye fundus image
WO2018105411A1 (ja) 画像処理装置および方法、並びに手術顕微鏡システム
US20120130258A1 (en) Programmable multipspectral illiumination system for surgery and visualization of light-sensitive tissues
JP2010259675A (ja) 網膜機能計測装置
JP6884995B2 (ja) 眼科撮影装置および画像処理プログム
Muller et al. Non-mydriatic confocal retinal imaging using a digital light projector
JP6853690B2 (ja) 眼科撮影装置
WO2017090549A1 (ja) 眼科撮影装置及び眼科画像表示装置
JP6713297B2 (ja) 眼科装置
JP6739183B2 (ja) 眼科装置
JP7264254B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP5508140B2 (ja) 眼底撮像装置及びその処理方法
WO2019203313A1 (ja) 画像処理方法、プログラム、及び画像処理装置
JPWO2020111104A1 (ja) 眼科装置
WO2019065219A1 (ja) 眼科装置
JPWO2020111103A1 (ja) 眼科装置
JP7051042B2 (ja) 眼科撮影装置
JP5160958B2 (ja) 眼底撮影装置及び眼底画像処理装置
WO2022085540A1 (ja) 眼科観察装置、眼科画像処理装置、眼科画像処理方法、プログラム、及び記録媒体
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP6958367B2 (ja) 眼底撮影装置
JP7037904B2 (ja) 眼科撮影装置および画像処理プログム
JP2022059765A (ja) 眼科装置、眼科装置の制御方法、及プログラム
JP2022033456A (ja) 走査型検査装置、走査型検査装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17878731

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018554921

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017878731

Country of ref document: EP

Effective date: 20190708