WO2018229834A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2018229834A1
WO2018229834A1 PCT/JP2017/021667 JP2017021667W WO2018229834A1 WO 2018229834 A1 WO2018229834 A1 WO 2018229834A1 JP 2017021667 W JP2017021667 W JP 2017021667W WO 2018229834 A1 WO2018229834 A1 WO 2018229834A1
Authority
WO
WIPO (PCT)
Prior art keywords
illumination
light
image
illumination light
unit
Prior art date
Application number
PCT/JP2017/021667
Other languages
English (en)
French (fr)
Inventor
松本 浩司
哲大 岡
翔 進士
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2017/021667 priority Critical patent/WO2018229834A1/ja
Publication of WO2018229834A1 publication Critical patent/WO2018229834A1/ja
Priority to US16/702,964 priority patent/US11045081B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an endoscope system.
  • the light generated from the illuminated object includes multiple types of components such as specular reflection light, diffuse reflection light, and scattered light.
  • a technology that separates the information on the surface of the object from the information on the inside by separating such components included in the image of the object by high-frequency pattern projection using structured illumination light having a striped light-dark pattern has been proposed (see, for example, Non-Patent Document 1).
  • the subject information can be separated from each other by the depth. It is possible to create a plurality of separated images including information of different depths.
  • the illumination system for structured illumination is mounted on an endoscope having an ordinary illumination system for white light, the structured illumination image is acquired at a timing different from that of the white light image. There is a problem that the frame rate of the image is lowered.
  • the present invention has been made in view of the above-described circumstances, and provides an endoscope system capable of creating a separated image including information on different depths of a subject without reducing the frame rate. With the goal.
  • One embodiment of the present invention includes a first illumination unit that emits first illumination light for acquiring two pieces of image information of a subject at different depths toward the subject, and the second illumination light is emitted from the subject.
  • a second illumination unit that emits light toward the first illumination image, a first illumination image of the subject illuminated by the first illumination light, and a second illumination of the subject illuminated by the second illumination light.
  • An imaging unit that obtains an image
  • a separation processing unit that separates the two pieces of image information from the first illumination image
  • the second illumination image that is processed using the two pieces of image information.
  • a separated image creating unit that creates two separated images each containing a lot of information on the subject at different depths, and the first illumination light has a wavelength band different from the wavelength band of the second illumination light.
  • the second illumination unit emits the first illumination light and the second illumination light at the same time, and the imaging unit is illuminated with the first illumination light and the second illumination light. It is an endoscope system which acquires the 1st illumination image and the 2nd illumination image simultaneously by photographing.
  • the second illumination image is acquired by photographing the subject illuminated with the second illumination light by the imaging unit.
  • the first illumination image is acquired by photographing the subject illuminated with the first illumination light by the imaging unit, and two pieces of image information at different depths included in the first illumination image are separated. Separated by parts. By processing the second illumination image using such two pieces of image information, it is possible to create two separated images including information on different depths of the subject.
  • the imaging unit since the wavelength band of the first illumination light and the wavelength band of the second illumination light are different from each other, the imaging unit mutually converts the first illumination image and the second illumination image according to the wavelength. Can be obtained separately. Therefore, the frame rate can be reduced by simultaneously acquiring the first illumination image and the second illumination image by one shooting of the subject illuminated with both the first illumination light and the second illumination light. A separate image can be created without any problem.
  • the first illumination light may be infrared light.
  • the white light which has a wavelength over the whole visible region can be used as 2nd illumination light.
  • the infrared light is used as the first illumination light, so that the separation including information on a deeper position is performed. Images can be created.
  • the first illumination light may have a spatially non-uniform intensity distribution including a bright part and a dark part in a light beam cross section perpendicular to the optical axis.
  • illumination light is irradiated to a subject that is a scatterer, specular reflection (specular) light that is specularly reflected on the surface of the subject and surface scattered light that is emitted from the surface of the subject through scattering on the surface layer inside the subject And internally scattered light emitted from the surface of the subject through scattering in the deep layer inside the subject.
  • specular reflection (specular) light that is specularly reflected on the surface of the subject
  • surface scattered light that is emitted from the surface of the subject through scattering on the surface layer inside the subject
  • internally scattered light emitted from the surface of the subject through scattering in the deep layer inside the subject.
  • the said bright part and the said dark part which the said 1st illumination light contains are strip
  • the internal scattered light can be effectively separated with a simple light-dark pattern.
  • the bright portion and the dark portion included in the first illumination light may have a substantially sinusoidal intensity profile in the width direction.
  • the intensity value for the separated image of the surface layer when the highest intensity light is applied and the light It is possible to calculate the intensity value for the separated image of the deep layer when no light is applied by the phase shift method, and create a good separated image with high resolution even from a small number of first illumination images can do.
  • the wavelength spectrum of the first illumination light may have a single wavelength.
  • the separation processing unit obtains three or more pieces of image information from two or more pieces of the first illumination images acquired by irradiating the first illumination light each having a different width of the dark portion. Separating, and the separated image creation unit may create three or more separated images using the three or more pieces of image information. As described above, by using the plurality of first illumination images of the subject illuminated with the first illumination light having different dark portion widths, three or more separated images including a lot of information of different depths can be obtained. Can be created.
  • 1 is an overall configuration diagram of an endoscope system according to an embodiment of the present invention. It is a figure which shows the wavelength band of 1st illumination light and 2nd illumination light. It is a figure which shows the modification of the wavelength band of 1st illumination light and 2nd illumination light. It is a figure which shows the other modification of the wavelength range of 1st illumination light and 2nd illumination light. It is a figure which shows the other modification of the wavelength range of 1st illumination light and 2nd illumination light. It is a figure which shows an example of intensity distribution of 1st illumination light, and its time change. It is a figure which shows the other example of intensity distribution of 1st illumination light, and its time change.
  • the endoscope system 1 includes an endoscope 2 that observes the inside of the body, and a main body 3 that is connected to the proximal end of the endoscope 2.
  • the endoscope system 1 also emits first illumination light L1 and white second illumination light L2 from the distal end of the endoscope 2 toward a living tissue (subject) A in the body.
  • the imaging unit 6 that acquires the illumination image of the image, and the first and second illumination images acquired by the imaging unit 6 are processed to create two separated images having different depth information in the living tissue A
  • FIG. 2A shows the wavelength band of the first illumination light L1 and the wavelength band of the second illumination light L2.
  • the first illumination unit 41 includes a light source 41a that outputs infrared light.
  • the first illumination unit 41 generates, from the infrared light emitted from the light source 41a, first illumination light L1 having a spatially non-uniform intensity distribution in a light beam cross section perpendicular to the optical axis. Is emitted from the distal end surface of the endoscope 2 toward the living tissue A.
  • the first illumination light L1 generally has a gradient of intensity at which the brightness gradually decreases from the center of the light beam toward the periphery. Apart from the overall intensity gradient of the light beam cross section, the first illumination light L1 has alternating high light portions and dark portions having lower intensity or less intensity than the light portions in the light beam cross section. It has a structured light and dark pattern that repeats.
  • Such a first illumination unit 41 includes a light source 41a, a mask 41b, and a condensing lens 41c provided in the main body 3, and an image guide fiber 41d and a projection lens 41e provided in the endoscope 2.
  • the light source 41a is a semiconductor light source such as an LED or an LD.
  • the mask 41b is a liquid crystal element that can electrically control the light transmittance at each position in the incident region where the infrared light from the light source 41a is incident.
  • the mask 41b transmits the infrared light and transmits the infrared light.
  • a projection pattern corresponding to a light / dark pattern is formed, which is composed of a light-shielding region that blocks light.
  • the infrared light output from the light source 41a is transmitted through the mask 41b, is given a bright / dark pattern, and is generated as the first illumination light L1.
  • the generated first illumination light L1 is condensed at the incident end of the image guide fiber 41d by the condenser lens 41c, and a light / dark pattern is formed by the image guide fiber 41d up to the projection lens 41e provided at the distal end of the endoscope 2.
  • the light is guided while being stored, and is emitted from the projection lens 41e as a divergent light beam.
  • the second illumination unit 42 includes a light source 42a that outputs white light.
  • the second illumination unit 42 supplies white second illumination light L2 having a spatially substantially uniform intensity distribution in a light beam section perpendicular to the optical axis to an endoscope. The light is emitted toward the living tissue A from the same position as the first illumination light L1 on the two distal end surfaces.
  • Such a second illumination unit 42 includes a light source 42a provided in the main body unit 3 and a beam splitter 42b that combines the second illumination light L2 output from the light source 42a with the first illumination light L1.
  • the second illumination light L2 combined with the first illumination light L1 by the beam splitter 42b is irradiated to the living tissue A through the same optical path as the first illumination light L1.
  • Reference numerals 41f and 42c are collimating lenses that convert light emitted from the light sources 41a and 42a into parallel light fluxes.
  • the light source 42a is, for example, a semiconductor light source such as an LED or LD, or a lamp light source such as a xenon lamp.
  • White light may be generated by mixing red, green, and blue light output from the plurality of light sources 42a.
  • the 1st illumination part 41 and the 2nd illumination part 42 are controlled by the control apparatus which is not shown in figure provided in the main-body part 3 so that the 1st illumination light L1 and the 2nd illumination light L2 may be inject
  • the intensity distribution changing unit 5 is a control element that controls the light transmittance at each position in the incident region of the mask 41b.
  • the intensity distribution changing unit 5 changes the intensity distribution of the first illumination light L1 so that the bright part and the dark part are switched in the light beam cross section. Change time. Thereby, a bright part and a dark part are projected in order at each position within the irradiation range of the first illumination light L1 on the surface B of the living tissue A.
  • FIGS. 3A to 3F show examples of the light / dark pattern of the intensity distribution of the first illumination light L1 and its temporal change.
  • a white area represents a bright part and a black area represents a dark part.
  • the bright and dark pattern in FIG. 3A is a checkered pattern in which square bright portions and dark portions are alternately repeated in two directions orthogonal to each other.
  • the bright and dark patterns in FIGS. 3B and 3C are stripe patterns in which straight belt-like bright portions and dark portions are alternately repeated only in the width direction orthogonal to the longitudinal direction of the bright portions and dark portions.
  • the spatial period between the bright part and the dark part may be constant as shown in FIG. 3B or may be different as shown in FIG. 3C.
  • the light-dark pattern in FIG. 3D is a fringe pattern in which wave-like band-like bright portions and dark portions are alternately repeated only in the width direction orthogonal to the longitudinal direction of the bright portions and dark portions.
  • the bright / dark pattern in FIG. 3E is a dot pattern in which one of the bright part and the dark part is a circle and the other is the background.
  • the bright and dark pattern in FIG. 3F is a concentric circular pattern in which round band-like bright portions and dark portions are alternately repeated in the radial direction.
  • FIGS. 4A to 4F show examples of intensity profiles representing spatial changes in intensity I between the bright and dark areas in the light and dark patterns of FIGS. 3A to 3F.
  • the horizontal axis indicates the position X.
  • the intensity profile may have a rectangular wave shape as shown in FIG. 4A, a sine wave shape as shown in FIG. 4B, and a rectangular wave and a sine wave as shown in FIGS. 4C and 4D. It may be an intermediate shape or an asymmetric wave shape as shown in FIG. 4E. Further, as shown in FIG. 4E, the intensity profile may be highest at the center of the first illumination light L1, and may decrease overall from the center toward the periphery.
  • the period between the bright part and the dark part may be the interval between the bright part and the adjacent bright part in FIGS. 4A to 4E.
  • the imaging unit 6 includes an imaging lens 6a that is provided at the distal end of the endoscope 2 and collects light from the biological tissue A, and an imaging element 6b that captures an image of the biological tissue A formed by the imaging lens 6a. .
  • the image sensor 6b is capable of spatially separating infrared light and white light and shooting simultaneously.
  • an image pickup element 6b for example, as shown in FIG. 5A, a color filter array including an array of color filters for red (R), green (G), blue (B), and infrared (IR). What is provided with 6c is used.
  • a color filter array including an array of color filters for red (R), green (G), blue (B), and infrared (IR). What is provided with 6c is used.
  • the image sensor 6b as shown in FIG.
  • a white light sensor is formed on the imaging surface and a first substrate 6d for photographing white light and an infrared light sensor on the imaging surface. And a second substrate 6e for photographing infrared light transmitted through the first substrate 6d is used.
  • the imaging unit 6 performs imaging when both the first illumination light L1 and the second illumination light L2 are irradiated on the living tissue A, and thereby the living body illuminated with the first illumination light L1.
  • a first illumination image of the tissue A and a second illumination image of the living tissue A illuminated with the second illumination light L2 are acquired simultaneously.
  • the first illumination image and the second illumination image acquired by the image sensor 6b are transmitted from the image sensor 6b to the image processing unit 7.
  • the intensity distribution of the first illumination light L1 applied to the living tissue A changes with time by the intensity distribution changing unit 5 as shown in FIGS. 3A to 3F.
  • the imaging element 6 b performs imaging at two times when the first illumination light L ⁇ b> 1 in which the bright part and the dark part are inverted with respect to each other is irradiated on the living tissue A.
  • the two first illumination images are acquired so that the projection area of the dark area and the projection area of the dark area are inverted to each other, and the projection areas of the bright area and the projection areas of the dark area complement each other.
  • the white area represents the bright area projection area
  • the black area represents the dark area projection area. Therefore, the operations of the intensity distribution changing unit 5 and the image sensor 6b are controlled by the control device so that the timing of changing the intensity distribution by the intensity distribution changing unit 5 and the timing of photographing by the image sensor 6b are synchronized with each other.
  • the image processing unit 7 separates the surface layer component image (image information) and the deep layer component image (image information) from the two first illumination images, and the second illumination image as the surface layer component image and the deep layer.
  • a separation image creating unit 72 that creates a surface layer image (separated image) and a deep layer image (separated image) by processing using component images is provided as a function.
  • FIG. 6 shows image processing by the separation processing unit 71.
  • the separation processing unit 71 creates a deep layer component image including a lot of information on the deep layer D of the living tissue A from the intensity values Imin of the two first illumination images, and the two first images.
  • a surface layer component image including a lot of information on the surface B and the surface layer C of the living tissue A is created from the intensity value Imin and the intensity value Imax of the illumination image.
  • the biological tissue A is a scatterer.
  • the surface layer C from the surface B to several tens of ⁇ m includes a structure ⁇ like a capillary vessel, and a thick blood vessel is formed in a deep layer D deeper than the surface layer C.
  • a structure ⁇ When the living tissue A is irradiated with the first illumination light L1 having a bright and dark pattern, specular reflection (specular) light Lr, surface scattered light Ls, and internal scattered light Ld are generated from the biological tissue A.
  • the specular light Lr is reflected light of the first illumination light L1 specularly reflected by the surface B of the living tissue A, and is generated in the projection area of the bright part.
  • the surface scattered light Ls is the scattered light of the first illumination light L1 that enters the living tissue A from the projection area of the bright part, passes through the surface layer C while repeating scattering, and is emitted from the surface B. Most of the surface scattered light Ls is emitted from the projection area of the bright part.
  • the internal scattered light Ld is scattered light of the first illumination light L1 that is incident on the living tissue A from the projection region of the bright part, passes through the deep layer D while repeating scattering, and is emitted from the surface B. A part of the internal scattered light Ld is emitted from the projection area of the bright part, and the other part propagates to the projection area of the dark part and is emitted from the projection area of the dark part.
  • the intensity value Imin of the projection area of the dark portion in the two first illumination images is mainly based on the internal scattered light Ld, and mainly includes information on the deep layer D.
  • the intensity value Imax of the projection area of the bright portion in the two first illumination images is based on the specular light Lr, the surface scattered light Ls, and the internal scattered light Ld, and the surface B, the surface layer C, and the deep layer D Contains information.
  • FIG. 8 shows a specific method for creating a surface layer component image and a deep layer component image by the separation processing unit 71.
  • the brightness of the two first illumination images is such that the intensity value is high in the pixel corresponding to the projection area of the bright part and the intensity value is low in the pixel corresponding to the projection area of the dark part.
  • the first illumination light L1 has a light / dark pattern in which a bright part and a dark part are repeated at a constant cycle like the light / dark pattern in FIG. 3A or FIG. 3B.
  • the intensity profile in the case where the boundary between the pixels and the boundary between the bright part and the dark part in the light / dark pattern match that is, one bright part or dark part corresponds to one pixel is shown.
  • the separation processing unit 71 determines the higher intensity value as the intensity value Imax, and determines the lower intensity value as the intensity value Imin.
  • a deep component image having an intensity value Imin mainly including information of the deep layer D is created. Further, by subtracting the intensity value Imin from the intensity value Imax, information on the deep layer D is removed, and a surface layer component image having an intensity value Is mainly including information on the surface B and the surface layer C is created.
  • the separated image creating unit 72 creates a surface layer image based on the following formula (a), and creates a deep layer image based on the following formula (b).
  • Surface layer image second illumination image ⁇ surface layer component image / (surface layer component image + deep layer component image)
  • Deep layer image second illumination image ⁇ deep layer component image / (surface layer component image + deep layer component image)
  • the separated image creating unit 72 calculates the ratio of the surface layer component image to the sum of the surface layer component image and the deep layer component image, and multiplies the second illumination image by the calculated ratio to create the surface layer image. . Further, the separated image creating unit 72 creates a deep layer image by calculating the ratio of the deep layer component image to the sum of the surface layer component image and the deep layer component image, and multiplying the second illumination image by the calculated ratio. .
  • the surface layer image and the deep layer image created by the separated image creating unit 72 are output from the main body unit 3 to a display device (not shown) connected to the main body unit 3 and displayed on the display device.
  • Such an image processing unit 7 is realized as an image processing program executed by a computer, for example. That is, the main body unit 3 includes a central processing unit (CPU), a main storage device such as a RAM, and an auxiliary storage device such as a hard disk drive so that the CPU can execute the above-described processing by the image processing unit 7.
  • the image processing program is stored in the auxiliary storage device. The image processing program is loaded from the auxiliary storage device to the main storage device, and the CPU executes processing according to the image processing program, whereby the above-described functions of the image processing unit 7 are realized.
  • the biological tissue A When the biological tissue A is irradiated with the second illumination light L2, which is normal white light having a spatially uniform intensity distribution, the specular light Lr, the surface scattered light Ls, and the internal scattered light Ld are superimposed on each other. In this state, the light enters the imaging unit 6. Therefore, in the second illumination image obtained by photographing the living tissue A illuminated with the second illumination light L2, the structure ⁇ like a capillary in the surface layer C from the surface B to several tens of ⁇ m and the thick in the deep layer D are shown. A blood vessel-like structure ⁇ is displayed together.
  • the living tissue A is irradiated with the first illumination light L1 having a bright and dark pattern
  • the internal scattered light Ld containing a lot of information on the deep layer D is converted into specular light Lr containing information on the surface B and the surface layer C
  • a first illumination image is obtained in which the region that is spatially separated from the surface scattered light Ls and the region in which the information on the deep layer D is dominant is spatially separated from the region that contains a large amount of information on the surface B and the surface layer C.
  • the surface layer component image mainly including the information of the surface B and the surface layer C and the image of the structure ⁇ is emphasized, and the image of the structure ⁇ mainly including the information of the deep layer D and the image of the structure ⁇ are emphasized.
  • the deep component image can be separated.
  • the structured first illumination light L1 may be difficult to secure a sufficient amount of light due to design restrictions of the first illumination unit 41, but the second illumination light L2 that is normal white light. Can secure a sufficient amount of light easily and can acquire a bright second illumination image.
  • the bright second layer image and the deep layer image are created by correcting the bright second illumination image with the surface layer component image and the deep layer component image, thereby creating the bright surface layer image and the deep layer image.
  • the first illumination image and the second illumination image can be acquired simultaneously.
  • the 1st illumination light L1 and the 2nd illumination light L2 are irradiated to the biological tissue A in order, and a 1st illumination image and a 2nd illumination image are acquired in order, surface image And there is an advantage that a high frame rate of deep images can be achieved.
  • noise derived from the specular light in the first illumination image becomes a surface layer image. It can be prevented from occurring.
  • the position of the specular light in the first illumination image and the second illumination image Deviation occurs from the position of specular light.
  • white that is, high gradation value
  • black that is, low gradation value
  • the information amount of the surface layer C in the surface layer image and the information amount of the deep layer D in the deep layer image depend on the width Wd of the dark part on the surface B of the biological tissue A (see FIG. 7). Specifically, the larger the dark portion width Wd is, the deeper the surface layer C is than the dark portion width Wd is smaller. Therefore, the information amount of the surface layer C that can be acquired as a surface layer image increases, and vice versa. In addition, since the depth of the deep layer D is constant regardless of the dark portion width Wd, the information amount of the deep layer D decreases.
  • the width Wd of the dark part on the surface B of the living tissue A is 0.005 mm or more and 25 mm or less. It is preferable.
  • the dark portion width Wd is less than 0.005 mm, the ratio of the internal scattered light Ld that wraps around from the bright region to the dark region is increased, and as a result, the difference between the intensity value Imax and the intensity value Imin is small. Thus, information on the surface layer component image and the surface layer C included in the surface layer image may be insufficient.
  • the dark portion width Wd is larger than 25 mm, the internal scattered light Ld cannot reach the center of the dark portion projection region, and as a result, the intensity value Imin approaches zero and the deep component image and the deep layer image are displayed. The information of the included deep layer D may be insufficient.
  • the separated image creating unit 72 may multiply the surface layer component image by a coefficient P in creating the surface layer image, as shown in the following equation (a ′). Further, as shown in the following equation (b ′), the separated image creation unit 72 may multiply the depth component image by a coefficient Q in creating the depth image.
  • the separated image creation unit 72 may create a composite image by combining the surface layer image and the deep layer image.
  • the coefficients P and Q are set by the user via an input means (not shown) connected to the main body 3, for example.
  • the coefficients P and Q may be set for each pixel.
  • the intensity value Iij of each pixel ij of the composite image can be calculated from the following equation.
  • Pij is a composition ratio of the pixel ij of the surface layer image
  • Qij is a composition ratio of the pixel ij of the deep layer image.
  • Iij Pij * Isij / (Isij + Idij) + Qij * Idij / (Isij + Idij)
  • the user may be configured to set the composition ratios Pij and Qij while observing the surface layer image and the deep layer image displayed on the display device.
  • the coefficients P and Q may be set for each wavelength.
  • the user may set the synthesis ratios Pk and Qk while observing the surface layer image and the deep layer image displayed on the display device.
  • the intensity distribution changing unit 5 discontinuously discontinues the intensity distribution of the illumination light L1 between two light / dark patterns in which the bright part and the dark part are mutually inverted as shown in FIGS. 3A to 3F.
  • the intensity distribution of the illumination light L1 may be continuously changed between the two light / dark patterns.
  • the imaging unit 6 performs shooting at three or more times at which the positions of the bright part and the dark part are different from each other, and the projection area and the dark part of the bright part are captured. You may acquire three or more 1st illumination images from which the position of a projection area differs mutually.
  • the separation processing unit 71 and the separated image creation unit 72 may create a surface layer component image and a deep layer component image from three or more first illumination images.
  • the maximum intensity value may be calculated as Imax and the minimum intensity value may be calculated as Imin.
  • the intensity values in the two first illumination images are used as the intensity values Imax and Imin.
  • the intensity of the light and dark pattern changes in a sine wave shape as shown in FIGS. 3B and 4B.
  • the intensity values Imax and Imin of each pixel may be calculated by the phase shift method. According to the phase shift method, as shown in FIG. 10, the maximum intensity value Imax and the minimum intensity value Imin of each pixel can be obtained from three first illumination images having different bright and dark pattern phases ⁇ . Therefore, a surface layer image and a deep layer image having the same resolution as the second illumination image can be created using a small number of first illumination images.
  • the first illumination light L1 having the light / dark pattern structured by the liquid crystal element 41b provided in the main body 3 is generated, but the configuration of the first illumination unit 41 is the same.
  • the first illumination light L1 may be generated by other methods.
  • the first illumination unit 41 in FIG. 11A forms a light and dark pattern on the surface B of the living tissue A like a shadow picture.
  • the first illumination unit 41 includes a light source 41a and a mask 41g provided at the distal end portion of the endoscope 2. I have.
  • the mask 41g is, for example, a light-shielding substrate having an opening as a light-transmitting region or a transparent substrate having a light-shielding film as a light-shielding region.
  • the white light output from the light source 41a passes through the mask 41g, so that the first illumination light L1 having a bright and dark pattern is generated, and the projection pattern of the mask 41g is projected onto the living tissue A.
  • a lens 41h that changes the divergence angle of the white light so that the illumination light L1 applied to the living tissue A has a desired divergence angle may be provided.
  • the intensity distribution changing unit 5 functions as an actuator that moves at least one of the light source 41a and the mask 41g, and the light source 41a and the mask 41g are relatively moved in a direction intersecting the optical axis of the white light, whereby the intensity distribution is changed over time. Can be changed.
  • the intensity distribution changing unit 5 functions as a control element that controls lighting and extinguishing of each light source 41a so that a part of the plurality of light sources 41a is turned on. You may let them. That is, a plurality of light sources 41a are arranged in a direction substantially parallel to the mask 41g, and the intensity distribution changing unit 5 can change the intensity distribution over time by switching the light sources 41a to be lit.
  • the first illumination unit 41 in FIG. 11B uses light interference fringes as a light and dark pattern, and divides the light output from the laser light source 41i and the laser light source 41i into two to emit two lights. And an optical path 41j.
  • the optical path 41j is composed of, for example, an optical fiber.
  • an interference fringe having a sinusoidal intensity profile is generated as a light-dark pattern.
  • the intensity distribution changing unit 5 is an optical element that is provided in one optical path of the two branched lights and changes the optical path length. By changing the optical path length of one of the two lights, the interference fringes Is shifted in a direction perpendicular to the optical axis of the illumination light.
  • the 11C includes a light source array 41k and a light guide member 41l that guides light while preserving the incident angle of light with respect to the optical axis.
  • the light source array 41k includes a plurality of light sources 41a arranged so that the incident angles of light with respect to the incident end of the light guide member 41l are different from each other.
  • the plurality of light sources 41a are arranged in a line, but the plurality of light sources 41a may be two-dimensionally arranged.
  • the light guide member 41l is, for example, a rod lens or a multimode fiber.
  • the white light emitted from the light source 41a is converted into a parallel light beam by the lens 41m and enters the incident end of the light guide member 41l.
  • the light that has entered the light guide member 41l is guided through the light guide member 41l while preserving its angle, and enters the living tissue A from the exit end of the light guide member 41l at the same angle as the incident angle to the incident end. It is injected towards. Since light spreads in the circumferential direction by repeating reflection in the light guide member 41l, the light emitted from the light guide member 41l has an annular shape. Therefore, by turning on the plurality of light sources 41a simultaneously, the first illumination light L1 having a concentric pattern shown in FIG. 3F is generated.
  • the intensity distribution changing unit 5 is a control element that controls the turning on and off of the light source 41a.
  • the intensity distribution changing unit 5 controls the turning on and off of each light source 41a, and changes the intensity distribution by switching the light source 41a to be turned on. Instead of switching the light source 41a to be lit, the intensity distribution changing unit 5 may function as an actuator that moves the light source 41a in a direction intersecting the optical axis.
  • the first illuminating unit 41 is configured so that the light / dark pattern projected onto the surface B of the biological tissue A is enlarged in proportion to the imaging distance between the biological tissue A and the imaging unit 6. It is preferable that the first illumination light L1 of the divergent light beam is emitted toward the living tissue A.
  • the boundary between the depth of information included in the surface layer component image and the depth of information included in the deep layer component image depends on the period between the bright part and the dark part. The larger the period between the bright part and the dark part, the deeper the boundary position, and the greater the amount of information contained in the surface layer component image. Therefore, by changing the imaging distance and enlarging or reducing the light and dark pattern on the surface B of the living tissue A, a surface layer component image and a deep layer component image including information on different depths can be acquired.
  • the change of the period between the bright part and the dark part on the surface B of the living tissue A may be performed by the enlargement / reduction of the entire bright / dark pattern by changing the imaging distance, but in the bright / dark pattern of the first illumination light L1.
  • You may change the spatial period of a bright part and a dark part.
  • the period between the bright part and the dark part may be changed by electrical control of the liquid crystal element 41b included in the first illumination part 41.
  • three or more A separate image may be created. That is, the separation processing unit 71 separates three or more component images including information of different depths from two or more first illumination images, and the separated image creation unit 72 includes three or more component images. May be used to create three or more separated images including information of different depths.
  • the light source 41a and the mask 41g are relatively moved in the optical axis direction of white light to change the distance between the light source 41a and the mask 41g. And the period of the dark part may be changed.
  • a zoom lens that includes a plurality of lenses and at least one lens is movable in the optical axis direction may be provided on the optical path of the first illumination light L1.
  • infrared light is used as the first illumination light L1, but instead, light in other wavelength bands may be used.
  • 2B to 2D show modified examples of the wavelength band of the first illumination light L1.
  • the first illumination light L1 may be ultraviolet light.
  • the second illumination light L2 when the second illumination light L2 is composed of a plurality of lights and the wavelength band in which the second illumination light L2 has almost no intensity exists in the visible range, this You may use the 1st illumination light L1 of such a wavelength band.
  • the first illumination light L1 may be light having a spectral width as shown in FIG. 2C, or may be light having a single wavelength as shown in FIG. 2D.
  • the 1st illumination light L1 may contain the some light of a mutually different wavelength band.
  • the second illumination light L2 is not limited to broadband light having a spectrum over substantially the entire visible range, such as white light, and may be light having a spectrum only in a specific wavelength range. Good.
  • the spectra of the first illumination light L1 and the second illumination light L2 may be reversed. That is, the first illumination light L1 may be broadband light such as white light, and the second illumination light L2 may be narrowband light or single wavelength light.
  • the information on the living tissue A is separated into the information on the surface B and the surface layer C and the information on the deep layer D.
  • the information on the surface layer C may be further separated.
  • illustration of the second illumination unit 42 is omitted.
  • a polarizer 9 that controls the polarization state of the first illumination light L ⁇ b> 1 emitted from the first illumination unit 41, and the polarization state of light that enters the imaging unit 6 from the living tissue A
  • the polarizer 10 which selects is provided.
  • the polarization direction of the polarizer 10 coincide with the polarization direction of the polarizer 9
  • the first illumination image including the surface scattered light Ls and the specular light Lr can be acquired.
  • the polarization direction of the polarizer 10 orthogonal a first illumination image including the surface scattered light Ls and not including the specular light Lr can be acquired.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡システム(1)は、第2の照明光(L2)を射出する第2の照明部(42)と、第2の照明光(L2)の波長帯域とは異なる波長帯域の光であり、互いに異なる深さにおける被写体(A)の2つの画像情報を取得するための第1の照明光(L1)を第2の照明光(L2)と同時に射出する第1の照明部(41)と、第1の照明光(L1)で照明されている被写体(A)の第1の照明画像および第2の照明光(L2)で照明されている被写体(A)の第2の照明画像を同時に取得する撮像部(6)と、第1の照明画像から2つの画像情報を分離する分離処理部(71)と、第2の照明画像を2つの画像情報を用いて処理して分離画像を作成する分離画像作成部(72)とを備える。

Description

内視鏡システム
 本発明は、内視鏡システムに関するものである。
 照明された物体から生じる光には、鏡面反射光、拡散反射光、散乱光等の複数種類の成分が含まれる。物体の画像に含まれるこのような成分を、縞状の明暗パターンを有する構造化照明光を用いた高周波パターン投影法によって分離することで、物体の表面の情報と内部の情報とを分離する技術が提案されている(例えば、非特許文献1参照。)。
高谷剛志、外3名、「多重重み付け計測による反射・散乱光の分解」、第14回画像の認識・理解シンポジウム(MIRU2011)、2011年7月
 非特許文献1に開示されている高周波パターン投影法で取得された構造化照明画像を用いて内視鏡の白色光画像を処理することで、被写体の情報を深さによって相互に分離することができ、相互に異なる深さの情報を含む複数の分離画像を作成することが可能となる。しかしながら、構造化照明用の照明系を、通常の白色光用の照明系を有する内視鏡に搭載した場合に、白色光画像とは異なるタイミングで構造化照明画像を取得することで、白色光画像のフレームレートが低下してしまうという問題がある。
 本発明は、上述した事情に鑑みてなされたものであって、フレームレートを低下することなく、被写体の異なる深さの情報を含む分離画像を作成することができる内視鏡システムを提供することを目的とする。
 上記目的を達成するため、本発明は以下の手段を提供する。
 本発明の一態様は、互いに異なる深さにおける被写体の2つの画像情報を取得するための第1の照明光を被写体に向けて射出する第1の照明部と、第2の照明光を前記被写体に向けて射出する第2の照明部と、前記第1の照明光で照明されている前記被写体の第1の照明画像および前記第2の照明光で照明されている前記被写体の第2の照明画像を取得する撮像部と、前記第1の照明画像から前記2つの画像情報を分離する分離処理部と、前記第2の照明画像を前記2つの画像情報を用いて処理することで、前記互いに異なる深さにおける前記被写体の情報をそれぞれ多く含む2つの分離画像を作成する分離画像作成部とを備え、前記第1の照明光が、前記第2の照明光の波長帯域とは異なる波長帯域の光であり、前記第1の照明部および前記第2の照明部が、前記第1の照明光および前記第2の照明光を同時に射出し、前記撮像部が、前記第1の照明光および前記第2の照明光で照明されている前記被写体を撮影することで前記第1の照明画像および前記第2の照明画像を同時に取得する内視鏡システムである。
 本態様によれば、第2の照明光で照明された被写体が撮像部によって撮影されることで第2の照明画像が取得される。一方、第1の照明光で照明された被写体が撮像部によって撮影されることで第1の照明画像が取得され、第1の照明画像に含まれる、異なる深さの2つの画像情報が分離処理部によって分離される。このような2つの画像情報を用いて第2の照明画像を処理することで、被写体の互いに異なる深さの情報を含む2つの分離画像を作成することができる。
 この場合に、第1の照明光の波長帯域と第2の照明光の波長帯域は相互に異なっているので、撮像部は、第1の照明画像と第2の照明画像とを波長によって相互に分離して取得することができる。したがって、第1の照明光および第2の照明光の両方で照明されている被写体の一度の撮影で第1の照明画像と第2の照明画像を同時に取得することで、フレームレートを低下させることなく分離画像を作成することができる。
 上記態様においては、前記第1の照明光が、赤外光であってもよい。
 このようにすることで、第2の照明光として可視域全体にわたって波長を有する白色光を使用することができる。また、第1の照明光は、波長が長い程、被写体のより深い位置まで到達することができるので、第1の照明光として赤外光を使用することで、より深い位置の情報を含む分離画像を作成することができる。
 上記態様においては、前記第1の照明光が、光軸に垂直な光束断面において明部および暗部を含む空間的に非一様な強度分布を有していてもよい。
 散乱体である被写体に照明光が照射されたときに、被写体の表面において鏡面反射された鏡面反射(スペキュラ)光と、被写体内部の表層での散乱を経て被写体の表面から射出された表面散乱光と、被写体内部の深層での散乱を経て被写体の表面から射出された内部散乱光とが生じる。空間的に非一様な強度分布を有する第1の照明光を被写体に照射することで、内部散乱光がスペキュラ光および表面散乱光とは空間的に分離される。すなわち、明部ではスペキュラ光、表面散乱光および内部散乱光が生じるのに対し、暗部では、明部から暗部まで回り込んだ内部散乱光が支配的に生じる。したがって、第1の照明画像内の暗部に対応する領域から深層の画像情報を分離することができ、第1の照明画像内の明部に対応する領域から表面および表層の画像情報を分離することができる。
 上記態様においては、前記第1の照明光が含む前記明部および前記暗部は帯状であり、前記明部および前記暗部が、幅方向に交互に繰り返される縞状であってもよい
 このようにすることで、簡便な明暗パターンで内部散乱光を効果的に分離することができる。また、縞状の強度分布の明部と暗部との位置を入れ替えるためには、強度分布の明部および暗部を縞の幅方向のみに移動させればよいので、照明光の強度分布を容易に時間変化させることができる。
 上記態様においては、前記第1の照明光が含む前記明部および前記暗部は、前記幅方向における強度プロファイルが略正弦波形状であってもよい。
 このように、正弦波状に強度が空間的に変化する第1の照明光を被写体に照射することで、最も強度の高い光が当てられているときの表層の分離画像用の強度値と、光が当てられていないときの深層の分離画像用の強度値とを、位相シフト法により計算することができ、少ない枚数の第1の照明画像からであっても解像度の高い良好な分離画像を作成することができる。
 上記態様においては、前記第1の照明光の波長スペクトルの形状が、単一波長であってもよい。
 上記態様においては、前記分離処理部が、それぞれ前記暗部の幅が異なる前記第1の照明光を照射して取得された2枚以上の前記第1の照明画像から3つ以上の前記画像情報を分離し、前記分離画像作成部が、前記3つ以上の画像情報を用いて3つ以上の前記分離画像を作成してもよい。
 このように、暗部の幅の異なる第1の照明光で照明された被写体の複数枚の第1の照明画像を用いることで、相互に異なる深さの情報を多く含む3つ以上の分離画像を作成することができる。
 本発明によれば、フレームレートを低下することなく、被写体の異なる深さの情報を含む分離画像を作成することができるという効果を奏する。
本発明の一実施形態に係る内視鏡システムの全体構成図である。 第1の照明光および第2の照明光の波長帯域を示す図である。 第1の照明光および第2の照明光の波長帯域の変形例を示す図である。 第1の照明光および第2の照明光の波長帯域の他の変形例を示す図である。 第1の照明光および第2の照明光の波長帯域の他の変形例を示す図である。 第1の照明光の強度分布およびその時間変化の一例を示す図である。 第1の照明光の強度分布およびその時間変化の他の例を示す図である。 第1の照明光の強度分布およびその時間変化の他の例を示す図である。 第1の照明光の強度分布およびその時間変化の他の例を示す図である。 第1の照明光の強度分布およびその時間変化の他の例を示す図である。 第1の照明光の強度分布およびその時間変化の他の例を示す図である。 第1の照明光の強度の空間プロファイルの一例を示す図である。 第1の照明光の強度の空間プロファイルの他の例を示す図である。 第1の照明光の強度の空間プロファイルの他の例を示す図である。 第1の照明光の強度の空間プロファイルの他の例を示す図である。 第1の照明光の強度の空間プロファイルの他の例を示す図である。 第1の照明光の強度の空間プロファイルの他の例を示す図である。 撮像部に設けられた撮像素子の一例を示す図である。 撮像部に設けられた撮像素子の他の例を示す図である。 分離処理部における表層成分画像および深層成分画像の作成処理を説明する図である。 第1の照明光の照射によって生体組織で発生する鏡面反射光、表面散乱光および内部散乱光とこれらの発生位置との関係を説明する図である。 分離処理部における表層成分画像および深層成分画像の作成方法を説明する図である。 分離画像作成部における表層画像および深層画像の作成処理を説明する図である。 位相シフト法による強度値Imax,Iminの算出方法を説明する図である。 第1の照明部および強度分布変更部の他の構成例を示す図である。 第1の照明部および強度分布変更部の他の構成例を示す図である。 第1の照明部および強度分布変更部の他の構成例を示す図である。 偏光子を備える内視鏡システムの変形例の部分構成図である。
 以下に、本発明の一実施形態に係る内視鏡システム1について図面を参照して説明する。
 本実施形態に係る内視鏡システム1は、図1に示されるように、体内を観察する内視鏡2と、内視鏡2の基端に接続された本体部3とを備えている。
 また、内視鏡システム1は、内視鏡2の先端から体内の生体組織(被写体)Aに向けて赤外の照明光L1と白色の第2の照明光L2をそれぞれ射出する第1の照明部41および第2の照明部42と、第1の照明光L1の強度分布を時間変化させる強度分布変更部5と、照明光L1,L2で照明されている生体組織Aの第1および第2の照明画像を取得する撮像部6と、撮像部6によって取得された第1および第2の照明画像を処理して生体組織A内の互いに異なる深さの情報を有する2つの分離画像を作成する画像処理部7とを備えている。
 図2Aは、第1の照明光L1の波長帯域と第2の照明光L2の波長帯域とを示している。
 第1の照明部41は、赤外光を出力する光源41aを備える。第1の照明部41は、光源41aから射出された赤外光から、光軸に垂直な光束断面において空間的に非一様な強度分布を有する第1の照明光L1を生成し、第1の照明光L1を内視鏡2の先端面から生体組織Aに向けて射出する。第1の照明光L1は、一般に、光束の中心から周縁に向かって明るさが漸次低下する強度の勾配を有する。このような光束断面の全体的な強度勾配とは別に、第1の照明光L1は、光束断面において、高強度の明部と該明部よりも低強度または強度を有しない暗部とが交互に繰り返される構造化された明暗パターンを有する。
 このような第1の照明部41は、本体部3に設けられた光源41a、マスク41bおよび集光レンズ41cと、内視鏡2に設けられたイメージガイドファイバ41dおよび投影レンズ41eとを備えている。
 光源41aは、例えば、LEDまたはLDのような半導体光源である。
 マスク41bは、光源41aからの赤外光が入射する入射領域内の各位置の光透過率を電気的に制御することができる液晶素子であり、赤外光を透過させる透光領域と赤外光を遮断する遮光領域とからなり明暗パターンに対応する投影パターンが形成されている。光源41aから出力された赤外光は、マスク41bを透過することで明暗パターンが与えられて第1の照明光L1に生成される。生成された第1の照明光L1は、集光レンズ41cによってイメージガイドファイバ41dの入射端に集光され、内視鏡2の先端に設けられた投影レンズ41eまでイメージガイドファイバ41dによって明暗パターンを保存しながら導光され、投影レンズ41eから発散光束として射出される。
 第2の照明部42は、白色光を出力する光源42aを備え、光軸に垂直な光束断面において空間的に略一様な強度分布を有する白色の第2の照明光L2を、内視鏡2の先端面の第1の照明光L1と同一の位置から生体組織Aに向けて射出する。
 このような第2の照明部42は、本体部3に設けられた光源42aと、光源42aから出力された第2の照明光L2を第1の照明光L1と合波するビームスプリッタ42bとを備える。ビームスプリッタ42bによって第1の照明光L1と合波された第2の照明光L2は、第1の照明光L1と同一の光路を通って生体組織Aに照射される。符号41f,42cは、光源41a,42aから射出された光を平行光束に変換するコリメートレンズである。
 光源42aは、例えば、LEDまたはLDのような半導体光源、もしくはキセノンランプのようなランプ光源である。複数の光源42aから出力された赤、緑、青の光を混合することで白色光を生成してもよい。
 第1の照明部41および第2の照明部42は、第1の照明光L1および第2の照明光L2を同時に射出するように、本体部3に設けられた図示しない制御装置によって制御される。
 強度分布変更部5は、マスク41bの入射領域内の各位置の光透過率を制御する制御素子であり、光束断面において明部と暗部とが入れ替わるように第1の照明光L1の強度分布を時間変化させる。これにより、生体組織Aの表面B上の第1の照明光L1の照射範囲内の各位置には、明部および暗部が順番に投影されるようになっている。
 図3Aから図3Fには、第1の照明光L1の強度分布の明暗パターンとその時間変化の例が示されている。図3Aから図3Fにおいて、白い領域が明部を表し、黒い領域が暗部を表している。
 図3Aの明暗パターンは、正方形の明部および暗部が、相互に直交する2方向に交互に繰り返される市松パターンである。
 図3Bおよび図3Cの明暗パターンは、真っ直ぐな帯状の明部および暗部が、明部および暗部の長手方向に直交する幅方向にのみ交互に繰り返される縞パターンである。縞パターンにおいて、明部と暗部との空間的な周期は、図3Bに示されるように一定であってもよく、図3Cに示されるように異なっていてもよい。
 図3Dの明暗パターンは、波形の帯状の明部および暗部が、明部および暗部の長手方向に直交する幅方向にのみ交互に繰り返される縞パターンである。
 図3Eの明暗パターンは、明部および暗部のうち、一方が円であり、他方が背景であるドットパターンである。
 図3Fの明暗パターンは、丸い帯状の明部および暗部が径方向に交互に繰り返される同心円パターンである。
 図4Aから図4Fは、図3Aから図3Fの明暗パターンにおいて明部と暗部の間での強度Iの空間的な変化を表す強度プロファイルの例を示している。横軸は、位置Xを示している。強度プロファイルは、図4Aに示されるような矩形波状であってもよく、図4Bに示されるような正弦波状であってもよく、図4Cおよび図4Dに示されるような矩形波と正弦波の中間的な形状であってもよく、図4Eに示されるような非対称な波形状であってもよい。また、強度プロファイルは、図4Eに示されるように、第1の照明光L1の中心で最も高く、中心から周縁に向かって全体的に低下していてもよい。明部と暗部との周期とは、図4Aから図4Eそれぞれにおける、明部とその隣の明部との間隔としてよい。
 撮像部6は、内視鏡2の先端に設けられ生体組織Aからの光を集める撮像レンズ6aと、撮像レンズ6aによって形成された生体組織Aの像を撮影する撮像素子6bとを備えている。撮像素子6bは、赤外光と白色光とを空間的に分離して同時に撮影することができるようになっている。このような撮像素子6bとしては、例えば、図5Aに示されるように、赤(R)、緑(G)、青(B)および赤外(IR)用の色フィルタの配列からなる色フィルタアレイ6cを備えるものが使用される。または、撮像素子6bとしては、図5Bに示されるように、撮像面に白色光用のセンサが形成され白色光を撮影するための第1の基板6dと、撮像面に赤外光用のセンサが形成され第1の基板6dを透過した赤外光を撮影するための第2の基板6eとが積層されたものが使用される。
 撮像部6は、第1の照明光L1および第2の照明光L2の両方が生体組織Aに照射されているときに撮影を実行することで、第1の照明光L1で照明されている生体組織Aの第1の照明画像と、第2の照明光L2で照明されている生体組織Aの第2の照明画像とを同時に取得する。撮像素子6bによって取得された第1の照明画像および第2の照明画像は、撮像素子6bから画像処理部7に送信される。
 ここで、生体組織Aに照射される第1の照明光L1の強度分布は、図3Aから図3Fに示されるように強度分布変更部5によって時間変化する。撮像素子6bは、明部と暗部とが相互に反転した第1の照明光L1が生体組織Aに照射される2つの時刻で撮影を実行することで、図6に示されるように、明部の投影領域と暗部の投影領域とが相互に反転し、明部の投影領域同士および暗部の投影領域同士が補完し合うような2枚の第1の照明画像を取得する。図6の第1の照明画像において、白い領域は明部の投影領域を表し、黒い領域は暗部の投影領域を表す。したがって、強度分布変更部5による強度分布の変更のタイミングと撮像素子6bによる撮影のタイミングとが互いに同期するように、強度分布変更部5および撮像素子6bの動作は制御装置によって制御される。
 画像処理部7は、2枚の第1の照明画像から表層成分画像(画像情報)および深層成分画像(画像情報)を分離する分離処理部71と、第2の照明画像を表層成分画像および深層成分画像を用いて処理することで表層画像(分離画像)および深層画像(分離画像)を作成する分離画像作成部72とを機能として備えている。
 図6は、分離処理部71による画像処理を示している。2枚の第1の照明画像の各位置の画素について、明部が投影されているときの強度値Imaxと、暗部が投影されているときの強度値Iminとが取得される。分離処理部71は、図6に示されるように、2枚の第1の照明画像の強度値Iminから生体組織Aの深層Dの情報を多く含む深層成分画像を作成し、2枚の第1の照明画像の強度値Iminおよび強度値Imaxから生体組織Aの表面Bおよび表層Cの情報を多く含む表層成分画像を作成する。
 生体組織Aは、散乱体であり、図7に示されるように、表面Bから数十μmまでの表層Cに毛細血管のような構造αを含み、表層Cよりも深い深層Dに太い血管のような構造βを含む。生体組織Aに明暗パターンを有する第1の照明光L1が照射されたときに、生体組織Aからは、鏡面反射(スペキュラ)光Lr、表面散乱光Lsおよび内部散乱光Ldが発生する。
 スペキュラ光Lrは、生体組織Aの表面Bで鏡面反射された第1照明光L1の反射光であり、明部の投影領域において発生する。
 表面散乱光Lsは、明部の投影領域から生体組織A内に入射し、散乱を繰り返しながら表層Cを通過し、表面Bから射出された第1の照明光L1の散乱光である。表面散乱光Lsのほとんどは、明部の投影領域から射出される。
 内部散乱光Ldは、明部の投影領域から生体組織A内に入射し、散乱を繰り返しながら深層Dを通過し、表面Bから射出された第1の照明光L1の散乱光である。内部散乱光Ldの一部は明部の投影領域から射出され、他の部分は暗部の投影領域まで伝播して暗部の投影領域から射出される。
 このように、2枚の第1の照明画像内の暗部の投影領域の強度値Iminは、主に内部散乱光Ldに基づいており、深層Dの情報を主に含む。一方、2枚の第1の照明画像内の明部の投影領域の強度値Imaxは、スペキュラ光Lr、表面散乱光Lsおよび内部散乱光Ldに基づいており、表面B、表層Cおよび深層Dの情報を含む。
 図8は、分離処理部71による表層成分画像および深層成分画像の具体的な作成方法を示している。図8に示されるように、2枚の第1の照明画像は、明部の投影領域に対応する画素において強度値が高くなり、暗部の投影領域に対応する画素において強度値が低くなる明るさ分布を有する。図8においては、説明を簡単にするために、第1の照明光L1は、図3Aまたは図3Bの明暗パターンのように、明部および暗部が一定周期で繰り返される明暗パターンを有し、画像の画素間の境界と明暗パターンにおける明部および暗部の境界とが一致している(すなわち、1つの明部または暗部が、1つの画素に対応している)場合の強度プロファイルを示している。
 上述したように、2枚の第1の照明画像からは、各画素について2つの強度値Imax,Iminが得られる。分離処理部71は、各画素について、高い方の強度値を強度値Imaxに決定し、低い方の強度値を強度値Iminに決定する。次に、分離処理部71は、表層成分画像の各画素の強度値Isおよび深層成分画像の画素の強度値Idを下式から算出し、強度値Isを有する表層成分画像と強度値Idを有する深層成分画像とを作成する。
 Is=Imax-Imin
 Id=Imin×2
 これにより、深層Dの情報を主に含む強度値Iminを有する深層成分画像が作成される。また、強度値Imaxから強度値Iminを減算することで深層Dの情報が除去され、表面Bおよび表層Cの情報を主に含む強度値Isを有する表層成分画像が作成される。
 分離画像作成部72は、図9に示されるように、下式(a)に基づいて表層画像を作成し、下式(b)に基づいて深層画像を作成する。
 表層画像=第2の照明画像×表層成分画像/(表層成分画像+深層成分画像) …(a)
 深層画像=第2の照明画像×深層成分画像/(表層成分画像+深層成分画像) …(b)
 すなわち、分離画像作成部72は、表層成分画像と深層成分画像との和に対する表層成分画像の比を算出し、算出された比を第2の照明画像に乗算することで、表層画像を作成する。また、分離画像作成部72は、表層成分画像と深層成分画像との和に対する深層成分画像の比を算出し、算出された比を第2の照明画像に乗算することで、深層画像を作成する。
 分離画像作成部72によって作成された表層画像および深層画像は、本体部3から該本体部3に接続された表示装置(図示略)に出力され、表示装置に表示される。
 このような画像処理部7は、例えばコンピュータによって実行される画像処理プログラムとして実現される。すなわち、本体部3には、中央演算処理装置(CPU)、RAMのような主記憶装置、およびハードディスクドライブのような補助記憶装置が内蔵され、画像処理部7による上述処理をCPUに実行させるための画像処理プログラムが補助記憶装置に記憶されている。画像処理プログラムが、補助記憶装置から主記憶装置にロードされ、画像処理プログラムに従ってCPUが処理を実行することで、画像処理部7の上述の機能が実現されるようになっている。
 空間的に略一様な強度分布を有する通常の白色光である第2の照明光L2が生体組織Aに照射されたときには、スペキュラ光Lr、表面散乱光Lsおよび内部散乱光Ldが互いに重畳された状態で撮像部6に入射する。したがって、第2の照明光L2で照明された生体組織Aを撮影した第2の照明画像には、表面Bから数十μmまでの表層Cにおける毛細血管のような構造αと、深層Dにおける太い血管のような構造βと、が共に表示される。
 これに対し、明暗パターンを有する第1の照明光L1が生体組織Aに照射されたときには、深層Dの情報を多く含む内部散乱光Ldが、表面Bおよび表層Cの情報を含むスペキュラ光Lrおよび表面散乱光Lsから空間的に分離され、深層Dの情報が支配的である領域が表面Bおよび表層Cの情報を多く含む領域から空間的に分離された第1の照明画像が得られる。このような第1の照明画像から、表面Bおよび表層Cの情報を主に含み構造αの像が強調された表層成分画像と、深層Dの情報を主に含み構造βの像が強調された深層成分画像とを分離することができる。
 構造化された第1の照明光L1は、第1の照明部41の設計の制限等によって十分な光量を確保することが難しい場合があるが、通常の白色光である第2の照明光L2は十分な光量を容易に確保することができ、明るい第2の照明画像を取得することができる。本実施形態によれば、このような明るい第2の照明画像を表層成分画像および深層成分画像で補正して表層画像および深層画像を作成することで、明るい表層画像および深層画像を作成することができるという利点がある。
 また、第2の照明光L2の波長帯域とは異なる波長帯域の第1の照明光L1を使用することで、第1の照明画像と第2の照明画像を同時に取得することが可能となる。これにより、第1の照明光L1と第2の照明光L2とを順番に生体組織Aに照射して第1の照明画像および第2の照明画像を順番に取得する場合と比べて、表層画像および深層画像の高いフレームレートを達成することができるという利点がある。
 さらに、第1の照明光L1と第2の照明光L2とを内視鏡2の先端面の同一位置から射出することで、第1の照明画像内のスペキュラ光に由来するノイズが表層画像に生じることを防ぐことができる。
 第1の照明光L1と第2の照明光L2とが異なる位置から生体組織Aに向けて射出される場合、第1の照明画像内でのスペキュラ光の位置と第2の照明画像内でのスペキュラ光の位置との間にずれが生じる。スペキュラ光の位置に差がある第1および第2の照明画像を表層画像および深層画像の作成に用いたときに、表層画像には白い(すなわち、高階調値の)斑点状のノイズが発生し、深層画像には黒い(すなわち、低階調値の)斑点状のノイズが発生する。
 これに対し、第1の照明光L1と第2の照明光L2とが同一位置から生体組織Aに向けて射出される場合、第1の照明画像内でのスペキュラ光の位置と第2の照明画像内でのスペキュラ光の位置とが一致する。このような第1の照明画像と第2の照明画像を用いたときには、表層画像および深層画像に斑点状のノイズが生じることがない。
 表層画像における表層Cの情報量および深層画像における深層Dの情報量は、生体組織Aの表面B上での暗部の幅Wd(図7参照。)に依存する。具体的には、暗部の幅Wdが大きい程、表層Cの深さが、暗部の幅Wdが小さい場合と比べてより深くなるため、表層画像として取得できる表層Cの情報量が増加し、逆に深層Dの深さは暗部の幅Wdによらずに一定であるため、深層Dの情報量は減少する。表層画像における表層Cの情報量と深層画像における深層Dの情報量との良好なバランスを確保するために、生体組織Aの表面B上での暗部の幅Wdは0.005mm以上25mm以下であることが好ましい。
 暗部の幅Wdが0.005mm未満である場合、明部の投影領域から暗部の投影領域へ回り込む内部散乱光Ldの割合が増大し、その結果、強度値Imaxと強度値Iminとの差が小さくなって表層成分画像および表層画像に含まれる表層Cの情報が不足し得る。一方、暗部の幅Wdが25mmよりも大きい場合、内部散乱光Ldが暗部の投影領域の中央まで到達することができず、その結果、強度値Iminがゼロに近づいて深層成分画像および深層画像に含まれる深層Dの情報が不足し得る。
 本実施形態においては、分離画像作成部72が、下式(a’)に示されるように、表層画像の作成において、係数Pを表層成分画像に乗じてもよい。また、分離画像作成部72が、下式(b’)に示されるように、深層画像の作成において、係数Qを深層成分画像に乗じてもよい。
 表層画像=第2の照明画像×P×表層成分画像/(表層成分画像+深層成分画像) …(a’)
 深層画像=第2の照明画像×Q×深層成分画像/(表層成分画像+深層成分画像) …(b’)
 このようにすることで、係数Pに応じて表層の情報をより強調した表層画像を作成することができ、係数Qに応じて深層の情報をより強調した深層画像を作成することができる。
 また、分離画像作成部72は、表層画像と深層画像とを合成して合成画像を作成してもよい。この場合に、上記の係数P,Qの一方を大きく設定することで、表層Cの情報および深層Dの情報の両方を残しつつ、一方を強調した合成画像を作成することができる。具体的には、係数Pを大きくすることで、表層Cの情報が強調された合成画像が得られ、係数Qを大きくすることで、深層Dの情報が強調された合成画像が得られる。同様に、上記の係数P,Qの一方を小さく設定することで、表層Cの情報および深層Dの情報の両方を残しつつ、一方を抑制した合成画像を作成することができる。
 係数P,Qは、例えば、本体部3に接続された図示しない入力手段を介してユーザにより設定されるようになっている。
 係数P,Qは、画素毎に設定可能であってもよい。合成画像の各画素ijの強度値Iijは、下式から算出することができる。ij(i=1,2,…,n、j=1,2,…,m)は、n画素×m画素の画像における画素の位置座標である。下式において、Pijは表層画像の画素ijの合成比率であり、Qijは深層画像の画素ijの合成比率である。
 Iij=Pij*Isij/(Isij+Idij)
          +Qij*Idij/(Isij+Idij)
 例えば、ユーザが、表示装置に表示されている表層画像および深層画像を観察しながら、合成比率Pij,Qijを設定することができるように構成されていてもよい。
 係数P,Qは、波長毎に設定可能であってもよい。合成画像の波長λk(k=1,2,…,l)の強度値Ikは、下式から算出することができる。Iskは表層画像の波長λkの強度値であり、Idkは深層画像の波長λkの強度値であり、Pkは表層画像の波長λkの合成比率であり、Qkは深層画像の波長λkの合成比率である。
 Ik=Pk*Isk/(Isk+Idk)
          +Qk*Idk/(Isk+Idk)
 例えば、ユーザが、表示装置に表示されている表層画像および深層画像を観察しながら、合成比率Pk,Qkを設定することができるように構成されていてもよい。
 本実施形態においては、強度分布変更部5が、図3Aから図3Fに示されるように明部および暗部が相互に反転した2つの明暗パターンの間で照明光L1の強度分布を交互に不連続的に変化させてもよいが、これに代えて、照明光L1の強度分布を2つの明暗パターンの間で連続的に変化させてもよい。
 このように、明暗パターンが連続的に変化する場合は、撮像部6は、明部および暗部の位置が相互に異なる3つ以上の時刻で撮影を実行して、明部の投影領域および暗部の投影領域の位置が相互に異なる3枚以上の第1の照明画像を取得してもよい。分離処理部71および分離画像作成部72は、3枚以上の第1の照明画像から表層成分画像および深層成分画像を作成してもよい。この場合、各位置の画素について3つ以上の強度値が得られるので、最大強度値をImaxとし、最小強度値をIminをとして算出すればよい。
 本実施形態においては、2枚の第1の照明画像における強度値を強度値Imax,Iminとして使用することとしたが、明暗パターンが、図3Bおよび図4Bに示される、正弦波状に強度が変化する直線状の縞パターンである場合、位相シフト法により各画素の強度値Imax,Iminを計算してもよい。位相シフト法によれば、図10に示されるように、明暗パターンの位相Φが異なる3枚の第1の照明画像から、各画素の最大強度値Imaxおよび最小強度値Iminを求めることができる。したがって、少ない枚数の第1の照明画像を用いて、第2の照明画像と等しい解像度の表層画像および深層画像を作成することができる。
 本実施形態においては、本体部3内に設けられた液晶素子41bによって構造化された明暗パターンを有する第1の照明光L1を生成することとしたが、第1の照明部41の構成はこれに限定されるものではなく、他の方法で第1の照明光L1を生成してもよい。
 図11Aから図11Cには、第1の照明部41および強度分布変更部5の構成の変形例を示している。
 図11Aの第1の照明部41は、影絵のようにして明暗パターンを生体組織Aの表面B上に形成するものであり、内視鏡2の先端部に設けられた光源41aおよびマスク41gを備えている。
 マスク41gは、例えば、透光領域としての開口が形成された遮光性の基板、または、遮光領域としての遮光膜が形成された透明な基板である。光源41aから出力された白色光がマスク41gを透過することで、明暗パターンを有する第1の照明光L1が生成され、マスク41gの投影パターンが生体組織Aに投影されるようになっている。光源41aとマスク41gとの間には、生体組織Aに照射される照明光L1が所望の発散角を有するように白色光の発散角を変更するレンズ41hが設けられていてもよい。
 強度分布変更部5を、光源41aおよびマスク41gのうち少なくとも一方を移動させるアクチュエータとして機能させ、光源41aおよびマスク41gを白色光の光軸に交差する方向に相対移動させることで、強度分布を時間変化させることができる。
 単一の光源41aを移動させることに代えて、強度分布変更部5を、複数個の光源41aの内の一部を点灯させるように、各光源41aの点灯および消灯を制御する制御素子として機能させてもよい。すなわち、マスク41gに略平行な方向に複数の光源41aが配列され、強度分布変更部5が、点灯させる光源41aを切り替えることで、強度分布を時間変化させることができる。
 図11Bの第1の照明部41は、光の干渉縞を明暗パターンとして利用したものであり、レーザ光源41iと、レーザ光源41iから出力された光を2つに分岐して2つの光を射出する光路41jとを備えている。光路41jは、例えば、光ファイバから構成されている。光路41jから射出された2つの光が互いに干渉することで、正弦波状の強度プロファイルを有する干渉縞が明暗パターンとして生成される。強度分布変更部5は、分岐された2つの光のうちの一方の光路に設けられ、光路長を変化させる光学素子であり、2つの光のうち一方の光路長を変化させることで、干渉縞の位置を照明光の光軸に直交する方向にシフトさせる。
 図11Cの第1の照明部41は、光源アレイ41kと、その光軸に対する光の入射角度を保存しながら光を導光する導光部材41lとを備えている。光源アレイ41kは、導光部材41lの入射端に対する光の入射角度が相互に異なるように配列された複数の光源41aを有する。図11Cでは、複数の光源41aが一列に配列されているが、複数の光源41aは2次元的に配列されていてもよい。導光部材41lは、例えば、ロッドレンズまたはマルチモードファイバである。
 光源41aから射出された白色光は、レンズ41mによって平行光束に変換され、導光部材41lの入射端に入射する。導光部材41l内に入射した光は、その角度を保存しながら導光部材41l内を導光し、入射端への入射角度と同一の角度で導光部材41lの射出端から生体組織Aに向けて射出される。導光部材41l内において光は反射を繰り返すことで周方向に広がるため、導光部材41lから射出される光は、円環状となる。したがって、複数の光源41aを同時に点灯させることで、図3Fに示される同心円パターンの第1の照明光L1が生成される。
 強度分布変更部5は、光源41aの点灯および消灯を制御する制御素子であり、各光源41aの点灯および消灯を制御し、点灯させる光源41aを切り替えることで強度分布を変化させる。
 点灯させる光源41aを切り替えることに代えて、強度分布変更部5を、光源41aを光軸に交差する方向に移動させるアクチュエータとして機能させてもよい。
 本実施形態においては、生体組織Aの表面B上に投影される明暗パターンが生体組織Aと撮像部6との間の撮影距離に比例して拡大されるように、第1の照明部41が、発散光束の第1の照明光L1を生体組織Aに向けて射出することが好ましい。
 表層成分画像に含まれる情報の深さと深層成分画像に含まれる情報の深さとの境界は、明部と暗部との周期に依存する。明部と暗部との周期が大きい程、境界の位置が深くなり、表層成分画像に含まれる情報の量が多くなる。したがって、撮影距離を変更して生体組織Aの表面B上での明暗パターンを拡大または縮小することで、異なる深さの情報を含む表層成分画像および深層成分画像を取得することができる。
 生体組織Aの表面B上での明部と暗部との周期の変更は、上記の撮影距離の変更による明暗パターン全体の拡大縮小によって行ってもよいが、第1の照明光L1の明暗パターンにおける明部と暗部との空間的な周期を変更してもよい。
 例えば、第1の照明部41が備える液晶素子41bの電気的な制御によって明部と暗部との周期を変更してもよい。
 また、明部と暗部との空間的な周期、すなわち暗部の幅がそれぞれ異なる第1の照明光L1を照射して取得された2枚以上の第1の照明画像を用いて、3つ以上の分離画像を作成してもよい。すなわち、分離処理部71が、2枚以上の第1の照明画像から相互に異なる深さの情報を含む3枚以上の成分画像を分離し、分離画像作成部72が、3枚以上の成分画像を用いて相互に異なる深さの情報を含む3枚以上の分離画像を作成してもよい。
 図11Aに示されるように投影により明暗パターンを形成する場合には、光源41aおよびマスク41gを白色光の光軸方向に相対移動させて光源41aとマスク41gとの間隔を変更することで明部と暗部との周期を変更してもよい。
 あるいは、複数のレンズからなるとともに少なくとも1つのレンズが光軸方向に移動可能であるズームレンズを第1の照明光L1の光路上に設けてもよい。
 本実施形態においては、第1の照明光L1として赤外光を使用することとしたが、これに代えて、他の波長帯域の光を使用してもよい。図2Bから図2Dは、第1の照明光L1の波長帯域の変形例を示している。
 図2Bに示されるように、第1の照明光L1は、紫外光であってもよい。
 図2Cおよび図2Dに示されるように、第2の照明光L2が複数の光から構成され、第2の照明光L2がほとんど強度を有しない波長帯域が可視域に存在する場合には、このような波長帯域の第1の照明光L1を使用してもよい。第1の照明光L1は、図2Cに示されるように、スペクトル幅を有する光であってもよく、図2Dに示されるように、単一波長の光であってもよい。また、図2Dに示されるように、第1の照明光L1は、相互に異なる波長帯域の複数の光を含んでいてもよい。
 また、第2の照明光L2は、白色光のような、可視域の略全体にわたってスペクトルを有する広帯域の光に限定されるものではなく、特定の波長域のみにスペクトルを有する光であってもよい。例えば、図2Aから図2Dにおいて、第1の照明光L1と第2の照明光L2のスペクトルが逆であってもよい。すなわち、第1の照明光L1が白色光のような広帯域の光であり、第2の照明光L2が狭帯域の光または単一波長の光であってもよい。
 本実施形態においては、生体組織Aの情報を、表面Bおよび表層Cの情報と深層Dの情報の2つに分離することとしたが、図12に示されるように偏光を利用して表面Bの情報と表層Cの情報とをさらに分離してもよい。図12において、第2の照明部42の図示を省略している。
 内視鏡2の先端には、第1の照明部41から射出された第1の照明光L1の偏光状態を制御する偏光子9と、生体組織Aから撮像部6に入射する光の偏光状態を選択する偏光子10とが設けられている。偏光子9の偏光方向に対して偏光子10の偏光方向を一致させることで、表面散乱光Lsおよびスペキュラ光Lrを含む第1の照明画像を取得することができ、偏光子9の偏光方向に対して偏光子10の偏光方向を直交させることで、表面散乱光Lsを含みスペキュラ光Lrを含まない第1の照明画像を取得することができる。
1 内視鏡システム
2 内視鏡
3 本体部
41 第1の照明部
42 第2の照明部
5 強度分布変更部
6 撮像部
7 画像処理部
71 分離処理部
72 分離画像作成部
L1 第1の照明光
L2 第2の照明光
A 生体組織
B 表面
C 表層
D 深層

Claims (7)

  1.  互いに異なる深さにおける被写体の2つの画像情報を取得するための第1の照明光を被写体に向けて射出する第1の照明部と、
     第2の照明光を前記被写体に向けて射出する第2の照明部と、
     前記第1の照明光で照明されている前記被写体の第1の照明画像および前記第2の照明光で照明されている前記被写体の第2の照明画像を取得する撮像部と、
     前記第1の照明画像から前記2つの画像情報を分離する分離処理部と、
     前記第2の照明画像を前記2つの画像情報を用いて処理することで、前記互いに異なる深さにおける前記被写体の情報をそれぞれ多く含む2つの分離画像を作成する分離画像作成部とを備え、
     前記第1の照明光が、前記第2の照明光の波長帯域とは異なる波長帯域の光であり、
     前記第1の照明部および前記第2の照明部が、前記第1の照明光および前記第2の照明光を同時に射出し、
     前記撮像部が、前記第1の照明光および前記第2の照明光で照明されている前記被写体を撮影することで前記第1の照明画像および前記第2の照明画像を同時に取得する内視鏡システム。
  2.  前記第1の照明光が、赤外光である請求項1に記載の内視鏡システム。
  3.  前記第1の照明光が、光軸に垂直な光束断面において明部および暗部を含む空間的に非一様な強度分布を有する請求項1に記載の内視鏡システム。
  4.  前記第1の照明光が含む前記明部および前記暗部は帯状であり、
     前記明部および前記暗部が、幅方向に交互に繰り返される縞状である請求項3に記載の内視鏡システム。
  5.  前記第1の照明光が含む前記明部および前記暗部は、前記幅方向における強度プロファイルが略正弦波形状である請求項4に記載の内視鏡システム。
  6.  前記第1の照明光の波長スペクトルの形状が、単一波長である請求項1から請求項5いずれかに記載の内視鏡システム。
  7.  前記分離処理部が、それぞれ前記暗部の幅が異なる前記第1の照明光を照射して取得された2枚以上の前記第1の照明画像から3つ以上の前記画像情報を分離し、
     前記分離画像作成部が、前記3つ以上の画像情報を用いて3つ以上の前記分離画像を作成する請求項3に記載の内視鏡システム。
PCT/JP2017/021667 2017-06-12 2017-06-12 内視鏡システム WO2018229834A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/021667 WO2018229834A1 (ja) 2017-06-12 2017-06-12 内視鏡システム
US16/702,964 US11045081B2 (en) 2017-06-12 2019-12-04 Endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/021667 WO2018229834A1 (ja) 2017-06-12 2017-06-12 内視鏡システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/702,964 Continuation US11045081B2 (en) 2017-06-12 2019-12-04 Endoscope system

Publications (1)

Publication Number Publication Date
WO2018229834A1 true WO2018229834A1 (ja) 2018-12-20

Family

ID=64660314

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021667 WO2018229834A1 (ja) 2017-06-12 2017-06-12 内視鏡システム

Country Status (2)

Country Link
US (1) US11045081B2 (ja)
WO (1) WO2018229834A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972675B2 (en) 2017-06-12 2021-04-06 Olympus Corporation Endoscope system
US11070739B2 (en) 2017-06-12 2021-07-20 Olympus Corporation Endoscope system having a first light source for imaging a subject at different depths and a second light source having a wide band visible band
US11324385B2 (en) 2017-06-12 2022-05-10 Olympus Corporation Endoscope system for processing second illumination image using image information other than image information about outermost surface side of subject among three image information from at least four images of first illumination images
US11805988B2 (en) 2018-06-05 2023-11-07 Olympus Corporation Endoscope system
US11871906B2 (en) 2018-06-05 2024-01-16 Olympus Corporation Endoscope system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017208A1 (ja) 2017-07-19 2019-01-24 ソニー株式会社 手術システム、制御方法、手術機器、並びにプログラム
US20200288965A1 (en) * 2019-03-11 2020-09-17 Spring Biomed Vision Ltd. System and method for enhanced imaging of biological tissue

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011081141A1 (ja) * 2009-12-28 2011-07-07 オリンパス株式会社 光散乱性を有する対象の内部観察装置、生体内部観察装置および内部観察用内視鏡、並びに内部観察方法
WO2011080996A1 (ja) * 2009-12-28 2011-07-07 オリンパス株式会社 画像処理装置、電子機器、プログラム及び画像処理方法
WO2015016013A1 (ja) * 2013-07-31 2015-02-05 富士フイルム株式会社 内視鏡用光源装置、およびこれを用いた内視鏡システム
WO2016151903A1 (ja) * 2015-03-25 2016-09-29 オリンパス株式会社 観察システム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6464633B1 (en) 1999-08-23 2002-10-15 Olympus Optical Co., Ltd. Light source device for endoscope using DMD
US20020165456A1 (en) * 2001-03-26 2002-11-07 Murat Canpolat Estimation of the average size of white light scatterers in normal and cancerous tissue using light scattering spectrum
EP2290336B1 (en) 2003-06-06 2017-01-25 The General Hospital Corporation A wavelength tuned laser light source
WO2007132378A2 (en) 2006-05-09 2007-11-22 Koninklijke Philips Electronics N. V. Imaging system for three-dimensional imaging of the interior of an object
JP5190860B2 (ja) 2007-01-22 2013-04-24 学校法人東京電機大学 投影露光装置および投影露光方法
US9055866B2 (en) 2008-06-27 2015-06-16 Olympus Corporation Internal observation device for object having light scattering properties, internal body observation device, endoscope for internal observation and internal observation method
US8734333B2 (en) 2009-03-18 2014-05-27 Fujifilm Corporation Endoscope system, endoscope video processor and method of driving endoscope system
JP5289120B2 (ja) 2009-03-18 2013-09-11 富士フイルム株式会社 内視鏡システムおよび内視鏡用プロセッサ装置
JP5449816B2 (ja) 2009-03-26 2014-03-19 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理装置の作動方法
EP2637553A2 (en) 2010-11-12 2013-09-18 Emory University Additional systems and methods for providing real-time anatomical guidance in a diagnostic or therapeutic procedure
WO2012147679A1 (ja) * 2011-04-27 2012-11-01 オリンパス株式会社 内視鏡装置および計測方法
JP5611892B2 (ja) 2011-05-24 2014-10-22 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
JP5764747B2 (ja) 2011-09-02 2015-08-19 パナソニックIpマネジメント株式会社 偏光撮像素子および内視鏡
US11510600B2 (en) * 2012-01-04 2022-11-29 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
CN103987309B (zh) 2012-05-01 2016-06-22 奥林巴斯株式会社 内窥镜装置
JP5603508B2 (ja) 2012-05-22 2014-10-08 パナソニック株式会社 撮像処理装置および内視鏡
JP6041340B2 (ja) 2012-07-18 2016-12-07 スカラ株式会社 カメラ
CN104717917B (zh) * 2013-02-12 2016-11-02 奥林巴斯株式会社 内窥镜装置
JP6150583B2 (ja) 2013-03-27 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
FR3016699B1 (fr) 2014-01-22 2016-02-12 Msc & Sgcc Procede et dispositif pour la detection notamment de defauts refractants
JP2015231498A (ja) 2014-06-11 2015-12-24 キヤノン株式会社 内視鏡装置
JP2016049370A (ja) 2014-09-02 2016-04-11 Hoya株式会社 電子内視鏡システム
JP6346576B2 (ja) 2015-02-27 2018-06-20 Hoya株式会社 画像処理装置
JP6285383B2 (ja) 2015-03-20 2018-02-28 富士フイルム株式会社 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び内視鏡システムの作動方法
JP5854544B1 (ja) 2015-04-07 2016-02-09 藤垣 元治 形状計測装置および形状計測方法
JP6618704B2 (ja) 2015-04-10 2019-12-11 オリンパス株式会社 内視鏡システム
JP2016209466A (ja) 2015-05-13 2016-12-15 ソニー株式会社 内視鏡装置及び内視鏡装置の制御方法
JP2017012395A (ja) 2015-06-30 2017-01-19 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
EP3551034A1 (en) 2016-12-07 2019-10-16 Progenity, Inc. Gastrointestinal tract detection methods, devices and systems
WO2018229831A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
WO2018229832A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム
WO2018229833A1 (ja) 2017-06-12 2018-12-20 オリンパス株式会社 内視鏡システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011081141A1 (ja) * 2009-12-28 2011-07-07 オリンパス株式会社 光散乱性を有する対象の内部観察装置、生体内部観察装置および内部観察用内視鏡、並びに内部観察方法
WO2011080996A1 (ja) * 2009-12-28 2011-07-07 オリンパス株式会社 画像処理装置、電子機器、プログラム及び画像処理方法
WO2015016013A1 (ja) * 2013-07-31 2015-02-05 富士フイルム株式会社 内視鏡用光源装置、およびこれを用いた内視鏡システム
WO2016151903A1 (ja) * 2015-03-25 2016-09-29 オリンパス株式会社 観察システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAYAR K. SHREE ET AL: "Fast separation of direct and global components of a scene using high frequency illumination", ACM TRANSACTIONS ON GRAPHICS (TOG), vol. 25, no. 3, 1 July 2006 (2006-07-01), pages 935 - 944, XP058328192, DOI: 10.1145/1141911.1141977 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972675B2 (en) 2017-06-12 2021-04-06 Olympus Corporation Endoscope system
US11070739B2 (en) 2017-06-12 2021-07-20 Olympus Corporation Endoscope system having a first light source for imaging a subject at different depths and a second light source having a wide band visible band
US11324385B2 (en) 2017-06-12 2022-05-10 Olympus Corporation Endoscope system for processing second illumination image using image information other than image information about outermost surface side of subject among three image information from at least four images of first illumination images
US11805988B2 (en) 2018-06-05 2023-11-07 Olympus Corporation Endoscope system
US11871906B2 (en) 2018-06-05 2024-01-16 Olympus Corporation Endoscope system

Also Published As

Publication number Publication date
US20200100660A1 (en) 2020-04-02
US11045081B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
WO2018229834A1 (ja) 内視鏡システム
US11324385B2 (en) Endoscope system for processing second illumination image using image information other than image information about outermost surface side of subject among three image information from at least four images of first illumination images
WO2018229832A1 (ja) 内視鏡システム
US10530976B2 (en) Endoscope probes and systems, and methods for use therewith
US10605661B2 (en) Image capturing with filters of overlapping passbands
WO2018229831A1 (ja) 内視鏡システム
WO2016103643A1 (en) Medical imaging system, illumination device, and method
US11805988B2 (en) Endoscope system
JP2016063928A (ja) 偏光撮像装置、偏光画像処理装置、およびカラー偏光複合モザイクフィルタ
US10149599B2 (en) Processing apparatus
JP7118147B2 (ja) 内視鏡システム
US20180049644A1 (en) Observation apparatus and method for visual enhancement of an observed object
JP6927210B2 (ja) 観察装置
CN105352923B (zh) 一种快速宽视场体全息荧光显微成像系统
JP6818487B2 (ja) スペクトルの測定方法
JP2008122628A (ja) 縦縞干渉模様投影レンズ
JP7418455B2 (ja) 三次元測定機器及び測定システム
JP2005287900A (ja) 内視鏡
WO2021181508A1 (ja) 内視鏡システム
JP7261301B2 (ja) 光学装置、光源装置、集光方法及び内視鏡システム
JPWO2021019716A5 (ja) 光学装置、光源装置、集光方法及び内視鏡システム
JP2018126174A (ja) 内視鏡装置
JP2018054450A (ja) 反射スペクトルの測定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17913440

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17913440

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP