WO2018131631A1 - 内視鏡システム、及び画像表示装置 - Google Patents

内視鏡システム、及び画像表示装置 Download PDF

Info

Publication number
WO2018131631A1
WO2018131631A1 PCT/JP2018/000423 JP2018000423W WO2018131631A1 WO 2018131631 A1 WO2018131631 A1 WO 2018131631A1 JP 2018000423 W JP2018000423 W JP 2018000423W WO 2018131631 A1 WO2018131631 A1 WO 2018131631A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature amount
distribution
pixel
value
Prior art date
Application number
PCT/JP2018/000423
Other languages
English (en)
French (fr)
Inventor
千葉 亨
Original Assignee
Hoya株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya株式会社 filed Critical Hoya株式会社
Priority to JP2018561403A priority Critical patent/JP6770587B2/ja
Priority to DE112018000393.0T priority patent/DE112018000393T5/de
Priority to US16/468,956 priority patent/US11602277B2/en
Priority to CN201880005008.3A priority patent/CN110087528B/zh
Publication of WO2018131631A1 publication Critical patent/WO2018131631A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14552Details of sensors specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/007Optical devices or arrangements for the control of light using movable or deformable optical elements the movable or deformable optical element controlling the colour, i.e. a spectral characteristic, of the light
    • G02B26/008Optical devices or arrangements for the control of light using movable or deformable optical elements the movable or deformable optical element controlling the colour, i.e. a spectral characteristic, of the light in the form of devices for effecting sequential colour changes, e.g. colour wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to an endoscope system and an image display apparatus that perform image processing on a feature amount of a living tissue and display an image.
  • An example of a hemoglobin observation apparatus including such an endoscope system is described in Patent Document 1.
  • the hemoglobin observation apparatus described in Patent Document 1 has a configuration in which information on reflected light in three different wavelength bands of hemoglobin included in an observation object is processed based on a predetermined calculation process, and the processing result is displayed on a display unit. Prepare. At this time, in the calculation processing of the captured image signal, the oxygen saturation level of hemoglobin is based on the correlation between the information on the amount of reflected light or transmitted light depending on the hemoglobin concentration and the information on the amount of reflected light or transmitted light depending on the oxygen saturation. Is calculated.
  • the hemoglobin observation apparatus including the endoscope system
  • information specifying the location of a blood vessel such as a visceral tissue, a vein or an artery is missing.
  • a diagnostic support image the positional relationship between the focused part and the living tissue is unclear and is not appropriate. That is, it is not possible to clearly identify the position in the living tissue corresponding to the portion of interest in the image showing the oxygen saturation distribution.
  • the position of the living tissue where the oxygen saturation is high and the positional relationship between the living tissue and the oxygen saturation are clarified It has a drawback that it is difficult to grasp.
  • the present invention can detect the presence of a non-healthy part including a lesioned part or a suspicious part as a lesioned part in a living tissue from oxygen saturation and blood concentration, and is not healthy as a diagnostic support image. It is an object of the present invention to provide an endoscope system and an image display device that display clear image information that can specify where a part is located in a living tissue.
  • the endoscope system includes: An endoscope including an imaging device configured to generate a plurality of image data by imaging a biological tissue; A first feature amount distribution image representing the distribution of the first feature amount of the biological tissue and a second feature amount distribution image representing the second feature amount distribution of the biological tissue are obtained from the plurality of image data.
  • a pixel having the first feature amount less than a predetermined threshold is set as a non-transparent pixel having a transmittance of 0, and the first feature amount is equal to or greater than the predetermined threshold.
  • the second feature value distribution image is converted from the first feature value distribution image by giving the pixel a transmittance determined according to the degree to which the first feature value departs from the threshold value.
  • a second image processing unit configured to generate a mask image to be masked, and a second feature amount distribution processing image in which the mask image is superimposed on an upper layer of the second feature amount distribution image.
  • a processor comprising: a third image processing unit; , A display configured to display an image of the second feature amount distribution processed image generated by the third image processing unit. For example, the second image processing unit sets pixels whose first feature amount is less than a predetermined lower limit value as non-transparent pixels whose transmittance is 0, and pixels whose first feature amount is equal to or higher than a predetermined upper limit value.
  • the transmittance of the transmissive pixel increases continuously or stepwise as the first feature amount in the pixel moves away from the threshold value.
  • the transmittance of the transmissive pixel may be configured to increase continuously or stepwise from the lower limit value toward the upper limit value.
  • the transmittance of the transmissive pixel increases nonlinearly as the first feature amount in the pixel moves away from the threshold value.
  • the transmittance of the transmissive pixel is determined in a non-linear manner in accordance with the degree to which the first feature amount in the pixel departs from the threshold value or the output value of the pixel from the lower limit value toward the upper limit value. It can be set as the structure made high.
  • the processor includes an input unit configured to receive an input that continuously changes the threshold value, and the third image processing unit is configured to receive the second feature amount each time the input is changed. It is preferable that the distribution processing image is generated.
  • the first image processing unit calculates a value of a first ratio and a second ratio between components using a value of a predetermined component among the components of the plurality of image data, and the first ratio and Calculating the first feature value and the second feature value using the value of the second ratio; It is preferable that the first feature amount is a hemoglobin concentration, and the second feature amount is an oxygen saturation level of hemoglobin.
  • the first ratio is a ratio having sensitivity to the first feature amount of the living tissue
  • the second ratio is a ratio having sensitivity to the second feature amount of the biological tissue
  • One of the components of the image data used for calculating the first ratio is a component in a first wavelength band within a range of 500 nm to 600 nm
  • One of the components of the image data used for calculating the second ratio is preferably a component in a second wavelength band that is narrower than the first wavelength band.
  • Another aspect of the present invention is an image display device including a processor configured to perform image processing and a display configured to display an image.
  • the image display device includes: The first feature amount distribution image representing the distribution of the first feature amount of the biological tissue and the second feature amount distribution image representing the distribution of the second feature amount of the biological tissue are obtained from the captured image of the biological tissue.
  • a pixel having the first feature quantity less than a predetermined threshold is set as a non-transparent pixel having a transmittance of 0, and the first feature quantity is greater than or equal to a predetermined threshold.
  • a second image processing unit configured to generate an image, and a third image configured to generate a second feature quantity distribution processed image in which the mask image is superimposed on an upper layer of the second feature quantity distribution image
  • a processor comprising a processing unit;
  • a display configured to display an image of the second feature amount distribution processed image generated by the third image processing unit. For example, the second image processing unit sets pixels whose first feature amount is less than a predetermined lower limit value as non-transparent pixels whose transmittance is 0, and pixels whose first feature amount is equal to or higher than a predetermined upper limit value.
  • the transmittance is modulated according to the distance between the two to make the pixel a transparent pixel. It is preferable to generate a mask from one feature quantity distribution image and generate a mask image for filtering the second feature quantity distribution image.
  • a diagnostic support image capable of detecting the presence of a non-healthy part including a lesioned part or a suspicious part as a lesioned part in a living tissue
  • the diagnostic support image It is possible to display an image including clear image information that can specify where the unhealthy part of interest is located in the living tissue.
  • (A)-(c) is a figure which shows the example of the image of a biological tissue, and the distribution image of the biological feature-value of the biological tissue.
  • (A)-(c) is a figure explaining an example of preparation of the diagnostic assistance image displayed with the endoscope system or image display apparatus of this embodiment.
  • It is a block diagram of an example of composition of an endoscope system used by this embodiment.
  • It is a figure which shows an example of the spectral characteristic of each filter of red (R), green (G), and blue (B) of the image pick-up element of the endoscope system used by this embodiment.
  • A is a figure which shows an example of the absorption spectrum of hemoglobin near 550 nm. It is a figure which shows an example of the relationship between the 1st ratio used by this embodiment, and the density
  • A is a figure which shows an example of the diagnostic assistance image displayed with the endoscope system of this embodiment
  • (b) is a figure which shows an example of the diagnostic assistance image displayed with the conventional endoscope system. is there.
  • A)-(f) is a figure explaining the mask image used for preparation of the diagnostic assistance image displayed with the endoscope system or image display apparatus of this embodiment.
  • FIGS. 1A to 1C are views showing examples of an image of a biological tissue and a distribution image of biological feature values of the biological tissue.
  • FIG. 1A shows an example of an image of a living tissue.
  • FIG. 1B shows an example of a distribution image of hemoglobin concentration (biological feature amount) in a biological tissue calculated by using an endoscope system described later
  • FIG. 1C shows an endoscope described later.
  • An example of the distribution image of the oxygen saturation (biological feature amount) in the biological tissue calculated using the system is shown.
  • FIG. 1B shows a muscular shape such as a blood vessel of a living tissue.
  • the oxygen saturation distribution image shown in FIG. 1 (c) the form of blood vessels or the like of the living tissue is not clearly shown.
  • a diagnostic support image that can be provided can be provided. That is, an image to which information reflecting the shape and position of a living tissue is added as a diagnosis support image.
  • (Diagnosis support image) 2A to 2C are diagrams for explaining an example of creating a diagnosis support image to be displayed by the endoscope system or the image display device of the present embodiment.
  • the mask image for masking the distribution image of oxygen saturation (second feature amount) shown in FIG. 1C is used as the distribution image of hemoglobin concentration (first feature amount) shown in FIG. Generate from.
  • the distribution image of hemoglobin concentration calculated by the endoscope system described later see FIG. 2A, as shown in FIG.
  • a pixel whose density (first feature amount) is less than a predetermined threshold value is a non-transparent pixel whose transmittance is 0, and a pixel whose hemoglobin density is greater than or equal to the threshold is determined according to the degree to which the hemoglobin density departs from the threshold value. Is given to the pixel to make it a transmissive pixel. Specifically, the transmittance of a pixel whose output value, that is, the pixel value related to the hemoglobin density is equal to or higher than a predetermined lower limit value (a pixel value corresponding to the hemoglobin density threshold value) from the lower limit value toward the upper limit value.
  • a mask image is obtained from the distribution image of hemoglobin density (first feature amount).
  • create The endoscope system and the image display device of the present embodiment create this mask image as a mask image that masks the oxygen saturation distribution image, and overlays the mask image on the upper layer of the oxygen saturation distribution image.
  • a degree processing distribution image is created as a diagnosis support image, and the oxygen saturation distribution processing image is displayed on a display.
  • transmittances of 20%, 50%, and 100% are shown.
  • the transmittance is used as a mask image
  • the luminance value of the pixel in the image below the mask image is changed according to the transmittance.
  • the transmittance of 100% does not change the luminance value of the pixel of the image in the lower layer of the mask image
  • the transmittance of 25% is the luminance value of the pixel of the image in the lower layer of the mask image. It means changing to%.
  • FIG. 2C shows an example of the mask image M.
  • FIG. 3 is a block diagram showing a configuration of the endoscope system 10 of the present embodiment.
  • the endoscope system 10 includes an electronic endoscope (endoscope) 100, a processor 200, a display 300, and a light source device 400.
  • the electronic endoscope 100 and the display 300 are detachably connected to the processor 200.
  • the processor 200 includes an image processing unit 500.
  • the light source device 400 is detachably connected to the processor 200.
  • the electronic endoscope 100 has an insertion tube 110 that is inserted into the body of a subject. Inside the insertion tube 110, a light guide 131 extending over substantially the entire length of the insertion tube 110 is provided.
  • the distal end portion 131 a that is one end portion of the light guide 131 is located in the distal end portion of the insertion tube 110, that is, in the vicinity of the distal end portion 111 of the insertion tube, and the proximal end portion 131 b that is the other end portion of the light guide 131 is connected to the light source device 400.
  • the light guide 131 extends from the connection portion with the light source device 400 to the vicinity of the insertion tube distal end portion 111.
  • the light source device 400 includes a light source lamp 430 that generates a large amount of light, such as a xenon lamp, as a light source.
  • the light emitted from the light source device 400 enters the base end portion 131b of the light guide 131 as illumination light IL.
  • the light incident on the base end portion 131b of the light guide 131 is guided to the tip end portion 131a through the light guide 131, and is emitted from the tip end portion 131a.
  • a light distribution lens 132 disposed opposite to the distal end portion 131 a of the light guide 131 is provided at the insertion tube distal end portion 111 of the electronic endoscope 100.
  • the illumination light IL emitted from the distal end portion 131a of the light guide 131 passes through the light distribution lens 132 and illuminates the living tissue T in the vicinity of the insertion tube distal end portion 111.
  • An objective lens group 121 and an image sensor 141 are provided at the insertion tube tip 111 of the electronic endoscope 100.
  • the objective lens group 121 and the imaging element 141 form an imaging unit.
  • the illumination light IL the light reflected or scattered by the surface of the living tissue T is incident on the objective lens group 121, is condensed, and forms an image on the light receiving surface of the image sensor 141.
  • the image sensor 141 a known image sensor such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor having a color filter 141 a on the light receiving surface can be used. .
  • the color filter 141 a includes an R color filter that transmits red light, a G color filter that transmits green light, and a B color filter that transmits blue light, and is arranged on each light receiving element of the image sensor 141. It is a so-called on-chip filter formed directly.
  • FIG. 4 is a diagram illustrating an example of spectral characteristics of the red (R), green (G), and blue (B) filters of the image sensor used in the present embodiment.
  • the R color filter of the present embodiment is a filter that passes light having a wavelength longer than about 570 nm (for example, 580 nm to 700 nm)
  • the G color filter is a filter that passes light having a wavelength of about 470 nm to 620 nm, for example.
  • the B color filter is a filter that allows light having a wavelength shorter than about 530 nm (for example, 420 nm to 520 nm) to pass therethrough.
  • the imaging element 141 is an imaging unit that images the living tissue T illuminated with each of a plurality of lights and generates color image data corresponding to each light, and the living tissue T with a plurality of lights having different wavelength ranges. It is an image data generation means for generating color image data corresponding to light reflected or scattered on the living tissue T by illuminating.
  • the image sensor 141 is controlled to be driven in synchronization with an image processing unit 500 described later, and periodically (for example, 1/1 /) color image data corresponding to an image of the living tissue T formed on the light receiving surface. Output at intervals of 30 seconds).
  • the color image data output from the image sensor 141 is sent to the image processing unit 500 of the processor 200 via the cable 142.
  • the image processing unit 500 mainly includes an A / D conversion circuit 502, a pre-image processing unit 504, a frame memory unit 506, a post image processing unit 508, a feature amount acquisition unit 510, a memory 512, an image display control unit 514, and a controller 516. Prepare for.
  • the A / D conversion circuit 502 A / D converts color image data input from the image sensor 141 of the electronic endoscope 100 via the cable 142 and outputs digital data. Digital data output from the A / D conversion circuit 502 is sent to the pre-image processing unit 504.
  • the pre-image processing unit 504 captures digital data by using the R digital image data captured by the light receiving element in the image sensor 141 with the R color filter and the light receiving element in the image sensor 141 with the G color filter.
  • the R, G, and B component color image data constituting the image by demosaic processing from the G digital image data and the B digital image data picked up by the light receiving element in the image pickup element 141 to which the B color filter is attached.
  • the pre-image processing unit 504 is a part that performs predetermined signal processing such as color correction, matrix calculation, and white balance correction on the generated R, G, and B color image data.
  • the frame memory unit 506 temporarily stores color image data for each image captured by the image sensor 141 and subjected to signal processing.
  • the post image processing unit 508 reads the color image data stored in the frame memory unit 506 or receives the image data generated by the image display control unit 514 (to be described later), performs signal processing ( ⁇ correction or the like), and displays the image data. Generate screen data for display.
  • the image data generated by the image display control unit 514 includes feature amount distribution image data such as an oxygen saturation distribution image showing the oxygen saturation distribution of hemoglobin in the living tissue T.
  • the generated screen data (video format signal) is output to the display 300. Thereby, the image of the living tissue T, the distribution image of the feature amount of the living tissue T, and the like are displayed on the screen of the display 300.
  • the feature amount acquisition unit 510 calculates, as described later, the hemoglobin concentration and oxygen saturation of the hemoglobin of the imaged living tissue T as feature amounts, and captures these feature amounts.
  • a distribution image on the image of the living tissue T that is, a distribution image showing the distribution of hemoglobin concentration or an oxygen saturation distribution image showing the distribution of oxygen saturation of hemoglobin is generated.
  • the feature quantity acquisition unit 510 further generates a mask image that masks the oxygen saturation distribution image from the hemoglobin concentration distribution image.
  • the feature quantity acquisition unit 510 further generates an oxygen saturation distribution processing image in which the mask image is superimposed on the upper layer of the oxygen saturation distribution image.
  • the feature amount acquisition unit 510 calculates the feature amount of the concentration of hemoglobin and oxygen saturation by calculating using the color image data of the living tissue T illuminated with a plurality of lights having different wavelength ranges, the frame memory unit 506 Alternatively, color image data and various types of information used by the feature amount acquisition unit 510 are called from the memory 512.
  • the image display control unit 514 controls the form in which the generated oxygen saturation distribution processing image is displayed on the display 300.
  • the controller 516 is a part that performs operation instruction and operation control of each part of the image processing unit 500, and performs operation instruction and operation control of each part of the electronic endoscope 100 including the light source device 400 and the imaging element 141.
  • the feature amount acquisition unit 510 and the image display control unit 514 may be configured by software modules that perform the above-described functions by starting and executing programs on a computer, or by dedicated hardware. May be.
  • the processor 200 instructs and controls the function of processing the color image data output from the image sensor 141 of the electronic endoscope 100 and the operation of the electronic endoscope 100, the light source device 400, and the display 300. Combines functionality.
  • the light source device 400 is a light emitting unit that emits the first light, the second light, and the third light, and the first light, the second light, and the third light are incident on the light guide 131. Let The light source device 400 of the present embodiment emits first light, second light, and third light having different wavelength ranges, but may emit four or more lights. In this case, the fourth light may be light in the same wavelength range as the first light.
  • the light source device 400 includes a condenser lens 440, a rotation filter 410, a filter control unit 420, and a condenser lens 450.
  • the light that is substantially parallel light emitted from the light source lamp 430 is, for example, white light, is collected by the condenser lens 440, passes through the rotary filter 410, and is condensed again by the condenser lens 450.
  • the light enters the base end 131 b of the guide 131.
  • the rotary filter 410 is movable between a position on the optical path of light emitted from the light source lamp 430 and a retracted position outside the optical path by a moving mechanism (not shown) such as a linear guide way.
  • the rotary filter 410 includes a plurality of filters having different transmission characteristics, the wavelength range of the light emitted from the light source device 400 differs depending on the type of the rotary filter 410 that crosses the optical path of the light emitted from the light source lamp 430.
  • the configuration of the light source device 400 is not limited to that shown in FIG.
  • the light source lamp 430 may be a lamp that generates convergent light instead of parallel light.
  • a configuration may be adopted in which light emitted from the light source lamp 430 is collected before the condenser lens 440 and is incident on the condenser lens 440 as diffused light.
  • a configuration in which substantially parallel light generated by the light source lamp 430 is directly incident on the rotary filter 410 without using the condenser lens 440 may be employed.
  • a configuration in which a collimator lens is used instead of the condenser lens 440 and light is incident on the rotary filter 410 in a substantially parallel light state may be employed.
  • a collimator lens is used instead of the condenser lens 440 and light is incident on the rotary filter 410 in a substantially parallel light state.
  • an interference type optical filter such as a dielectric multilayer filter
  • the incident angle of the light to the optical filter is made uniform by causing substantially parallel light to enter the rotary filter 410.
  • a lamp that generates divergent light may be employed as the light source lamp 430.
  • the light source device 400 is configured to emit a plurality of lights in different wavelength ranges by transmitting light emitted from one light source lamp 430 through an optical filter.
  • different wavelengths are used.
  • a semiconductor light source such as a light emitting diode or a laser element that outputs laser light having different regions can be used as the light source of the light source device 400.
  • the rotation filter 410 may not be used.
  • the light source device 400 emits, for example, synthetic white light including excitation light in a predetermined wavelength region and fluorescence excited and emitted by the excitation light, and light in a predetermined narrow wavelength region separately. Can also be configured.
  • the configuration of the light source device 400 is not particularly limited as long as it emits a plurality of lights having different wavelength ranges.
  • the rotation filter 410 is a disc-shaped optical unit including a plurality of optical filters, and is configured such that the light passing wavelength region is switched according to the rotation angle.
  • the rotary filter 410 of the present embodiment includes three optical filters having different pass wavelength bands, but may include four, five, or six or more optical filters.
  • the rotation angle of the rotary filter 410 is controlled by a filter control unit 420 connected to the controller 516. When the controller 516 controls the rotation angle of the rotary filter 410 via the filter control unit 420, the wavelength range of the illumination light IL that passes through the rotary filter 410 and is supplied to the light guide 131 is switched.
  • FIG. 5 is an external view (front view) of the rotary filter 410.
  • the rotary filter 410 includes a substantially disk-shaped frame 411 and three fan-shaped optical filters 415, 416 and 418. Three fan-shaped windows 414a, 414b and 414c are formed at equal intervals around the central axis of the frame 411, and optical filters 415, 416 and 418 are fitted into the windows 414a, 414b and 414c, respectively.
  • the optical filters of the present embodiment are all dielectric multilayer filters, but other types of optical filters (for example, absorption optical filters and etalon filters using dielectric multilayer films as reflective films). May be used.
  • a boss hole 412 is formed on the central axis of the frame 411.
  • An output shaft of a servo motor (not shown) provided in the filter control unit 420 is inserted into the boss hole 412 and fixed, and the rotary filter 410 rotates together with the output shaft of the servo motor.
  • the optical filter on which the light is incident is switched in the order of the optical filters 415, 416, and 418, thereby the wavelength of the illumination light IL that passes through the rotary filter 410. Bands are switched sequentially.
  • the optical filters 415 and 416 are optical bandpass filters that selectively pass light in the 550 nm band. As shown in FIG. 6, the optical filter 415 is configured to pass light in the wavelength region R0 (W band) from the equal absorption points E1 to E4 with low loss and to block light in other wavelength regions. Has been.
  • the optical filter 416 is configured to pass light in the wavelength region R2 (N band) from the equal absorption points E2 to E3 with low loss and block light in other wavelength regions.
  • the optical filter 418 is an ultraviolet cut filter, and light emitted from the light source lamp 430 passes through the optical filter 418 in the visible light wavelength region. The light transmitted through the optical filter 418 is used for capturing a normal observation image as white light WL.
  • the optical filter 418 may not be used, and the window 414c of the frame 411 may be opened. Accordingly, light that has passed through the optical filter 415 out of light emitted from the light source lamp 430 is hereinafter referred to as “Wide light”, and light that has passed through the optical filter 416 among light emitted from the light source lamp 430 is referred to as “Narrow light” hereinafter. Of the light emitted from the light source lamp 430, the light transmitted through the optical filter 418 is hereinafter referred to as white light WL.
  • FIG. 6 is a diagram showing an example of an absorption spectrum of hemoglobin near 550 nm.
  • the wavelength range R1 is a band including the peak wavelength of the absorption peak P1 derived from oxygenated hemoglobin
  • the wavelength range R2 is a band including the peak wavelength of the absorption peak P2 derived from reduced hemoglobin.
  • the wavelength region R3 is a band including the peak wavelength of the absorption peak P3 derived from oxygenated hemoglobin.
  • the wavelength range R0 includes the peak wavelengths of the three absorption peaks P1, P2, and P3.
  • the wavelength range R0 of the optical filter 415 and the wavelength range R2 of the optical filter 416 are included in the pass wavelength range of the G color filter of the color filter 141a (see FIG. 4). Therefore, the image of the living tissue T formed by the light that has passed through the optical filter 415 or 416 is obtained as an image of the G component of the color image data captured by the image sensor 141.
  • a through hole 413 is formed in the peripheral edge of the frame 411.
  • the through hole 413 is formed at the same position (phase) as the boundary between the window 414a and the window 414c in the rotation direction of the frame 411.
  • a photo interrupter 422 for detecting the through hole 413 is arranged so as to surround a part of the peripheral edge of the frame 411.
  • the photo interrupter 422 is connected to the filter control unit 420.
  • the light source device 400 sequentially switches the plurality of optical filters 415, 416, and 418 in the optical path of the light emitted from the light source lamp 430, that is, light having different wavelength ranges, that is, wide light and narrow light. , And a configuration for emitting white light WL as illumination light IL.
  • the feature amount (hemoglobin concentration, hemoglobin oxygen saturation) of the living tissue T is calculated by the feature amount acquisition unit 510 of the processor 500. Processing for calculating the hemoglobin concentration of the biological tissue T and the oxygen saturation of the hemoglobin as the feature amount from the captured image of the biological tissue T will be described below.
  • hemoglobin has a strong absorption band called a Q band derived from porphyrin near 550 nm.
  • the absorption spectrum of hemoglobin changes according to the oxygen saturation that represents the proportion of oxygenated hemoglobin HbO in the total hemoglobin.
  • the solid line waveform in FIG. 6 is an oxygen saturation level of 100%, that is, an absorption spectrum of oxygenated hemoglobin HbO
  • the long dashed line waveform is an oxygen saturation level of 0%, that is, an absorption spectrum of reduced hemoglobin Hb.
  • oxygenated hemoglobin HbO and reduced hemoglobin Hb have different peak wavelengths. Specifically, oxygenated hemoglobin HbO has an absorption peak P1 near a wavelength of 542 nm and an absorption peak P3 near a wavelength of 576 nm. On the other hand, reduced hemoglobin Hb has an absorption peak P2 near 556 nm.
  • FIG. 6 is an absorption spectrum when the sum of the concentrations of oxygenated hemoglobin HbO and reduced hemoglobin Hb is constant. Therefore, the ratio of oxygenated hemoglobin HbO and reduced hemoglobin Hb, that is, the absorbance is constant regardless of the oxygen saturation.
  • the isosbestic points E1, E2, E3, E4 appear.
  • the wavelength band sandwiched between the equal absorption points E1 and E2 is the wavelength band R1 described above with respect to the optical filter 410, and the wavelength region sandwiched between the equal absorption points E2 and E3 is the wavelength band.
  • the wavelength band sandwiched between the equal absorption points E3 and E4 is the wavelength band R3, and the wavelength band sandwiched between the equal absorption points E1 and E4, that is, the band including the wavelength bands R1, R2, and R3. Is the wavelength band R0. Therefore, the wavelength band of the Wide light, which is the transmitted light transmitted through the optical filter 415 among the light emitted from the light source lamp 430, is the wavelength band R0, and the light emitted from the light source lamp 430 is transmitted through the optical filter 416.
  • the wavelength band of the narrow light that is the transmitted light is the wavelength band R2.
  • the absorption of hemoglobin increases or decreases linearly with respect to the oxygen saturation.
  • the total values AR1 and AR3 of the hemoglobin absorbance in the wavelength bands R1 and R3 increase linearly with respect to the oxygenated hemoglobin concentration, that is, the oxygen saturation.
  • the total value AR2 of the absorbance of hemoglobin in the wavelength band R2 increases linearly with respect to the concentration of reduced hemoglobin.
  • the oxygen saturation is defined by the following equation (1).
  • formulas (2) and (3) representing the concentrations of oxygenated hemoglobin HbO and reduced hemoglobin Hb are obtained.
  • the total values AR1, AR2, and AR3 of the hemoglobin absorbance are characteristic quantities that depend on both the oxygen saturation and the hemoglobin concentration.
  • the total value of the extinction coefficient in the wavelength band R0 does not depend on the oxygen saturation but becomes a value determined by the concentration of hemoglobin. Therefore, the hemoglobin concentration can be quantified based on the total value of the extinction coefficient in the wavelength band R0. Further, the oxygen saturation is quantified based on the total value of the absorbance in the wavelength band R1, the wavelength band R2, or the wavelength band R3 and the hemoglobin concentration determined based on the total value of the absorbance in the wavelength band R0. be able to.
  • the feature amount acquisition unit 510 of the present embodiment includes a first image processing unit 510a, a second image processing unit 510b, and a third image processing unit 510c.
  • the first image processing unit 510a calculates and acquires the hemoglobin concentration of the biological tissue T based on a first ratio described later having sensitivity to the hemoglobin concentration of the biological tissue T, and calculates the calculated hemoglobin concentration. And calculating the oxygen saturation of the hemoglobin of the living tissue T based on a later-described second ratio having sensitivity to the oxygen saturation of the hemoglobin.
  • the sensitivity of the first ratio to the concentration of moglobin means that the value of the first ratio also changes when the concentration of moglobin changes.
  • the second ratio is sensitive to the oxygen saturation of hemoglobin means that the value of the second ratio also changes when the oxygen saturation changes.
  • the second image processing unit 510b sets pixels whose hemoglobin density is less than the threshold as non-transparent pixels whose transmittance is 0 in the distribution image of hemoglobin density, and the hemoglobin density is the threshold value.
  • FIG. 2 (c) shows that the oxygen saturation distribution image is masked from the distribution image of the hemoglobin concentration by giving the pixel that is separated from the threshold value a transmission pixel that is determined according to the degree of separation from the threshold value.
  • a mask image M as shown in FIG.
  • the second image processing unit 510b determines that the pixel value representing the hemoglobin density is greater than or equal to the set lower limit value and reaches the upper limit value, and the pixel value corresponding to the difference between the lower limit value and the upper limit value.
  • the oxygen saturation distribution image from the hemoglobin concentration distribution image by providing the pixel with a transmittance determined according to the ratio (distance) between the (pixel output value) and the lower limit value.
  • it is preferable that a pixel having a pixel value equal to or higher than the upper limit value is given a transmittance of 100% to be a transmissive pixel.
  • the third image processing unit 510c generates an oxygen saturation distribution processing image in which the mask image M is superimposed on the upper layer of the oxygen saturation distribution image. First, generation of a hemoglobin concentration distribution image and generation of an oxygen saturation distribution image performed in the first image processing unit 510a will be described.
  • the first image processing unit 510a of the feature amount acquisition unit 510 of this embodiment calculates the concentration of hemoglobin based on the luminance component of the color image data in the wavelength band R0.
  • the luminance component is obtained by multiplying the R component of the color image data by a predetermined coefficient, multiplying the G component of the color image data by a predetermined coefficient, and multiplying the value of the B component of the color image data by a predetermined coefficient.
  • the first image processing unit 510a of the feature amount acquisition unit 510 specifically outputs color image data (second color image data) of the living tissue T using Wide light (second light) as illumination light IL.
  • the concentration of hemoglobin is calculated based on (first ratio).
  • the ratio Wide / WL (R) or Wide / ⁇ WL (R) + WL (G) ⁇ obtained by dividing the luminance component Wide by WL (R) or ⁇ WL (R) + WL (G) ⁇ . Is used to remove the change in the spectral characteristics of the living tissue T depending on the degree to which the illumination light IL is scattered on the surface of the living tissue T.
  • the reflection spectrum of the living tissue T such as the inner wall of the digestive tract has a wavelength characteristic of absorption by the components constituting the living tissue T (specifically, absorption spectrum characteristics of oxygenated hemoglobin and reduced hemoglobin), It is easily affected by the wavelength characteristic of scattering of illumination light by T.
  • R component WL (R) of color image data (first color image data) of living tissue T using white light WL (first light) as illumination light IL, or a total component WL of R component and G component ( R) + WL (G) represents the degree of scattering of the illumination light IL in the living tissue T without being affected by the hemoglobin concentration or oxygen saturation.
  • the wavelength band of the white light WL has one of the components of the first color image data. It is preferable that the wavelength band is set so as not to be sensitive to a change in the hemoglobin concentration of the living tissue T. One of the components of the first color image data is not sensitive to changes in the concentration of hemoglobin. Even if the concentration of hemoglobin changes, one value of the components of the first color image data is substantially It means not changing.
  • the wavelength band of the white light WL (reference light) is set so that one of the components of the first color image data includes a wavelength band that is not sensitive to changes in oxygen saturation.
  • One of the components of the first color image data is not sensitive to changes in oxygen saturation. Even if the oxygen saturation changes, one value of the components of the first color image data is substantially It means not changing.
  • a reference table representing the correspondence between the first ratio information and the hemoglobin concentration in the sample reproducing the light absorption characteristics of hemoglobin having a predetermined concentration is stored in the memory 512 in advance, and the feature amount acquisition unit 510 The first image processing unit 510a calculates the concentration of hemoglobin based on the value of the first ratio in the color image data captured by the living tissue T using the reference table.
  • the luminance component Wide of the color image data (second color image data) of the living tissue T using Wide light (second light) as the illumination light IL is used as the first ratio.
  • G component Wide (G) instead of the luminance component Wide of the color image data (second color image data) of the living tissue T.
  • the oxygen saturation calculation unit 510b of the feature amount acquisition unit 510 calculates the oxygen saturation based on the second ratio defined below. That is, the oxygen saturation calculation unit 510b of the feature amount acquisition unit 510 performs color image data (third color image data) of the biological tissue T illuminated with the narrow light that is the light in the wavelength band R2 that has passed through the optical filter 416.
  • the ratio Narrow / Wide is calculated as the second ratio.
  • the correspondence relationship representing the relationship between the concentration of hemoglobin and the lower limit value of the second ratio when the oxygen saturation level is 0% and the upper limit value of the second ratio Narrow / Wide when the oxygen saturation level is 100% is described above. And stored in the memory 512 in advance.
  • the oxygen saturation calculation unit 510b of the feature amount acquisition unit 510 uses the calculation result of the hemoglobin concentration obtained from the color image data generated by the imaging of the living tissue T and the above correspondence, and uses the lower limit value and the upper limit of the second ratio. Find the value.
  • the lower limit value and the upper limit value are values corresponding to oxygen saturation of 0% and 100%.
  • the oxygen saturation calculation unit 510b uses the fact that the second ratio linearly changes according to the oxygen saturation between the obtained lower limit value and upper limit value, and thus the second ratio of the captured biological tissue T.
  • the oxygen saturation is calculated depending on where the value of Narrow / Wide is in the range between the lower limit and the upper limit corresponding to the oxygen saturation of 0 to 100%.
  • the oxygen saturation calculation unit 510b of the feature amount acquisition unit 510 calculates the oxygen saturation. Further, a reference table representing the correspondence between the hemoglobin concentration and the second ratio value and the oxygen saturation of hemoglobin is obtained from the above sample and stored in the memory 512 in advance. The oxygen saturation of hemoglobin can also be calculated from the calculated second ratio.
  • the second ratio is the luminance component Narrow of the color image data (third color image data) of the living tissue T illuminated with the narrow light and the color image data (first image of the living tissue T illuminated with the wide light).
  • 2 color image data is used as a ratio to the luminance component Wide, but illumination is performed using the G component Narrow (G) of the color image data (third color image data) of the living tissue T illuminated with the narrow light and the wide light.
  • G the ratio of the color image data (second color image data) of the living tissue T to the G component Wide (G)
  • it is desirable that the ratio is optimized according to the wavelength characteristics of the filter to be used.
  • the narrow light in the wavelength band R2 is used for illumination of the living tissue T for the calculation of the second ratio, but is not limited to the narrow light.
  • the light having the wavelength band R1 or the wavelength band R2 as the wavelength band may be used in order to use the wavelength band R1 or the wavelength band R2 in which the total absorbance changes with respect to the oxygen saturation. it can.
  • the filter characteristic of the optical filter 416 may be set to the wavelength band R1 or the wavelength band R2.
  • the ratio Wide / WL (R) or Wide / ⁇ WL (R) + WL (G) ⁇ is a ratio having sensitivity to the concentration of hemoglobin in the living tissue, and the ratio Narrow.
  • / Wide is a ratio having sensitivity to oxygen saturation of hemoglobin in a living tissue
  • the ratio Wide is a component in a wavelength band within a range of 500 nm to 600 nm
  • Narrow is within a range of 500 nm to 600 nm. It is a component in a wavelength band narrower than the above wavelength band.
  • FIG. 7 is a diagram showing an example of the relationship between the first ratio and the hemoglobin concentration.
  • the first image processing unit 510a of the feature amount acquisition unit 510 obtains the first ratio as described above
  • the first image processing unit 510a refers to the reference table representing the correspondence relationship as illustrated in FIG. To determine the hemoglobin concentration.
  • FIG. 7 shows that the concentration H1 of hemoglobin is obtained based on the value of the first ratio.
  • the numerical values on the horizontal axis and the vertical axis in FIG. 7 are represented by values from 0 to 1024 for convenience.
  • FIG. 8 is a diagram illustrating an example of the relationship between the upper limit value and the lower limit value of the second ratio and the concentration of hemoglobin.
  • the numerical values on the horizontal axis and the vertical axis in FIG. 8 are represented by values from 0 to 1024 for convenience.
  • the first image processing unit 510a of the feature amount acquisition unit 510 obtains the second ratio as described above
  • the first image processing unit 510a is illustrated in FIG. 8 based on the hemoglobin concentration and the second ratio obtained by the first image processing unit 510a.
  • the oxygen saturation amount calculation unit 510b determines the value of oxygen saturation.
  • the upper limit value Max (100%) and the lower limit value Min (0%) when the value of the second ratio is the hemoglobin concentration H1 when the value is R2 are obtained.
  • the value of oxygen saturation is obtained.
  • the first image processing unit 510a uses the pixel value obtained by performing gradation processing based on the hemoglobin concentration value and the oxygen saturation value calculated for each pixel in this manner, and the hemoglobin concentration distribution image and oxygen A distribution image of saturation is generated.
  • the mask image generated by the second image processing unit 510b is a non-transparent pixel having a transmittance of 0 in a hemoglobin density distribution image where the hemoglobin density is less than the threshold value.
  • the distribution of oxygen saturation is obtained from the distribution image of hemoglobin concentration by assigning a pixel having a hemoglobin concentration equal to or higher than the threshold value to a transmission pixel by giving the pixel a transmittance determined according to the degree to which the hemoglobin concentration departs from the threshold value.
  • a mask image M (see FIG. 2C) as shown in FIG. 2C, which masks the image, is generated.
  • a pixel whose pixel value (pixel output value) representing the hemoglobin density is less than the set lower limit value is set as a non-transparent pixel having a transmittance of 0, and a pixel value equal to or higher than the set upper limit value is set as the transmittance.
  • the pixel value (pixel output value) is between the lower limit value and the upper limit value according to the ratio of the difference between the pixel value and the lower limit value with respect to the difference between the lower limit value and the upper limit value.
  • FIG. 2 (c) shows the oxygen saturation distribution image masked from the hemoglobin concentration distribution image by providing the pixel with a transmittance between 0 and 100% that is modulated to form a transmission pixel.
  • Such a mask image M (see FIG. 2C) is generated.
  • the threshold value, the upper limit value, and the lower limit value may be preset values or values that can be freely input and set by the operator.
  • the third image processing unit 510c generates an oxygen saturation distribution processing image in which the generated mask image M is superimposed on the upper layer of the oxygen saturation distribution image generated by the first image processing unit 510a.
  • the data of the generated oxygen saturation distribution processing image is controlled to a predetermined image display form via the image display control unit 514 and output to the display 300.
  • FIG. 9A is a diagram illustrating an example of the diagnosis support image of the present embodiment displayed on the endoscope system 10
  • FIG. 9B is an example of the diagnosis support image displayed on the conventional endoscope system.
  • FIGS. 9A and 9B are oxygen saturation distribution processing images (diagnosis support images) of the present embodiment, which are generated from the same hemoglobin concentration distribution image and oxygen saturation distribution image.
  • FIGS. 1A and 1C show an example of a conventional oxygen saturation distribution image.
  • FIGS. 1A and 1C show a portion surrounded by a rectangular frame F.
  • FIG. 9A it can be seen that the diagnostic support image (oxygen saturation distribution processing image) generated in the present embodiment displays image information in the form of muscles such as blood vessels.
  • the conventional diagnosis support image shown in FIG. 9B is an image obtained by selecting and displaying pixels with a specified hemoglobin concentration. That is, in this oxygen saturation distribution image, image information in the form of muscles such as blood vessels is not displayed. For this reason, in the conventional diagnosis support image, it is difficult to indicate which part on the living tissue shown in FIG. In contrast, in the diagnosis support image generated in the present embodiment, a mask is generated based on a change in the concentration of hemoglobin (blood), so that image information in the form of muscles such as blood vessels is displayed. Based on this image information, it is possible to easily identify which part on the living tissue shown in FIG.
  • FIGS. 10A to 10F are diagrams for explaining a mask image M used for creating a diagnosis support image displayed by the endoscope system 10.
  • FIGS. 10A to 10F show examples of tone conversion when generating a value of transmittance 0 to 100% from the value of hemoglobin density for creating the mask image M.
  • FIG. FIG. 10A to 10F show examples of tone conversion when generating a value of transmittance 0 to 100% from the value of hemoglobin density for creating the mask image M.
  • the conversion from the hemoglobin concentration to the transmittance between the threshold Th and the upper limit H is as shown in FIG. ) To (f) can be used.
  • a pixel having a hemoglobin density less than the threshold Th is an opaque pixel having a transmittance of zero.
  • the transmittance can be linearly changed with respect to the density between the threshold Th and the upper limit H as in the gradation conversion shown in FIG.
  • the change in transmittance with respect to the density is reduced in the vicinity of the threshold value Th and the upper limit value H.
  • non-linear conversion that increases the change in transmittance with respect to the density can also be used.
  • the change in the transmittance with respect to the density gradually decreases as the density increases between the threshold value Th and the upper limit value H. It can also be a non-linear transformation.
  • the change in transmittance with respect to the density gradually increases as the density increases between the threshold value Th and the upper limit value H as in the gradation conversion shown in FIG. It can also be a non-linear transformation.
  • like the gradation conversion shown in FIG. 10 (f) instead of the conversion shown in FIG.
  • the transmittance of the transmissive pixel of the mask image M is set to increase continuously or stepwise as the pixel value of the pixel moves away from the threshold Th.
  • the transmittance of the transmissive pixel increases nonlinearly as the pixel value of the pixel moves away from the threshold Th.
  • the processor 200 includes an input unit (not shown) that receives an input that continuously changes the value of the threshold Th, and the third image processing unit 510c performs an oxygen saturation distribution process each time the input is changed. It is preferable to generate an image.
  • the threshold value Th is displayed so that the operator can display image information that can identify a portion on the living tissue, such as a muscular shape such as a blood vessel, while viewing the oxygen saturation distribution processing image displayed on the display 300. Therefore, the operator can easily indicate the location on the living tissue of the non-healthy part.
  • the endoscope system 10 captures a diagnosis image that can easily point a non-healthy part on an image of a living tissue by imaging a living tissue and performing image processing using a mask image M.
  • the image display apparatus comprised so that the image which the biological tissue imaged was received, or the image display which memorize
  • An apparatus can be provided.
  • the image display device includes a processor that performs image processing and a display configured to display an image.
  • the processor includes first to third image processing units for generating oxygen saturation distribution processing images.
  • the display is configured to display an image of the distribution processing image of the oxygen saturation generated by the processor.
  • the first image processing unit is configured to obtain a distribution image of the hemoglobin concentration of the living tissue and an oxygen saturation distribution image of the living tissue from the captured image of the living tissue.
  • the second image processing unit sets a pixel having a hemoglobin density less than the threshold Th as a non-transparent pixel having a transmittance of 0, and converts the pixel value of the pixel into a pixel having a hemoglobin density greater than or equal to the threshold Th.
  • Is configured to generate a mask image M that masks the oxygen saturation distribution image from the hemoglobin concentration distribution image by providing a transmission pixel that is determined according to the degree of separation from the threshold Th. .
  • the third image processing unit is configured to generate an oxygen saturation distribution processing image in which a mask image M is superimposed on an upper layer of the oxygen saturation distribution image.
  • This image display device also generates an oxygen saturation distribution processing image based on the mask image M, so that a diagnosis support image that can determine the presence of an unhealthy part is identified, and the position of the unhealthy part in the living tissue is specified.
  • the image information that can be displayed can be displayed.
  • the wavelength band of the illumination light IL used for calculating the hemoglobin concentration and the oxygen saturation is in the range of 500 to 600 nm as shown in FIG. 6, but is not limited to this wavelength band.
  • the present invention can also be applied to a wavelength band in which the absorbance changes around the isoabsorption point depending on the oxygen saturation of hemoglobin.
  • a constant wavelength band on the long wavelength side or short wavelength side of any isosbestic point in the wavelength band of 400 to 500 nm can be used as the wavelength band of the proof light IL.
  • Endoscope system 100 Electronic endoscope 110 Insertion tube 111 Insertion tube front-end

Abstract

内視鏡システムは、生体組織の撮像画像から生体組織の第1、2特徴量分布画像を生成し、こられの分布画像から第2特徴量分布処理画像を生成するプロセッサと、前記第2特徴量分布処理画像を画像表示するディスプレイと、を備える。前記プロセッサは、前記第1特徴量分布画像において、前記第1特徴量を表す画素値が下限値未満の画素を透過率が0の不透過画素とし、上限値と前記下限値の間にある画素に、前記画素値に応じて、連続的にあるいは段階的に定まる透過率を与えて透過画素とすることにより、前記第2特徴量分布画像のマスク画像を生成する。前記プロセッサは、さらに、前記第2特徴量分布画像の上層に前記マスク画像を重ねた第2特徴量分布処理画像を生成する。

Description

内視鏡システム、及び画像表示装置
 本発明は、生体組織の特徴量を画像処理して画像表示する内視鏡システム及び画像表示装置に関する。
 内視鏡によって得られた画像データから、被写体である生体組織中の生体物質、例えば、ヘモグロビンの濃度やヘモグロビンの酸素飽和度の情報を求めこの情報を分布として表した分布画像を表示する機能を備えた内視鏡システムがある。この特徴量の分布画像から、病変部あるいは病変部として疑わしい部分(以降、病変部あるいは病変部として疑わしい部分を非健常部という)を有力な診断支援情報として提供することができる。このような内視鏡システムを含むヘモグロビン観察装置の一例が特許文献1に記載されている。
 特許文献1に記載のヘモグロビン観察装置は、観察対象物が含むヘモグロビンの3種の異なる波長帯域の反射光の情報を所定の演算処理に基づき処理し、その処理結果を表示部に表示する構成を備える。このとき、取り込んだ像の信号の演算処理においては、ヘモグロビン濃度依存の反射光量または透過光量の情報と、酸素飽和度依存の反射光量または透過光量の情報との相関に基づいてヘモグロビンの酸素飽和度を算出する。
特開2005-326153号公報
 内視鏡システムを含む上記ヘモグロビン観察装置で算出され表示される酸素飽和度の分布を示す画像は、内臓組織や静脈や動脈等の血管の場所を特定する情報が欠落している。このため診断支援画像としては、注目する部分と生体組織との位置関係が不明確であり、適切でない。すなわち、酸素飽和度の分布を示す画像において注目する部分が、生体組織のどの位置に対応するのか、明確に特定できない。また、生体組織の画像を酸素飽和度画像と同時に観察できるように画面上に配置とした場合でも、生体組織のどの位置において酸素飽和度が高いのか、生体組織と酸素飽和度の位置関係を明確に把握することは困難であるという欠点を有している。
 そこで、本発明は、酸素飽和度と血液の濃度から、生体組織中の病変部あるいは病変部として疑わしい部分を含む非健常部の存在を検出することができ、かつ診断支援画像として注目する非健常部が生体組織のどこに位置するか特定することが可能な明確な画像情報を表示する内視鏡システム及び画像表示装置を提供することを目的とする。
 本発明の一態様は、内視鏡システムである。
 前記内視鏡システムは、
 生体組織を撮像することにより複数の画像データを生成するように構成された撮像素子を備えた内視鏡と、
 前記複数の画像データから、生体組織の第1特徴量の分布を表した第1特徴量分布画像及び生体組織の第2特徴量分布を表した第2特徴量分布画像を求めるように構成された第1画像処理部と、前記第1特徴量分布画像において、前記第1特徴量が所定の閾値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が前記所定の閾値以上の画素を、前記第1特徴量が前記閾値から離れる程度に応じて定まる透過率を画素に与えて透過画素とすることにより、前記第1特徴量分布画像から、前記第2特徴量分布画像をマスクするマスク画像を生成するように構成された第2画像処理部と、前記第2特徴量分布画像の上層に前記マスク画像を重ねた第2特徴量分布処理画像を生成するように構成された第3画像処理部と、を備えたプロセッサと、
 前記第3画像処理部で生成された前記第2特徴量分布処理画像を画像表示するように構成されたディスプレイと、を備える。
 前記第2画像処理部は、例えば、前記第1特徴量が所定の下限値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が所定の上限値以上の画素を透過率が100%の透過画素とし、前記画素の出力値が前記下限閾値から前記上限閾値の間は両者間の距離に応じて変調される透過率を画素に与えて透過画素とすることにより、前記第1特徴量分布画像からマスクを生成して、前記第2特徴量分布画像をフィルタリングするためのマスク画像を生成する、ことが好ましい。
 前記透過画素の前記透過率は、前記画素における前記第1特徴量が前記閾値から離れる程、連続的にあるいは段階的に高くなる、ことが好ましい。例えば、前記透過画素の透過率は、前記下限値から前記上限値に向けて、連続的にあるいは段階的に高くする構成とすることができる。
 前記透過画素の前記透過率は、前記画素における前記第1特徴量が前記閾値から離れるにつれ、非線形に高くなる、ことが好ましい。例えば、前記透過画素の透過率は、前記画素における前記第1特徴量が前記閾値から離れる程度に応じて、または、前記画素の出力値が前記下限値から前記上限値に向けて、非線形的に高くする構成とすることができる。
 前記プロセッサは、前記閾値の値を連続的に変化させるような入力を受けるように構成された入力部を備え、前記入力の変更のたびに、前記第3画像処理部は、前記第2特徴量分布処理画像の生成を行うように構成されている、ことが好ましい。
 前記第1画像処理部は、前記複数の画像データの成分のうち、所定の成分の値を用いて成分間の第1の比率及び第2の比率の値を算出し、前記第1の比率及び前記第2の比率の値を用いて前記第1特徴量及び前記第2特徴量を算出し、
 前記第1特徴量は、ヘモグロビンの濃度であり、前記第2特徴量は、ヘモグロビンの酸素飽和度である、ことが好ましい。
 前記第1の比率は、前記生体組織の前記第1特徴量に対して感度を有する比率であり、
 前記第2の比率は、前記生体組織の前記第2の特徴量に対して感度を有する比率であり、
 前記第1の比率の算出に用いる前記画像データの成分の1つは、500nm~600nmの範囲内の第1波長帯域の成分であり、
 前記第2の比率の算出に用いる前記画像データの成分の1つは、前記第1波長帯域より狭い第2の波長帯域の成分である、ことが好ましい。
 本発明の他の一態様は、画像処理を行うように構成されたプロセッサと画像を表示するように構成されたディスプレイを備える画像表示装置である。
 前記画像表示装置は、
 生体組織の撮像画像から生体組織の第1特徴量の分布を表した第1特徴量分布画像及び生体組織の第2特徴量の分布を表した第2特徴量分布画像を求めるように構成された第1画像処理部と、前記第1特徴量分布画像において、前記第1特徴量が所定の閾値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が所定の閾値以上の画素に、前記画素の画素値が前記閾値から離れる程度に応じて定まる透過率を与えて透過画素とすることにより、前記第1特徴量分布画像から、前記第2特徴量分布画像をマスクするマスク画像を生成するように構成された第2画像処理部と、前記第2特徴量分布画像の上層に前記マスク画像を重ねた第2特徴量分布処理画像を生成するように構成された第3画像処理部と、を備えたプロセッサと、
 前記第3画像処理部で生成された前記第2特徴量分布処理画像を画像表示するように構成されたディスプレイと、を備える。
 前記第2画像処理部は、例えば、前記第1特徴量が所定の下限値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が所定の上限値以上の画素を透過率が1の全透過画素とし、前記画素の出力値が前記下限閾値から前記上限閾値の間は両者間の距離に応じて変調される透過率を画素に与えて透過画素とすることにより、前記第1特徴量分布画像からマスクを生成し、前記第2特徴量分布画像をフィルタリングするためのマスク画像を生成する、ことが好ましい。
 上述の内視鏡システム及び画像表示装置によれば、生体組織中の病変部あるいは病変部として疑わしい部分を含む非健常部の存在を検出することができる診断支援画像であり、かつ、診断支援画像として注目する非健常部が生体組織のどこに位置するか特定することが可能な明確な画像情報を含んだ画像を表示することができる。
(a)~(c)は、生体組織の画像とその生体組織の生体特徴量の分布画像の例を示す図である。 (a)~(c)は、本実施形態の内視鏡システムあるいは画像表示装置で表示する診断支援画像の作成の一例を説明する図である。 本実施形態で用いる内視鏡システムの一例の構成のブロック図である。 本実施形態で用いる内視鏡システムの撮像素子の赤(R)、緑(G)、青(B)の各フィルタの分光特性の一例を示す図である。 本実施形態で用いる内視鏡システムの光源装置で用いる回転フィルタの一例の外観図(正面図)である。 550nm付近のヘモグロビンの吸収スペクトルの一例を示す図である。 本実施形態で用いる第1比率とヘモグロビンの濃度との関係の一例を示す図である。 本実施形態で用いる第2比率の上限値及び下限値とヘモグロビンの濃度の関係の一例を示す図である。 (a)は、本実施形態の内視鏡システムで表示する診断支援画像の一例を示す図であり、(b)は、従来の内視鏡システムで表示する診断支援画像の一例を示す図である。 (a)~(f)は、本実施形態の内視鏡システムあるいは画像表示装置で表示する診断支援画像の作成に用いるマスク画像を説明する図である。
 本発明の一実施形態である内視鏡システムあるいは画像表示装置は、生体組織における非健常部の有無を判断することができる診断支援画像を表示する。図1(a)~(c)は、生体組織の画像とその生体組織の生体特徴量の分布画像の例を示す図である。
 図1(a)は、生体組織の像の一例を示している。図1(b)は、後述する内視鏡システムを用いて算出される生体組織におけるヘモグロビンの濃度(生体特徴量)の分布画像の一例を示し、図1(c)は、後述する内視鏡システムを用いて算出される生体組織における酸素飽和度(生体特徴量)の分布画像の一例を示す。
 図1(b)には、生体組織の血管等の筋状の形態が表示されている。一方、図1(c)に示す酸素飽和度の分布画像では、生体組織の血管等の形態が明確に示されていない。このため、悪性腫瘍等と特徴とされるヘモグロビンの濃度が高く、かつ酸素飽和度の低い組織を検出するために、酸素飽和度の分布画像から、低い酸素飽和度の場所を探し、かつ該当部分に対応するヘモグロビンの濃度の高低を判断することが必要となる。しかし、図1(b)及び図1(c)をディスプレイに並列に表示したとしても、生体組織の血管等の場所を特定できる画像情報が含まれない酸素飽和度の分布画像から、病変部あるいは病変部として疑わしい非健常部が、図1(a)に示す生体組織のどの部分に該当するか、瞬時に特定することは困難である。
 本発明の実施形態では、このような生体組織中の病変部あるいは病変部として疑わしい部分を含む非健常部の存在を検出することができかつ、生体組織中の非健常部の位置を容易に特定できる診断支援画像を提供することができる。すなわち、診断支援画像として、生体組織の形状や位置を反映した情報を付加した画像が提供される。
(診断支援画像)
 図2(a)~(c)は、本実施形態の内視鏡システムあるいは画像表示装置で表示する診断支援画像の作成の一例を説明する図である。
 本実施形態では、図1(c)に示す酸素飽和度(第2特徴量)の分布画像をマスクするマスク画像を、図1(b)に示すヘモグロビンの濃度(第1特徴量)の分布画像から生成する。具体的には、本実施形態では、後述する内視鏡システムで算出されるヘモグロビンの濃度の分布(図2(a)参照)において、図2(b)に示すように、各画素におけるヘモグロビンの濃度(第1特徴量)が所定の閾値未満の画素を透過率が0の不透過画素とし、ヘモグロビンの濃度が閾値以上の画素を、ヘモグロビンの濃度が前記閾値から離れる程度に応じて定まる透過率を画素に与えて透過画素とする。具体的には、各画素の出力値すなわちヘモグロビンの濃度に関する画素値が、所定の下限値(ヘモグロビンの濃度の閾値に対応する画素値)以上の画素を、下限値から上限値に向けて透過率が高くなるように、画素値と下限値との差(距離)に応じて定まる透過率を画素に与えて透過画素とすることにより、ヘモグロビンの濃度(第1特徴量)の分布画像からマスク画像を作成する。
 本実施形態の内視鏡システム及び画像表示装置は、このマスク画像を、酸素飽和度の分布画像をマスクするマスク画像として作成し、酸素飽和度の分布画像の上層にマスク画像を重ねた酸素飽和度処理分布画像を、診断支援画像として作成し、この酸素飽和度分布処理画像をディスプレイに表示する。
 図2(a)に示す例では、透過率が20%、50%、及び100%が示されている。透過率は、マスク画像として用いる場合、マスク画像の下層にある画像の画素の輝度値を透過率に応じて変更させる。マスク画像の各画素において、透過率100%は、マスク画像の下層にある画像の画素の輝度値は変化させず、透過率25%は、マスク画像の下層にある画像の画素の輝度値を25%に変化させることをいう。
 図2(c)は、マスク画像Mの一例を示す。
 (内視鏡システムの構成)
 図3は、本実施形態の内視鏡システム10の構成を示すブロック図である。内視鏡システム10は、電子内視鏡(内視鏡)100、プロセッサ200、ディスプレイ300、及び光源装置400を備える。電子内視鏡100及びディスプレイ300は、プロセッサ200に着脱可能に接続されている。プロセッサ200は、画像処理部500を備える。光源装置400は、プロセッサ200に着脱自在に接続されている。
 電子内視鏡100は、被検者の体内に挿入される挿入管110を有する。挿入管110の内部には、挿入管110の略全長に亘って延びるライトガイド131が設けられている。ライトガイド131の一端部である先端部131aは、挿入管110の先端部、すなわち挿入管先端部111近傍に位置し、ライトガイド131の他端部である基端部131bは、光源装置400との接続部に位置する。したがって、ライトガイド131は、光源装置400との接続部から挿入管先端部111近傍まで延びている。
 光源装置400は、キセノンランプ等の光量の大きい光を生成する光源ランプ430を光源として備える。光源装置400から出射した光は照明光ILとして、ライトガイド131の基端部131bに入射する。ライトガイド131の基端部131bに入射した光は、ライトガイド131を通ってその先端部131aに導かれ、先端部131aから出射される。電子内視鏡100の挿入管先端部111には、ライトガイド131の先端部131aと対向して配置された配光レンズ132が設けられている。ライトガイド131の先端部131aから出射する照明光ILは、配光レンズ132を通過して、挿入管先端部111の近傍の生体組織Tを照明する。
 電子内視鏡100の挿入管先端部111には対物レンズ群121及び撮像素子141が設けられている。対物レンズ群121及び撮像素子141は撮像部を形成する。照明光ILのうち、生体組織Tの表面で反射又は散乱された光は、対物レンズ群121に入射し、集光されて、撮像素子141の受光面上で結像する。撮像素子141は、その受光面にカラーフィルタ141aを備えたカラー画像撮像用のCCD(Charge Coupled Device)イメージセンサ、あるいはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の公知撮像素子を使用することができる。
 カラーフィルタ141aは、赤色の光を通過させるRカラーフィルタと、緑色の光を通過させるGカラーフィルタと、青色の光を通過させるBカラーフィルタとが配列され、撮像素子141の各受光素子上に直接形成された、いわゆるオンチップフィルタである。図4は、本実施形態で用いる撮像素子の赤(R)、緑(G)、青(B)の各フィルタの分光特性の一例を示す図である。本実施形態のRカラーフィルタは、波長約570nmより長波長(例えば580nm~700nm)の光を通過させるフィルタであり、Gカラーフィルタは、例えば波長約470nm~620nmの光を通過させるフィルタであり、Bカラーフィルタは、波長約530nmより短波長(例えば420nm~520nm)の光を通過させるフィルタである。
 撮像素子141は、複数の光のそれぞれで照明された生体組織Tを撮像して、各光に対応したカラー画像データを生成する撮像手段であり、波長範囲が異なる複数の光で生体組織Tを照明することにより生体組織T上で反射したあるいは散乱した光に対応するカラー画像データを生成する画像データ生成手段である。撮像素子141は、後述する画像処理部500と同期して駆動するように制御され、受光面上で結像した生体組織Tの像に対応するカラー画像データを、周期的に(例えば、1/30秒間隔で)出力する。撮像素子141から出力されたカラー画像データは、ケーブル142を介してプロセッサ200の画像処理部500に送られる。
 画像処理部500は、A/D変換回路502、プレ画像処理部504、フレームメモリ部506、ポスト画像処理部508、特徴量取得部510、メモリ512、画像表示制御部514、及びコントローラ516を主に備える。
 A/D変換回路502は、電子内視鏡100の撮像素子141からケーブル142を介して入力されるカラー画像データをA/D変換してデジタルデータを出力する。A/D変換回路502から出力されるデジタルデータは、プレ画像処理部504に送られる。
 プレ画像処理部504は、デジタルデータを、Rカラーフィルタが装着された撮像素子141中の受光素子によって撮像されたRデジタル画像データ、Gカラーフィルタが装着された撮像素子141中の受光素子によって撮像されたGデジタル画像データ、及びBカラーフィルタが装着された撮像素子141中の受光素子によって撮像されたBデジタル画像データからデモザイク処理により、画像を構成するR,G,B成分のカラー画像データを生成する。さらに、プレ画像処理部504は、生成したR,G,Bのカラー画像データに対して、色補正、マトリックス演算、及びホワイトバランス補正等の所定の信号処理を施す部分である。
 フレームメモリ部506は、撮像素子141で撮像され、信号処理の施された1画像毎のカラー画像データを一時記憶する。
 ポスト画像処理部508は、フレームメモリ部506に記憶されたカラー画像データを読み出して、あるいは後述する画像表示制御部514で生成された画像データを受け取って、信号処理(γ補正等)してディスプレイ表示用の画面データを生成する。画像表示制御部514で生成された画像データは、後述するように、生体組織Tのヘモグロビンの酸素飽和度の分布を示した酸素飽和度分布画像等の特徴量の分布画像のデータを含む。生成された画面データ(ビデオフォーマット信号)は、ディスプレイ300に出力される。これにより、生体組織Tの画像や生体組織Tの特徴量の分布画像等がディスプレイ300の画面に表示される。
 特徴量取得部510は、コントローラ516の指示に応じて、後述するように、撮像された生体組織Tのヘモグロビンの濃度とヘモグロビンの酸素飽和度を特徴量として算出し、これらの特徴量の、撮像した生体組織Tの像上の分布画像、すなわち、ヘモグロビンの濃度の分布を示した分布画像やヘモグロビンの酸素飽和度の分布を示した酸素飽和度の分布画像を生成する。特徴量取得部510は、さらに、ヘモグロビンの濃度の分布画像から酸素飽和度の分布画像をマスクするマスク画像を生成する。特徴量取得部510は、さらに、酸素飽和度の分布画像の上層に上記マスク画像を重ねた酸素飽和度分布処理画像を生成する。
 特徴量取得部510は、波長域の異なる複数の光で照明した生体組織Tのカラー画像データを用いて演算することによりヘモグロビンの濃度や酸素飽和度の特徴量を算出するので、フレームメモリ部506あるいはメモリ512から、特徴量取得部510で用いるカラー画像データ及び各種情報を呼び出す。
 画像表示制御部514は、生成した酸素飽和度分布処理画像をディスプレイ300に表示する形態を制御する。
 コントローラ516は、画像処理部500の各部分の動作指示及び動作制御を行う他、光源装置400、撮像素子141を含む電子内視鏡100の各部分の動作指示及び動作制御を行う部分である。
 なお、特徴量取得部510及び画像表示制御部514は、コンピュータ上でプログラムを起動して実行することで上述した各機能を担うソフトウェアモジュールで構成されてもよいし、専用のハードウェアで構成されてもよい。
 このように、プロセッサ200は、電子内視鏡100の撮像素子141から出力されるカラー画像データを処理する機能と、電子内視鏡100、光源装置400、及びディスプレイ300の動作を指示し制御する機能とを兼ね備える。
 光源装置400は、第1の光、第2の光、及び第3の光を出射する光出射手段であり、第1の光、第2の光、及び第3の光をライトガイド131に入射させる。本実施形態の光源装置400は、波長域の異なる第1の光、第2の光、及び第3の光を出射するが、4つ以上の光を出射させてもよい。この場合、第4の光は、第1の光と同じ波長域の光としてもよい。光源装置400は、光源ランプ430の他に、集光レンズ440、回転フィルタ410、フィルタ制御部420及び集光レンズ450を備えている。光源ランプ430から射出される略平行光である光は、例えば白色光であり、集光レンズ440によって集光され、回転フィルタ410を通過した後、集光レンズ450によって再度集光されて、ライトガイド131の基端131bに入射する。なお、回転フィルタ410は、リニアガイドウェイ等の図示されない移動機構によって、光源ランプ430から放射される光の光路上の位置と光路外の退避位置との間で移動可能になっている。回転フィルタ410は、透過特性の異なる複数のフィルタを含むので、光源ランプ430から放射される光の光路を横切る回転フィルタ410の種類によって、光源装置400から出射する光の波長域は異なる。
 なお、光源装置400の構成は、図3に示されるものに限定されない。例えば、光源ランプ430に平行光でなく収束光を発生するランプを採用してもよい。この場合、例えば、光源ランプ430からの放射される光を集光レンズ440の手前で集光させ、拡散光として集光レンズ440に入射させる構成を採用してもよい。また、集光レンズ440を使用せず、光源ランプ430が発生する略平行光を直接回転フィルタ410に入射させる構成を採用してもよい。また、収束光を発生するランプを使用する場合、集光レンズ440の替わりにコリメータレンズを使用して、略平行光の状態で光を回転フィルタ410に入射させる構成を採用してもよい。例えば、回転フィルタ410に誘電体多層膜フィルタ等の干渉型の光学フィルタを使用する場合、略平行光の光を回転フィルタ410に入射させることで、光学フィルタへの光の入射角を均一にすることにより、より良好なフィルタ特性を得ることができる。また、光源ランプ430に発散光を発生するランプを採用してもよい。この場合にも、集光レンズ440の替わりにコリメータレンズを使用して、略平行光の光を回転フィルタ410に入射させる構成を採用することができる。
 また、光源装置400は、1つの光源ランプ430から放射された光を光学フィルタに透過させることで、異なる波長域の複数の光を出射する構成であるが、光源ランプ430の代わりに、異なる波長域の異なる複数の光、例えば発光ダイオードやレーザ光を出力するレーザ素子等の半導体光源を光源装置400の光源として用いることもできる。この場合、回転フィルタ410を用いなくてもよい。また、光源装置400は、例えば、所定の波長域の励起光とその励起光によって励起発光する蛍光とを含む合成白色光と、所定の狭い波長域の光を別々に出射するように光源装置400を構成することもできる。光源装置400は、波長域の異なる複数の光を出射するものであれば構成は特に制限されない。
 回転フィルタ410は、複数の光学フィルタを備えた円盤型の光学ユニットであり、その回転角度に応じて光の通過波長域が切り替わるように構成されている。本実施形態の回転フィルタ410は、通過波長帯域が異なる3つの光学フィルタを備えるが、4つ、5つ、または6以上の光学フィルタを備えてもよい。回転フィルタ410の回転角度は、コントローラ516に接続されたフィルタ制御部420によって制御される。コントローラ516がフィルタ制御部420を介して回転フィルタ410の回転角度を制御することにより、回転フィルタ410を通過してライトガイド131に供給される照明光ILの波長域が切り替えられる。
 図5は、回転フィルタ410の外観図(正面図)である。回転フィルタ410は、略円盤状のフレーム411と、3つの扇形の光学フィルタ415、416及び418を備えている。フレーム411の中心軸の周りには3つの扇状の窓414a、414b及び414cが等間隔で形成されており、各窓414a、414b及び414cには、それぞれ光学フィルタ415、416及び418が嵌め込まれている。なお、本実施形態の光学フィルタは、いずれも誘電体多層膜フィルタであるが、他の方式の光学フィルタ(例えば、吸収型の光学フィルタや誘電体多層膜を反射膜として用いたエタロンフィルタ等)を用いてもよい。
 また、フレーム411の中心軸上にはボス穴412が形成されている。ボス穴412には、フィルタ制御部420が備える図示されないサーボモータの出力軸が差し込まれて固定され、回転フィルタ410はサーボモータの出力軸と共に回転する。
 回転フィルタ410が図5中の矢印で示される方向に回転すると、この光が入射する光学フィルタが、光学フィルタ415、416、418の順に切り替わり、これにより回転フィルタ410を通過する照明光ILの波長帯域が順次切り替えられる。
 光学フィルタ415及び416は、550nm帯の光を選択的に通過させる光バンドパスフィルタである。図6に示されるように、光学フィルタ415は、等吸収点E1からE4までの波長域R0(W帯)の光を低損失で通過させ、それ以外の波長域の光を遮断するように構成されている。また、光学フィルタ416は、等吸収点E2からE3までの波長域R2(N帯)の光を低損失で通過させ、それ以外の波長域の光を遮断するように構成されている。
 また、光学フィルタ418は、紫外線カットフィルタであり、可視光波長域では、光源ランプ430から放射された光は光学フィルタ418を透過する。光学フィルタ418を透過した光は、白色光WLとして通常観察像の撮像に使用される。なお、光学フィルタ418を使用せず、フレーム411の窓414cを開放した構成としてもよい。
 したがって、光源ランプ430から放射される光のうち光学フィルタ415を透過した光を、以降Wide光といい、光源ランプ430から放射される光のうち光学フィルタ416を透過した光を、以降Narrow光といい、光源ランプ430から放射される光のうち光学フィルタ418を透過した光を、以降白色光WLという。
 図6は、550nm付近のヘモグロビンの吸収スペクトルの一例を示す図である。
 図6に示されるように、波長域R1は酸素化ヘモグロビンに由来する吸収ピークP1のピーク波長が含まれる帯域であり、波長域R2は還元ヘモグロビンに由来する吸収ピークP2のピーク波長が含まれる帯域であり、波長域R3は酸素化ヘモグロビンに由来する吸収ピークP3のピーク波長が含まれる帯域である。また、波長域R0には、3つの吸収ピークP1、P2、P3の各ピーク波長が含まれている。
 また、光学フィルタ415の波長域R0及び光学フィルタ416の波長域R2は、カラーフィルタ141aのGカラーフィルタの通過波長域(図4参照)に含まれている。従って、光学フィルタ415又は416を通過した光によって形成される生体組織Tの像は、撮像素子141で撮像されたカラー画像データのG成分の像として得られる。
 フレーム411の周縁部には、貫通孔413が形成されている。貫通孔413は、フレーム411の回転方向において、窓414aと窓414cとの境界部と同じ位置(位相)に形成されている。フレーム411の周囲には、貫通孔413を検出するためのフォトインタラプタ422が、フレーム411の周縁部の一部を囲むように配置されている。フォトインタラプタ422は、フィルタ制御部420に接続されている。
 このように、本実施形態の光源装置400は、複数の光学フィルタ415,416,418を光源ランプ430の放射した光の光路中で順次切り替えることにより波長域の異なる光、すなわちWide光、Narrow光、及び白色光WLを照明光ILとして出射する構成を備えることが好ましい。
(生体組織の特徴量の算出)
 生体組織Tの特徴量(ヘモグロビンの濃度、ヘモグロビンの酸素飽和度)は、プロセッサ500の特徴量取得部510で算出される。撮像した生体組織Tの画像から生体組織Tのヘモグロビンの濃度、及びヘモグロビンの酸素飽和度を特徴量として算出する処理を以下説明する。
 図6に示すように、ヘモグロビンは、550nm付近にポルフィリンに由来するQ帯と呼ばれる強い吸収帯を有する。ヘモグロビンの吸収スペクトルは、全ヘモグロビンのうち酸素化ヘモグロビンHbOが占める割合を表す酸素飽和度に応じて変化する。図6における実線の波形は、酸素飽和度が100%、すなわち、酸素化ヘモグロビンHbOの吸収スペクトルであり、長破線の波形は、酸素飽和度が0%、すなわち、還元ヘモグロビンHbの吸収スペクトルである。また、短破線は、その中間の酸素飽和度=10、20、30、・・・90%におけるヘモグロビン、すなわち酸素化ヘモグロビンHbOと還元ヘモグロビンHbの混合物の吸収スペクトルである。
 図6に示すように、Q帯において、酸素化ヘモグロビンHbOと還元ヘモグロビンHbは互いに異なるピーク波長を有する。具体的には、酸素化ヘモグロビンHbOは、波長542nm付近の吸収ピークP1と、波長576nm付近の吸収ピークP3を有している。一方、還元ヘモグロビンHbは、556nm付近に吸収ピークP2を有している。図6は、酸素化ヘモグロビンHbO、還元ヘモグロビンHbの濃度の和が一定となる場合の吸収スペクトルであるため、酸素化ヘモグロビンHbO及び還元ヘモグロビンHbの比率、すなわち、酸素飽和度によらず吸光度が一定となる等吸収点E1、E2、E3、E4が現れる。以下の説明では、等吸収点E1とE2とで挟まれた波長帯域は、先に光学フィルタ410で説明した波長帯域R1であり、等吸収点E2とE3とで挟まれた波長領域は波長帯域R2であり、等吸収点E3とE4とで挟まれた波長帯域は波長帯域R3であり、等吸収点E1とE4とで挟まれた波長帯域、すなわち波長帯域R1、R2及びR3を合わせた帯域は、波長帯域R0である。したがって、光源ランプ430から放射された光のうち光学フィルタ415を透過した透過光であるWide光の波長帯域は、波長帯域R0であり、光源ランプ430から放射された光のうち光学フィルタ416を透過した透過光であるNarrow光の波長帯域は、波長帯域R2である。
 図6に示されるように、波長帯域R1,R2,R3では、ヘモグロビンの吸収は酸素飽和度に対して線形的に増加又は減少する。具体的には、波長帯域R1,R3におけるヘモグロビンの吸光率の合計値AR1,AR3は、酸素化ヘモグロビンの濃度、すなわち酸素飽和度に対して線形的に増加する。また、波長帯域R2におけるヘモグロビンの吸光率の合計値AR2は、還元ヘモグロビンの濃度に対して線形的に増加する。
 ここで、酸素飽和度は次の式(1)により定義される。
式(1):
Figure JPOXMLDOC01-appb-M000001
 
   但し、
    Sat:酸素飽和度
    [Hb]:還元ヘモグロビンの濃度
    [HbO]:酸素化ヘモグロビンの濃度
    [Hb]+[HbO]:ヘモグロビンの濃度(tHb)
 また、式(1)より、酸素化ヘモグロビンHbO及び還元ヘモグロビンHbの濃度を表す式(2)、式(3)が得られる。
式(2):
Figure JPOXMLDOC01-appb-M000002
 
式(3):
Figure JPOXMLDOC01-appb-M000003
 
 したがって、ヘモグロビンの吸光率の合計値AR1、AR2及びAR3は、酸素飽和度とヘモグロビンの濃度の両方に依存する特徴量となる。
 ここで、波長帯域R0における吸光率の合計値は、酸素飽和度には依存せず、ヘモグロビンの濃度によって決まる値となることが判明している。したがって、波長帯域R0における吸光率の合計値に基づいてヘモグロビンの濃度を定量することができる。また、波長帯域R1、波長帯域R2、あるいは波長帯域R3における吸光率の合計値と、波長帯域R0の吸光率の合計値に基づいて定量したヘモグロビンの濃度とに基づいて、酸素飽和度を定量することができる。
 本実施形態の特徴量取得部510は、第1画像処理部510a、第2画像処理部510b、及び第3画像処理部510cを有する。
 第1画像処理部510aは、生体組織Tのヘモグロビンの濃度に対して感度を有する後述する第1比率に基づいて生体組織Tのヘモグロビンの濃度を算出し取得すること、及び、算出したヘモグロビンの濃度とヘモグロビンの酸素飽和度に対して感度を有する後述する第2比率に基づいて生体組織Tのヘモグロビンの酸素飽和度を算出し取得することを行う。第1比率がモグロビンの濃度に対して感度を有するとは、モグロビンの濃度が変化するとき第1比率の値も変化することをいう。また、第2比率がヘモグロビンの酸素飽和度に対して感度を有するとは、酸素飽和度が変化するとき第2比率の値も変化することをいう。
 第2画像処理部510bは、図2(b)に示すように、ヘモグロビンの濃度の分布画像において、ヘモグロビンの濃度が閾値未満の画素を透過率が0の不透過画素とし、ヘモグロビンの濃度が閾値から離れた画素を、この閾値から離れる程度に応じて定まる透過率を画素に与えて透過画素とすることにより、ヘモグロビンの濃度の分布画像から酸素飽和度の分布画像をマスクする、図2(c)に示すようなマスク画像Mを生成する。具体的には、第2画像処理部510bは、ヘモグロビンの濃度を表す画素値が、設定された下限値以上かつ上限値までの画素を、下限値と上限値との間の差に対する、画素値(画素出力値)と下限値との差(距離)の比に応じて定まる透過率を画素に与えて透過画素とすることにより、ヘモグロビンの濃度の分布画像から酸素飽和度の分布画像をマスクする、図2(c)に示すようなマスク画像Mを生成する。一実施形態によれば、画素値が上限値以上の画素には、透過率100%を与えて、透過画素とすることが好ましい。
 第3画像処理部510cは、酸素飽和度の分布画像の上層にマスク画像Mを重ねた酸素飽和度分布処理画像を生成する。
 まず、第1画像処理部510aにおいて行うヘモグロビンの濃度の分布画像の生成と酸素飽和度の分布画像の生成を説明する。
(ヘモグロビンの濃度の分布画像及び酸素飽和度の分布画像の生成)
 上述したWide光(光学フィルタ415を透過した波長帯域R0の光)で照明した生体組織Tのカラー画像データの輝度成分の値が、上述の波長帯域R0における吸光度の合計値に対応することから、本実施形態の特徴量取得部510の第1画像処理部510aは、波長帯域R0のカラー画像データの輝度成分に基づいてヘモグロビンの濃度を算出する。ここで、輝度成分は、カラー画像データのR成分に所定の係数を掛け算し、カラー画像データのG成分に所定の係数を掛け算し、カラー画像データのB成分の値に所定の係数を掛け算し、これらの掛け算した結果を合算すること・BR>ナ算出することができる。
 特徴量取得部510の第1画像処理部510aは、具体的には、Wide光(第2の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第2のカラー画像データ)の輝度成分Wide(以降、単にWideともいう)を、白色光WL(第1の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第1のカラー画像データ)のR成分WL(R)、あるいはR成分WL(R)及びG成分WL(G)の合計成分WL(R)+WL(G)で割った比率Wide/WL(R)またはWide/{WL(R)+WL(G)}(第1比率)に基づいてヘモグロビンの濃度を算出する。ヘモグロビンの濃度の算出において、輝度成分Wideを、WL(R)あるいは{WL(R)+WL(G)}で割った比率Wide/WL(R)またはWide/{WL(R)+WL(G)}を用いるのは、照明光ILが生体組織Tの表面で散乱する程度によって生体組織Tの分光特性が変化することを除去するためである。特に、消化管内壁等の生体組織Tの反射スペクトルは、生体組織Tを構成する成分による吸収の波長特性(具体的には、酸素化ヘモグロビン及び還元ヘモグロビンの吸収スペクトル特性)に加えて、生体組織Tによる照明光の散乱の波長特性の影響を受け易い。白色光WL(第1の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第1のカラー画像データ)のR成分WL(R)、あるいはR成分及びG成分の合計成分WL(R)+WL(G)は、ヘモグロビンの濃度や酸素飽和度の影響を受けず、照明光ILの生体組織Tにおける散乱の程度を表す。したがって、生体組織Tの反射スペクトルから、照明光ILの生体組織Tにおける散乱の影響を除去するために、白色光WL(基準光)の波長帯域は、第1のカラー画像データの成分の1つが、生体組織Tのヘモグロビンの濃度の変化に対して感度を有しないような波長帯域を含むように設定されていることが好ましい。第1のカラー画像データの成分の1つがヘモグロビンの濃度の変化に対して感度を有しないとは、ヘモグロビンの濃度が変化しても、第1のカラー画像データの成分の1つの値は、実質的に変化しないことをいう。これに加えて、白色光WL(基準光)の波長帯域は、第1のカラー画像データの成分の1つが、酸素飽和度の変化に対して感度を有しないような波長帯域を含むように設定されていることが好ましい。第1のカラー画像データの成分の1つが酸素飽和度の変化に対して感度を有しないとは、酸素飽和度が変化しても、第1のカラー画像データの成分の1つの値は、実質的に変化しないことをいう。
 本実施形態では、所定の濃度のヘモグロビンの吸光特性を再現した試料における第1比率の情報とヘモグロビンの濃度の対応関係を表した参照テーブルをメモリ512に予め記憶しておき、特徴量取得部510の第1画像処理部510aは、この参照テーブルを用いて、生体組織Tの撮像したカラー画像データにおける上記第1比率の値に基づいてヘモグロビンの濃度を算出する。
 本実施形態のヘモグロビンの濃度の算出では、第1比率として、Wide光(第2の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第2のカラー画像データ)の輝度成分Wideと、白色光WL(第1の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第1のカラー画像データ)のR成分WL(R)、あるいはR成分及びG成分の合計成分WL(R)+WL(G)の比率Wide/WL(R)またはWide/{WL(R)+WL(G)}を用いることが好ましいが、Wide光(第2の光)を照明光ILとして用いた生体組織Tのカラー画像データ(第2のカラー画像データ)の輝度成分Wideの代わりにG成分Wide(G)を用いることも好ましい。
 さらに、上述したように、酸素飽和度の上昇とともに波長帯域R2における吸光度の合計値が低下すること、及び、波長帯域R0における吸光度の合計値はヘモグロビンの濃度に応じて変化するが、酸素飽和度の変化に係わらず一定であることから、特徴量取得部510の酸素飽和度算出部510bは、以下に定める第2比率に基づいて酸素飽和度を算出する。すなわち、特徴量取得部510の酸素飽和度算出部510bは、光学フィルタ416を通過した波長帯域R2の光であるNarrow光で照明した生体組織Tのカラー画像データ(第3のカラー画像データ)の輝度成分Narrow(以降、単にNarrowともいう)と、Wide光(光学フィルタ415を透過した波長帯域R0の光)で照明した生体組織Tのカラー画像データ(第2のカラー画像データ)の輝度成分Wideとの比率Narrow/Wideを、第2比率として算出する。一方、ヘモグロビンの濃度と、酸素飽和度=0%における第2比率の下限値及び酸素飽和度=100%における第2比率Narrow/Wideの上限値との関係を表した対応関係を、上述の試料から求めてメモリ512に予め記憶しておく。特徴量取得部510の酸素飽和度算出部510bは、生体組織Tの撮像によって生成したカラー画像データから得られるヘモグロビンの濃度の算出結果と上記対応関係を用いて、第2比率の下限値及び上限値を求める。下限値、上限値は、酸素飽和度0%、100%に対応する値である。さらに、酸素飽和度算出部510bは、求めた下限値と上限値の間で第2比率が酸素飽和度に応じて線形的に変化することを利用して、撮像した生体組織Tの第2比率Narrow/Wideの値が、酸素飽和度0~100%に対応する下限値及び上限値の間の範囲のうちどの位置にあるかによって酸素飽和度を算出する。このようにして、特徴量取得部510の酸素飽和度算出部510bは、酸素飽和度の算出を行う。
 また、ヘモグロビンの濃度及び第2比率の値とヘモグロビンの酸素飽和度との対応関係を表した参照テーブルを上述の試料から求めて予めメモリ512に記憶しておき、この参照テーブルを参照して、算出した第2比率からヘモグロビンの酸素飽和度を算出することもできる。
 本実施形態では、第2比率を、Narrow光で照明した生体組織Tのカラー画像データ(第3のカラー画像データ)の輝度成分Narrowと、Wide光で照明した生体組織Tのカラー画像データ(第2のカラー画像データ)の輝度成分Wideとの比率として用いるが、Narrow光で照明した生体組織Tのカラー画像データ(第3のカラー画像データ)のG成分Narrow(G)と、Wide光で照明した生体組織Tのカラー画像データ(第2のカラー画像データ)のG成分Wide(G)との比率を用いることもできるが、用いるフィルタの波長特性により最適化されることが望ましい。
 また、本実施形態では、第2比率の算出のために、生体組織Tの照明のために波長帯域R2のNarrow光を用いるが、Narrow光には限られない。例えば、酸素飽和度の変化に対して吸光度の合計値が変化する波長帯域R1あるいは波長帯域R2を利用することを意図して、波長帯域R1あるいは波長帯域R2を波長帯域とする光を用いることもできる。この場合、光学フィルタ416のフィルタ特性を波長帯域R1あるいは波長帯域R2に設定するとよい。
 本実施形態では、上述したように、比率Wide/WL(R)またはWide/{WL(R)+WL(G)}は、生体組織のヘモグロビンの濃度に対して感度を有する比率であり、比率Narrow/Wideは、生体組織のヘモグロビンの酸素飽和度に対して感度を有する比率であり、比率Wideは、500nm~600nmの範囲内の波長帯域の成分であり、Narrowは、500nm~600nmの範囲内の上記波長帯域より狭い波長帯域の成分である。これにより、散乱等外乱の影響を最小限にして、ヘモグロビンの濃度及びヘモグロビンの酸素飽和度を精度良く求めることができる。
 図7は、第1比率とヘモグロビンの濃度との関係の一例を示す図である。特徴量取得部510の第1画像処理部510aは、上述したように第1比率を求めると、図7に示すような対応関係を表した参照テーブルを参照して、求めた第1比率に基づいてヘモグロビンの濃度を求める。図7は、第1比率の値に基づいてヘモグロビンの濃度H1を求めたことを表している。図7の横軸及び縦軸の数値は、便宜的に0~1024の値で表されている。
 図8は、第2比率の上限値及び下限値とヘモグロビンの濃度の関係の一例を示す図である。図8の横軸及び縦軸の数値は、便宜的に0~1024の値で表されている。
 特徴量取得部510の第1画像処理部510aは、上述したように第2比率を求めると、第1画像処理部510aで求めたヘモグロビンの濃度と第2比率とに基づいて、図8に示す対応関係を用いて、求めたヘモグロビンの濃度における第2比率の上限値及び下限値を求める。この上限値が酸素飽和度=100%を示し、下限値が酸素飽和度=0%を示す。この上限値と下限値の間のどの位置に求めた第2比率はあるかを求めることで、酸素飽和度量算出部510bは、酸素飽和度の値を求める。図8では、第2比率の値がR2であるときのヘモグロビンの濃度H1であるときの上限値Max(100%)と下限値Min(0%)を求めている。この上限値Max(100%)と下限値Min(0%)と第2比率の値Yから、酸素飽和度の値が求められる。
 第1画像処理部510aは、このようにして画素毎に算出されたヘモグロビンの濃度の値と酸素飽和度の値に基づいて階調処理して得られる画素値によってヘモグロビンの濃度の分布画像及び酸素飽和度の分布画像を生成する。
(マスク画像の生成及び酸素飽和度分布処理画像の生成)
 第2画像処理部510bが行うマスク画像の生成は、図2(b)に示すように、ヘモグロビンの濃度の分布画像において、ヘモグロビンの濃度が閾値未満の画素を透過率が0の不透過画素とし、ヘモグロビンの濃度が閾値以上の画素を、ヘモグロビンの濃度が前記閾値から離れる程度に応じて定まる透過率を画素に与えて透過画素とすることにより、ヘモグロビンの濃度の分布画像から酸素飽和度の分布画像をマスクする、図2(c)に示すようなマスク画像M(図2(c)参照)を生成する。
 具体的には、ヘモグロビンの濃度を表す画素値(画素出力値)が設定した下限値未満の画素を透過率が0の不透過画素とし、画素値が設定した上限値以上の画素を透過率が100%の透過画素とし、画素値(画素出力値)が下限値から上限値の間は、下限値と上限値との間の差に対する画素値と下限値との間の差の比に応じて変調される0と100%の間の中間の透過率を画素に与えて透過画素とすることにより、ヘモグロビンの濃度の分布画像から酸素飽和度の分布画像をマスクする、図2(c)に示すようなマスク画像M(図2(c)参照)を生成する。ここで、閾値、上限値、下限値は、予め設定された値でもよいし、操作者が自在に入力して設定することができる値であってもよい。
 第3画像処理部510cは、第1画像処理部510aが生成した酸素飽和度の分布画像の上層に、生成したマスク画像Mを重ねた酸素飽和度分布処理画像を生成する。生成した酸素飽和度分布処理画像のデータは、画像表示制御部514を介して、所定の画像の表示形態に制御されてディスプレイ300に出力される。
 図9(a)は、内視鏡システム10で表示する本実施形態の診断支援画像の一例を示す図であり、(b)は、従来の内視鏡システムで表示する診断支援画像の一例を示す図である。具体的には、図9(a),(b)は、同じヘモグロビンの濃度の分布画像と酸素飽和度の分布画像から生成される、本実施形態の酸素飽和度分布処理画像(診断支援画像)と従来の酸素飽和度の分布画像の一例を示す図であり、図1(a),(c)に矩形枠Fで囲まれた部分を示す。
 図9(a)に示すように、本実施形態で生成される診断支援画像(酸素飽和度分布処理画像)には、血管等の筋状の形態の画像情報が表示されることがわかる。一方、図9(b)に示す従来の診断支援画像は、指定されたヘモグロビン濃度で画素を選定して表示しただけの画像である。
 すなわち、この酸素飽和度分布画像では、血管等の筋状の形態の画像情報が表示されていない。このため、従来の診断支援画像では、図1(a)に示す生体組織上のどの部分が問題となる非健常部であるかを、指し示すことは難しい。これに対して、本実施形態で生成される診断支援画像には、ヘモグロビン(血液)の濃度の変化を基にマスクを生成しているので、血管等の筋状の形態の画像情報が表示され、この画像情報をたよりに、図1(a)に示す生体組織上のどの部分が問題となる非健常部であるかを、容易に特定することができる。
 図10(a)~(f)は、内視鏡システム10で表示する診断支援画像の作成に用いるマスク画像Mを説明する図である。具体的には、図10(a)~(f)は、マスク画像Mの作成のためのヘモグロビンの濃度の値から透過率0~100%の値を生成するときの階調変換の例を示す図である。
 図10(a)に示すように、ヘモグロビンの濃度の閾値Thと上限値Hを定めた時、閾値Thと上限値Hとの間のヘモグロビンの濃度から透過率への変換は、図10(b)~(f)に示すような階調変換を用いることができる。ヘモグロビンの濃度が閾値Th未満である画素は、透過率が0の不透過画素とされる。一実施形態によれば、図1(b)に示す階調変換のように、閾値Thと上限値Hの間おいて、濃度に対して透過率を線形的に変化させることができる。一実施形態によれば、図1(c)に示す階調変換のように、閾値Thと上限値Hの間おいて、閾値Th及び上限値Hの付近では、濃度に対する透過率の変化を小さくし、閾値Th及び上限値Hの間の中間領域では、濃度に対する透過率の変化を大きくする非線形の変換とすることもできる。一実施形態によれば、図1(d)に示す階調変換のように、閾値Thと上限値Hの間おいて、濃度に対する透過率の変化が、濃度の増加に伴って徐々に低下する非線形の変換とすることもできる。一実施形態によれば、図1(e)に示す階調変換のように、閾値Thと上限値Hの間おいて、濃度に対する透過率の変化が、濃度の増加に伴って徐々に増大する非線形の変換とすることもできる。一実施形態によれば、図10(f)に示す階調変換のように、図10(b)に示す、透過率が濃度の変化に対して線形的にかつ連続的に変化する変換に代えて、濃度が大きくなるにつれ、透過率が階段状に変化する変換とすることもできる。一実施形態によれば、図10(c)~(e)に示すような透過率が濃度の変化に対して連続的に変化する変換に代えて、図10(f)に示すように階段状に変化する変換にすることもできる。
 このように、実施形態では、マスク画像Mの透過画素の透過率は、画素の画素値が閾値Thから離れる程、連続的にあるいは段階的に高くなるように設定する。これにより、血管等の筋状の形態の画像情報が表示され易くなるので、図1(a)に示す生体組織上のどの部分が問題となる非健常部であるかを、特定することが容易になる。
 この場合、透過画素の透過率は、画素の画素値が閾値Thから離れるにつれ、非線形に高くなることが、好ましい。
 なお、プロセッサ200は、閾値Thの値を連続的に変化させるような入力を受ける入力部(不図示)を備え、入力の変更のたびに、第3画像処理部510cは、酸素飽和度分布処理画像の生成を行うことが好ましい。これにより、操作者がディスプレイ300に表示された酸素飽和度分布処理画像を見ながら、血管等の筋状の形態のような、生体組織上の部分を特定できる画像情報を表示させるように閾値Thを調整できるので、操作者は、非健常部の、生体組織上の場所を容易に指し示すことができる。
 本実施形態の内視鏡システム10は、生体組織を撮像し、マスク画像Mを用いた画像処理を施すことで非健常部を、生体組織の像上で指し示すことが容易にできる診断支援画像を提供することができるが、内視鏡システム10の代わりに、生体組織の撮像した画像を受信するように構成された画像表示装置、あるいは、生体組織の撮像した画像を予めメモリに記憶した画像表示装置を提供することができる。
 すなわち、画像表示装置は、画像処理を行うプロセッサと画像を表示するように構成されたディスプレイを備える。
 プロセッサは、酸素飽和度の分布処理画像を生成するための第1~3画像処理部を備える。ディスプレイは、プロセッサで生成された酸素飽和度の分布処理画像を画像表示するように構成される。
 ここで、第1画像処理部は、生体組織の撮像画像から生体組織のヘモグロビンの濃度の分布画像及び生体組織の酸素飽和度の分布画像を求めるように構成される。第2画像処理部は、ヘモグロビンの濃度の分布画像において、ヘモグロビンの濃度が閾値Th未満の画素を透過率が0の不透過画素とし、ヘモグロビンの濃度が閾値Th以上の画素に、画素の画素値が閾値Thから離れる程度に応じて定まる透過率を与えて透過画素とすることにより、ヘモグロビンの濃度の分布画像から、酸素飽和度の分布画像をマスクするマスク画像Mを生成するように構成される。第3画像処理部は、酸素飽和度の分布画像の上層にマスク画像Mを重ねた酸素飽和度の分布処理画像を生成するように構成される。
 この画像表示装置でも、マスク画像Mに基づく酸素飽和度の分布処理画像を生成するので、非健常部の存在を判断することができる診断支援画像を、生体組織中の非健常部の位置を特定することができる画像情報を含んで表示することができる。
 上述の実施形態では、ヘモグロビンの濃度及び酸素飽和度を算出するために用いる照明光ILの波長帯域は、図6に示すような500~600nmの範囲にあるが、この波長帯域に限定されない。例えば、ヘモグロビンの酸素飽和度によって吸光率が等吸収点の周りで変化する波長帯域に適用することもできる。例えば、400~500nmの波長帯域におけるいずれかの等吸収点の長波長側あるいは短波長側の一定の波長帯域を、証明光ILの波長帯域とすることもできる。
 以上、本実施形態について説明したが、本発明は、上記の実施携帯に限定されるものではなく、本発明の技術的思想の範囲内において様々な変形が可能である。
10 内視鏡システム
100  電子内視鏡
110  挿入管
111  挿入管先端部
121  対物レンズ群
131  ライトガイド
131a 先端部
131b 基端部
132  レンズ
141  撮像素子
141a カラーフィルタ
142  ケーブル
200  プロセッサ
300  ディスプレイ
400  光源部
410  回転フィルタ
420  フィルタ制御部
430  光源ランプ
440  集光レンズ
450  集光レンズ
500  画像処理部
502  A/D変換回路
504  プレ画像処理部
506  フレームメモリ部
508  ポスト画像処理部
510  特徴量取得部
510a 第1画像処理部
510b 第2画像処理部
510c 第3画像処理部
512  メモリ
514  画像表示制御部
516  コントローラ

Claims (7)

  1.  生体組織を撮像することにより複数の画像データを生成するように構成された撮像素子を備えた内視鏡と、
     前記複数の画像データから、生体組織の第1特徴量の分布を表した第1特徴量分布画像及び生体組織の第2特徴量分布を表した第2特徴量分布画像を求めるように構成された第1画像処理部と、前記第1特徴量分布画像において、前記第1特徴量が所定の閾値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が前記所定の閾値以上の画素を、前記第1特徴量が前記閾値から離れる程度に応じて定まる透過率を画素に与えて透過画素とすることにより、前記第1特徴量分布画像から、前記第2特徴量分布画像をマスクするマスク画像を生成するように構成された第2画像処理部と、前記第2特徴量分布画像の上層に前記マスク画像を重ねた第2特徴量分布処理画像を生成するように構成された第3画像処理部と、を備えたプロセッサと、
     前記第3画像処理部で生成された前記第2特徴量分布処理画像を画像表示するように構成されたディスプレイと、を備える、ことを特徴とする内視鏡システム。
  2.  前記透過画素の前記透過率は、前記画素における前記第1特徴量が前記閾値から離れる程、連続的にあるいは段階的に高くなる、請求項1に記載の内視鏡システム。
  3.  前記透過画素の前記透過率は、前記画素における前記第1特徴量が前記閾値から離れるにつれ、非線形に高くなる、請求項2に記載の内視鏡システム。
  4.  前記プロセッサは、前記閾値の値を連続的に変化させるような入力を受けるように構成された入力部を備え、前記入力の変更のたびに、前記第3画像処理部は、前記第2特徴量分布処理画像の生成を行うように構成されている、請求項1~3のいずれか1項に記載の内視鏡システム。
  5.  前記第1画像処理部は、前記複数の画像データの成分のうち、所定の成分の値を用いて成分間の第1の比率及び第2の比率の値を算出し、前記第1の比率及び前記第2の比率の値を用いて前記第1特徴量及び前記第2特徴量を算出し、
     前記第1特徴量は、ヘモグロビンの濃度であり、前記第2特徴量は、ヘモグロビンの酸素飽和度である、請求項1~4のいずれか1項に記載の内視鏡システム。
  6.  前記第1の比率は、前記生体組織の前記第1特徴量に対して感度を有する比率であり、
     前記第2の比率は、前記生体組織の前記第2の特徴量に対して感度を有する比率であり、
     前記第1の比率の算出に用いる前記画像データの成分の1つは、500nm~600nmの範囲内の第1波長帯域の成分であり、
     前記第2の比率の算出に用いる前記画像データの成分の1つは、前記第1波長帯域より狭い第2の波長帯域の成分である、請求項5に記載の内視鏡システム。
  7.  画像処理を行うように構成されたプロセッサと画像を表示するように構成されたディスプレイを備える画像表示装置であって、
     生体組織の撮像画像から生体組織の第1特徴量の分布を表した第1特徴量分布画像及び生体組織の第2特徴量の分布を表した第2特徴量分布画像を求めるように構成された第1画像処理部と、前記第1特徴量分布画像において、前記第1特徴量が所定の閾値未満の画素を透過率が0の不透過画素とし、前記第1特徴量が所定の閾値以上の画素に、前記画素の画素値が前記閾値から離れる程度に応じて定まる透過率を与えて透過画素とすることにより、前記第1特徴量分布画像から、前記第2特徴量分布画像をマスクするマスク画像を生成するように構成された第2画像処理部と、前記第2特徴量分布画像の上層に前記マスク画像を重ねた第2特徴量分布処理画像を生成するように構成された第3画像処理部と、を備えたプロセッサと、
     前記第3画像処理部で生成された前記第2特徴量分布処理画像を画像表示するように構成されたディスプレイと、を備えたことを特徴とする画像表示装置。
PCT/JP2018/000423 2017-01-16 2018-01-11 内視鏡システム、及び画像表示装置 WO2018131631A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018561403A JP6770587B2 (ja) 2017-01-16 2018-01-11 内視鏡システム、及び画像表示装置
DE112018000393.0T DE112018000393T5 (de) 2017-01-16 2018-01-11 Endoskopsystem und Bildanzeigevorrichtung
US16/468,956 US11602277B2 (en) 2017-01-16 2018-01-11 Endoscope system and image display device
CN201880005008.3A CN110087528B (zh) 2017-01-16 2018-01-11 内窥镜系统以及图像显示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017005446 2017-01-16
JP2017-005446 2017-01-16

Publications (1)

Publication Number Publication Date
WO2018131631A1 true WO2018131631A1 (ja) 2018-07-19

Family

ID=62840039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000423 WO2018131631A1 (ja) 2017-01-16 2018-01-11 内視鏡システム、及び画像表示装置

Country Status (5)

Country Link
US (1) US11602277B2 (ja)
JP (1) JP6770587B2 (ja)
CN (1) CN110087528B (ja)
DE (1) DE112018000393T5 (ja)
WO (1) WO2018131631A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065939A1 (ja) * 2019-10-04 2021-04-08 富士フイルム株式会社 内視鏡システム及びその作動方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3544482A4 (en) 2016-11-28 2020-07-22 Adaptivendo LLC SEPARABLE DISPOSABLE SHAFT ENDOSCOPE
CN110381806B (zh) 2017-03-31 2021-12-10 Hoya株式会社 电子内窥镜系统
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) * 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2006326153A (ja) * 2005-05-30 2006-12-07 Olympus Corp ヘモグロビン観察装置及びヘモグロビン観察方法
JP2013118978A (ja) * 2011-12-08 2013-06-17 Sony Corp 測定装置、測定方法、プログラム及び記録媒体
JP2014233344A (ja) * 2013-05-31 2014-12-15 Hoya株式会社 光学フィルタ素子、波長可変光バンドパスフィルタモジュール、波長可変光源装置及び分光内視鏡装置
JP2015198735A (ja) * 2014-04-07 2015-11-12 オリンパス株式会社 生体観察システム
JP2016052391A (ja) * 2014-09-03 2016-04-14 Hoya株式会社 撮像システム
JP2016097067A (ja) * 2014-11-21 2016-05-30 Hoya株式会社 分析装置及び分析方法
JP2016220802A (ja) * 2015-05-28 2016-12-28 Hoya株式会社 撮像装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6198532B1 (en) * 1991-02-22 2001-03-06 Applied Spectral Imaging Ltd. Spectral bio-imaging of the eye
US5512940A (en) * 1993-03-19 1996-04-30 Olympus Optical Co., Ltd. Image processing apparatus, endoscope image sensing and processing apparatus, and image processing method for performing different displays depending upon subject quantity
US6276798B1 (en) * 1998-09-29 2001-08-21 Applied Spectral Imaging, Ltd. Spectral bio-imaging of the eye
JP4338583B2 (ja) 2004-05-12 2009-10-07 アルパイン株式会社 ナビゲーション装置
JP5395725B2 (ja) * 2010-04-05 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5789232B2 (ja) * 2011-10-12 2015-10-07 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5698186B2 (ja) * 2012-05-23 2015-04-08 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP6067264B2 (ja) * 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP2014230647A (ja) 2013-05-29 2014-12-11 Hoya株式会社 表示装置、表示方法および表示プログラム
WO2014192781A1 (ja) * 2013-05-30 2014-12-04 Hoya株式会社 生体組織中の生体物質の濃度分布を示す画像を生成する方法及び装置
JP6085649B2 (ja) * 2014-08-29 2017-02-22 富士フイルム株式会社 内視鏡用光源装置及び内視鏡システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) * 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2006326153A (ja) * 2005-05-30 2006-12-07 Olympus Corp ヘモグロビン観察装置及びヘモグロビン観察方法
JP2013118978A (ja) * 2011-12-08 2013-06-17 Sony Corp 測定装置、測定方法、プログラム及び記録媒体
JP2014233344A (ja) * 2013-05-31 2014-12-15 Hoya株式会社 光学フィルタ素子、波長可変光バンドパスフィルタモジュール、波長可変光源装置及び分光内視鏡装置
JP2015198735A (ja) * 2014-04-07 2015-11-12 オリンパス株式会社 生体観察システム
JP2016052391A (ja) * 2014-09-03 2016-04-14 Hoya株式会社 撮像システム
JP2016097067A (ja) * 2014-11-21 2016-05-30 Hoya株式会社 分析装置及び分析方法
JP2016220802A (ja) * 2015-05-28 2016-12-28 Hoya株式会社 撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021065939A1 (ja) * 2019-10-04 2021-04-08 富士フイルム株式会社 内視鏡システム及びその作動方法
JPWO2021065939A1 (ja) * 2019-10-04 2021-04-08
JP7344976B2 (ja) 2019-10-04 2023-09-14 富士フイルム株式会社 内視鏡システム及びその作動方法

Also Published As

Publication number Publication date
CN110087528A (zh) 2019-08-02
US11602277B2 (en) 2023-03-14
DE112018000393T5 (de) 2019-09-26
JP6770587B2 (ja) 2020-10-14
JPWO2018131631A1 (ja) 2019-11-07
US20190335978A1 (en) 2019-11-07
CN110087528B (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
JP6204314B2 (ja) 電子内視鏡システム
JP6356051B2 (ja) 分析装置及び分析装置の作動方法
JP6467562B2 (ja) 内視鏡システム
WO2018131631A1 (ja) 内視鏡システム、及び画像表示装置
US10925527B2 (en) Endoscope apparatus
JP2021035549A (ja) 内視鏡システム
JP6615369B2 (ja) 内視鏡システム
WO2018043728A1 (ja) 内視鏡システム及び特徴量算出方法
JP6284451B2 (ja) 内視鏡装置
JP2014050594A (ja) 内視鏡システム及び内視鏡画像の取得方法
JP6783168B2 (ja) 内視鏡システム及び分析装置
US10791973B2 (en) Analysis device and method of analysis
JP6782172B2 (ja) キャリブレーション用試料、内視鏡システム、及びキャリブレーション用試料の作製方法
JP2014050458A (ja) 内視鏡用プローブ装置及び内視鏡システム
JP2003093343A (ja) 内視鏡装置
WO2018037505A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18739063

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018561403

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18739063

Country of ref document: EP

Kind code of ref document: A1