WO2019151190A1 - 内視鏡システム及びその作動方法 - Google Patents

内視鏡システム及びその作動方法 Download PDF

Info

Publication number
WO2019151190A1
WO2019151190A1 PCT/JP2019/002775 JP2019002775W WO2019151190A1 WO 2019151190 A1 WO2019151190 A1 WO 2019151190A1 JP 2019002775 W JP2019002775 W JP 2019002775W WO 2019151190 A1 WO2019151190 A1 WO 2019151190A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation image
display
image
signal
observation
Prior art date
Application number
PCT/JP2019/002775
Other languages
English (en)
French (fr)
Inventor
弘亮 岩根
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201980010783.2A priority Critical patent/CN111683583B/zh
Priority to JP2019569098A priority patent/JP6995889B2/ja
Publication of WO2019151190A1 publication Critical patent/WO2019151190A1/ja
Priority to US16/936,529 priority patent/US11547272B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3137Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part

Definitions

  • the present invention relates to an endoscope system that automatically switches and displays a plurality of observation images and an operation method thereof.
  • an endoscope system including a light source device, an endoscope, and a processor device is widely used.
  • an observation target is irradiated based on an RGB image signal obtained by irradiating an observation target with illumination light from the endoscope, and imaging the observation target under illumination with the imaging light of the endoscope. Is displayed on the monitor.
  • Patent Document 1 a plurality of images having different blood vessel thicknesses and depths are switched and displayed.
  • Patent Document 2 when the purple light V and the blue light B are switched and illuminated, an image of the purple light V and an image of the blue light B are acquired, and when the extreme surface blood vessel is emphasized, the purple light is used.
  • the blue light B image is assigned to the luminance signal.
  • Patent Document 1 requires processing for emphasizing blood vessels having different thicknesses and depths, which increases the load of image processing associated with image switching.
  • Patent Document 2 since a plurality of illumination lights are switched, synchronization with the processor device is required in accordance with the illumination light switching, and the processing load on the processor device increases.
  • An object of the present invention is to provide an endoscope system capable of reducing processing and operations associated with switching of observation images as much as possible when automatically switching and displaying a plurality of observation images, and an operation method thereof.
  • the endoscope system includes an image acquisition unit, a display observation image processing unit, and a display control unit.
  • the image acquisition unit acquires an observation image.
  • the display observation image processing unit generates the first display observation image by allocating the first color signal of the observation image to the luminance signal when generating the display observation image including the luminance signal based on the observation image.
  • the second display observation image is generated by assigning the second color signal of the observation image to the luminance signal.
  • the display control unit automatically switches between the first display observation image and the second display observation image and displays it on the display unit.
  • the display observation image processing unit converts a component of the second color signal of the observation image from the first color signal of the observation image by a first calculation process based on the first color signal of the observation image and the second color signal of the observation image. Except for this, it is preferable to generate the first display observation image by assigning the first color signal of the observation image that has been subjected to the first arithmetic processing to the luminance signal.
  • the display observation image processing unit converts the component of the first color signal of the observation image from the second color signal of the observation image by the second calculation processing based on the first color signal of the observation image and the second color signal of the observation image. Except for this, it is preferable to generate the second display observation image by assigning the second color signal of the observation image that has been subjected to the second arithmetic processing to the luminance signal.
  • the observation image is preferably a special observation image obtained by imaging an observation target illuminated with special light including narrow band purple light or blue light, green light, and red light.
  • the violet light preferably has a center wavelength of 405 ⁇ 10 nm.
  • the first color signal is a blue signal and the second color signal is a green signal.
  • the first display blood vessel is emphasized in the first display observation image
  • the second layer blood vessel located deeper than the first layer blood vessel is emphasized in the second display observation image.
  • the first layer blood vessel is preferably a surface layer blood vessel
  • the second layer blood vessel is preferably a middle-deep layer blood vessel. It is preferable that the display control unit switches and displays the first display observation image and the second display observation image at intervals of two frames or more.
  • the operation method of the endoscope system of the present invention includes an image acquisition step, an image generation step, and a display step.
  • the image acquisition step the image acquisition unit acquires an observation image.
  • the display observation image processing unit generates a display observation image including a luminance signal based on the observation image, and the first color signal of the observation image is converted into the luminance signal. Is assigned to the first display observation image, and the second color signal of the observation image is assigned to the luminance signal to generate the second display observation image.
  • the display control unit automatically switches between the first display observation image and the second display observation image and displays the first display observation image on the display unit.
  • 1 is an external view of an endoscope system according to a first embodiment. It is a block diagram which shows the function of the endoscope system of 1st Embodiment. It is a graph which shows the emission spectrum of the normal light of 1st Embodiment. It is a graph which shows the emission spectrum of the special light of 1st Embodiment. It is a graph which shows the transmittance
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a bending portion 12c and a distal end portion 12d provided at the distal end side of the insertion portion 12a. have.
  • the angle knob 12e of the operation unit 12b By operating the angle knob 12e of the operation unit 12b, the bending unit 12c performs a bending operation. With this bending operation, the tip 12d is directed in a desired direction.
  • the console 19 includes a mouse as well as the illustrated keyboard.
  • the operation unit 12b is provided with a mode switching SW 13a.
  • the mode switching SW 13a is used for switching operation between the normal light observation mode, the special light observation mode, and the multi-observation mode.
  • the normal light observation mode is a mode for displaying a normal observation image on the monitor 18.
  • the special observation image is a mode in which a special observation image in which a blood vessel having a specific depth is emphasized is displayed on the monitor 18.
  • a first display observation image in which a surface blood vessel (first layer blood vessel) is emphasized and a second display observation image in which a middle deep blood vessel (second layer blood vessel) is emphasized are generated from a special observation image.
  • first display observation image and the second display observation image are automatically switched and displayed on the monitor 18.
  • a foot switch may be used as the mode switching unit for switching the mode.
  • the first display observation image or the second display observation image may be generated from the normal observation image.
  • the processor device 16 is electrically connected to the monitor 18 and the console 19.
  • the monitor 18 outputs and displays image information and the like.
  • the console 19 functions as a UI (User Interface) that receives input operations such as function settings.
  • the processor device 16 may be connected to an external recording unit (not shown) for recording image information and the like.
  • the light source device 14 includes a light source unit 20, a light source control unit 21, and an optical path coupling unit 23.
  • the light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light Emitting Diode) 20d. doing.
  • the light source control unit 21 controls driving of the LEDs 20a to 20d.
  • the optical path coupling unit 23 couples the optical paths of the four colors of light emitted from the four colors of LEDs 20a to 20d.
  • the light coupled by the optical path coupling unit 23 is irradiated into the subject through the light guide 41 and the illumination lens 45 inserted into the insertion unit 12a.
  • LED other semiconductor light sources such as LD (Laser Diode) may be used.
  • the V-LED 20a generates purple light V having a center wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 20b generates blue light B having a center wavelength of 460 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 20c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED 20d generates red light R having a center wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm. Of the above four colors of light, violet light is preferably narrowed in the wavelength range of 380 to 420 nm.
  • the light source control unit 21 performs control to turn on the V-LED 20a, the B-LED 20b, the G-LED 20c, and the R-LED 20d in any observation mode.
  • the light source control unit 21 is a normal light whose light intensity ratio among the violet light V, blue light B, green light G, and red light R is Vc: Bc: Gc: Rc (FIG. 3).
  • the LEDs 20a to 20d are controlled so as to emit light.
  • the light intensity ratio includes a case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, the case where any one or two or more of the respective semiconductor light sources are not lit is included.
  • the light intensity ratio among the violet light V, the blue light B, the green light G, and the red light R is 1: 0: 0: 0, only one of the semiconductor light sources is turned on, and the other 3 Even if one does not light, it shall have a light intensity ratio.
  • the light source control unit 21 has a special light intensity ratio of Vs: Bs: Gs: Rs among the violet light V, blue light B, green light G, and red light R.
  • the LEDs 20a to 20d are controlled so as to emit light.
  • the special light is preferably illumination light that emphasizes a blood vessel having a specific depth. For example, when emphasizing a superficial blood vessel as a blood vessel having a specific depth, it is preferable that the special light has a peak at 400 nm or more and 440 nm or less. In this case, as shown in FIG.
  • the special light has a light intensity ratio Vs1 such that the light intensity of the purple light V is larger than the light intensity of the other blue light B, green light G, and red light R.
  • Bs1: Gs1: Rs1 is set (Vs1> Bs1, Gs1, Rs1).
  • the special light has the first red band like the red light R, the color of the mucous membrane can be accurately reproduced.
  • the special light has a blue band and a green band such as violet light V, blue light B, and green light G, in addition to the above-described surface blood vessels, various structures such as a gland duct structure and unevenness. Can also be emphasized.
  • the light guide 41 is built in the endoscope 12 and the universal cord (the cord connecting the endoscope 12, the light source device 14, and the processor device 16).
  • the combined light propagates to the distal end portion 12d of the endoscope 12.
  • a multimode fiber can be used as the light guide 41.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer serving as an outer shell can be used.
  • the distal end portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30 a has an illumination lens 45, and light from the light guide 41 is irradiated to the observation target via the illumination lens 45.
  • the imaging optical system 30 b includes an objective lens 46 and an imaging sensor 48. Reflected light from the observation object enters the image sensor 48 through the objective lens 46. As a result, a reflected image of the observation object is formed on the image sensor 48.
  • the imaging sensor 48 is a color imaging sensor that captures a reflected image of the subject and outputs an image signal.
  • the image sensor 48 is preferably a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like.
  • the image sensor 48 used in the present invention is a color image sensor for obtaining RGB image signals of three colors of R (red), G (green), and B (blue), that is, an R provided with an R color filter. This is a so-called RGB imaging sensor including a pixel, a G pixel provided with a G color filter, and a B pixel provided with a B color filter.
  • the R color filter has a transmittance in the red band of 600 to 700 nm, and has a transmittance lower than that in the red band in the green band and the blue band. That is, the R pixel has sensitivity in the red band, and has some sensitivity in the green band and the blue band.
  • the G color filter has transmittance in the green band of 500 to 600 nm, and also has some transmittance in the red band and blue band. That is, the G pixel has sensitivity in the green band, and has some sensitivity in the red band and blue band.
  • the B color filter has transmittance in the blue band of 400 to 500 nm, and also has some transmittance in the green band and the red band.
  • the B pixel has sensitivity in the blue band, and also has some sensitivity in the green band and the red band.
  • the image sensor 48 is a so-called complementary color image sensor that includes complementary filters for C (cyan), M (magenta), Y (yellow), and G (green) instead of RGB color image sensors. May be.
  • the complementary color imaging sensor When the complementary color imaging sensor is used, four color image signals of CMYG are output. Therefore, it is necessary to convert the four color image signals of CMYG to the three color image signals of RGB by complementary color-primary color conversion.
  • the image sensor 48 may be a monochrome image sensor not provided with a color filter. In this case, the light source control unit 21 needs to turn on the blue light B, the green light G, and the red light R in a time-sharing manner, and add a synchronization process in the processing of the imaging signal.
  • the image signal output from the image sensor 48 is transmitted to the CDS / AGC circuit 50.
  • the CDS / AGC circuit 50 performs correlated double sampling (CDS (Correlated Sampling)) and automatic gain control (AGC (Auto Gain Control)) on an image signal which is an analog signal.
  • CDS Correlated Sampling
  • AGC Automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 50 is converted into a digital image signal by an A / D converter (A / D (Analog / Digital) converter) 52.
  • the A / D converted digital image signal is input to the processor device 16.
  • the processor device 16 includes an image acquisition unit 53, a DSP (Digital Signal Processor) 56, a noise removal unit 58, a signal switching unit 60, a normal observation image processing unit 61, a special observation image processing unit 63, and a multi-observation.
  • An image processing unit 64 display observation image processing unit
  • the image acquisition unit 53 acquires an observation image from the endoscope 12.
  • the observation image is an RGB color image signal.
  • the normal light observation mode from the Rc image signal output from the R pixel of the imaging sensor 48, the Gc image signal output from the G pixel of the imaging sensor 48, and the B pixel of the imaging sensor 48 as the observation image.
  • a normal observation image including the output Bc image signal is acquired.
  • an Rs image signal output from the R pixel of the imaging sensor 48, a Gs image signal output from the G pixel of the imaging sensor 48, and the imaging sensor 48 as an observation image.
  • a special observation image including the Bs image signal output from the B pixel is acquired.
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, or demosaicing processing on the received image signal.
  • defect correction process the signal of the defective pixel of the image sensor 48 is corrected.
  • offset process the dark current component is removed from the RGB image signal subjected to the defect correction process, and an accurate zero level is set.
  • gain correction process the signal level is adjusted by multiplying the RGB image signal after the offset process by a specific gain.
  • the RGB image signal after the gain correction process is subjected to a linear matrix process for improving color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing.
  • the RGB image signal after the linear matrix processing is subjected to demosaic processing (also referred to as isotropic processing or synchronization processing), and a signal of a color lacking in each pixel is generated by interpolation.
  • demosaic processing also referred to as isotropic processing or synchronization processing
  • all the pixels have RGB signals.
  • the noise removal unit 58 removes noise from the RGB image signal by performing noise removal processing (for example, a moving average method, a median filter method, etc.) on the RGB image signal subjected to gamma correction or the like by the DSP 56.
  • the RGB image signal from which noise has been removed is transmitted to the signal switching unit 60.
  • the signal switching unit 60 transmits the RGB image signal to the normal observation image processing unit 61 when the normal light observation mode is set by the mode switching SW 13a.
  • the RGB image signal is transmitted to the special observation image processing unit 63.
  • the multi-observation mode is set, the RGB image signal is transmitted to the multi-observation image processing unit 64.
  • the normal observation image processing unit 61 receives the Rc image signal, Gc image signal, and Rc image signal obtained in the normal light observation mode.
  • the input Rc image signal, Gc image signal, and Rc image signal are subjected to image processing for the normal light observation mode.
  • the image processing for the normal light observation mode includes structure enhancement processing for the normal light observation mode.
  • the RGB image signal that has been subjected to the image processing for the normal light observation mode is input from the normal observation image processing unit 61 to the display control unit 66 as a normal observation image.
  • the special observation image processing unit 63 receives the Rs image signal, the Gs image signal, and the Bs image signal obtained in the special light observation mode. Image processing for the special light observation mode is performed on the input Rs image signal, Gs image signal, and Rs image signal.
  • the image processing for the special light observation mode includes structure enhancement processing for the special light observation mode.
  • the RGB image signal subjected to the image processing for the special observation image is input from the special observation image processing unit 63 to the display control unit 66 as a special observation image.
  • the multi-observation image processing unit 64 receives an Rs image signal, a Gs image signal, and a Bs image signal obtained in the multi-observation mode.
  • the input Rs image signal, Gs image signal, and Rs image signal are subjected to image processing for the multi-observation mode.
  • the image processing for the multi-observation mode generates a plurality of display observation images in which blood vessels having different depths are emphasized from one frame of special observation images.
  • a first display observation image in which surface blood vessels are emphasized and a second display observation image in which middle-layer blood vessels are emphasized are generated as a plurality of display observation images. Details of the image processing for the multi-observation mode will be described later.
  • the first display observation image and the second display observation image are input from the multi-observation image processing unit 64 to the display control unit 66.
  • the display control unit 66 includes a normal observation image, a special observation image, a first display observation image, or a second display input from the normal observation image processing unit 61, the special observation image processing unit 63, and the multi-observation image processing unit 64. Control for displaying the observation image on the monitor 18 is performed. An image corresponding to each observation mode is displayed on the monitor 18 under the control of the display control unit 66. In the normal light observation mode, the monitor 18 displays a normal observation image. In the special light observation mode, the monitor 18 displays a special observation image. In the multi-observation mode, the monitor 18 automatically switches and displays the first display observation image or the second display observation image according to a specific display pattern.
  • a specific display pattern is a pattern in which the first display observation image is displayed for two frames and the second display observation image is displayed for three frames in one display cycle
  • the following pattern is used. Conceivable.
  • the multi-observation image processing unit 64 when a special observation image of two frames is input as an input image to the multi-observation image processing unit 64, the multi-observation image processing unit 64 generates a first display observation image for two frames. Generate as an image. The generated first display observation images for two frames are sequentially displayed on the monitor 18 as display images.
  • the multi-observation image processing unit 64 generates three frames of second display observation images as generated images. .
  • the generated second display observation images for three frames are sequentially displayed on the monitor 18 as display images.
  • the multi-observation image processing unit 64 uses the first of two frames.
  • a display observation image and a second display observation image are generated as generated images.
  • two frames of the first display observation image are sequentially displayed on the monitor 18 as a display image.
  • the multi-observation image processing unit 64 performs the first display observation image and the second display observation for three frames.
  • An image is generated as a generated image.
  • the first display observation image and the second display observation image are sequentially displayed on the monitor 18 as a display image.
  • the first display observation image and the second display observation image are generated and stored from a single frame.
  • the first display observation image and the second display observation image can be stored in one operation without any positional deviation.
  • first display observation image and the second display observation image are preferably switched and displayed at intervals of two frames or more. In the case of one frame, since the image is switched quickly, there is a possibility that the difference between the first display observation image and the second display observation image cannot be recognized.
  • the image processing in the multi-observation mode includes a first display observation image generation process that generates a first display observation image and a second display observation image generation process that generates a second display observation image.
  • the first display observation image generation processing performs luminance color difference signal conversion processing on the Bs image signal, the Gs image signal, and the Rs image signal obtained in the multi-observation mode, thereby obtaining the luminance signal Y.
  • the color difference signals Cr and Cb are converted.
  • the luminance signal Y is converted into the luminance signal Ym by performing luminance signal allocation processing for allocating the luminance signal Y to the Bs image signal (first color signal (blue signal) of the observation image).
  • the Bs image signal includes information on the superficial blood vessels
  • the first display observation image can be an image in which the superficial blood vessels are emphasized.
  • a chrominance signal correction process for correcting a shift between the chrominance signals Cr and Cb accompanying the conversion of the luminance signal Y into the luminance signal Ym is performed. Specifically, the color difference signal Cr is multiplied by the converted color difference signal Ym / the converted color difference signal Y. Similarly, the color difference signal Cb is multiplied by the converted color difference signal Ym / the converted color difference signal Y.
  • the shift between the color difference signals Cr and Cb it is possible to correct the shift in saturation according to the luminance conversion while maintaining the hue (when the luminance is low, the saturation is reduced). If the brightness increases, the saturation can be increased).
  • the luminance signal Ym, the color difference signal Cr ⁇ Ym / Y, and the color difference signal Cb ⁇ Ym / Y are converted into a B1 image signal, a G1 image signal, and an R1 image signal by performing RGB conversion processing. These B1 image signal, G1 image signal, and R1 image signal become the first display observation image.
  • the second display observation image generation process As shown in FIG. 8, in the second display observation image generation process, as in the first display observation image generation process, the brightness of the Bs image signal, Gs image signal, and Rs image signal obtained in the multi-observation mode is determined. Color difference signal conversion processing is performed to convert the luminance signal Y and color difference signals Cr and Cb. Next, the luminance signal Y is converted into the luminance signal Yn by performing luminance signal allocation processing for allocating the luminance signal Y to the Gs image signal (second color signal (green signal) of the observation image). As will be described later, since the Gs image signal includes information on the middle-deep blood vessel, the second display observation image can be an image in which the middle-deep blood vessel is emphasized.
  • the second color signal of the observation image is a color signal having a longer wave component than the first color signal of the observation image.
  • the first color signal is a blue signal and the second color signal is a green signal, but the present invention is not limited to this.
  • the first color signal may be a green signal and the second color signal may be a red signal such as an Rs image signal.
  • a color difference signal correction process for correcting a shift between the color difference signals Cr and Cb accompanying the conversion of the luminance signal Y into the luminance signal Yn is performed. Specifically, the color difference signal Cr is multiplied by the converted color difference signal Yn / the converted color difference signal Y. Similarly, the color difference signal Cb is multiplied by the converted color difference signal Yn / the converted color difference signal Y. Thereby, the shift
  • the luminance signal Yn, the color difference signal Cr ⁇ Yn / Y, and the color difference signal Cb ⁇ Yn / Y are converted into a B2 image signal, a G2 image signal, and an R2 image signal by performing RGB conversion processing. These B2 image signal, G2 image signal, and R2 image signal become the second display observation image.
  • the Bs image signal includes information on the surface blood vessels and the Gs image signal includes information on the mid-deep blood vessels for the following reason.
  • the Bs image signal has a signal value corresponding to the light intensity obtained by multiplying the light intensity of the special light, the reflectance of the observation object, and the light transmittance of the B pixel.
  • the Bs image signal contains a lot of special light shortwave components.
  • the Gs image signal has a signal value corresponding to the light intensity obtained by multiplying the light intensity of the special light, the reflectance of the observation object, and the light transmittance of the G pixel.
  • the Gs image signal contains a lot of special wave medium wave components.
  • the Rs image signal has a signal value corresponding to the light intensity obtained by multiplying the light intensity of the special light, the reflectance of the observation object, and the light transmittance of the R pixel. This Rs image signal contains a lot of special wave long wave components.
  • the short wave component of the special light contained in a large amount in the Bs image signal corresponds to the component of the reflected light that reaches the surface layer of the mucous membrane. Therefore, the Bs image signal includes information on the superficial blood vessels included in the superficial layer of the mucous membrane.
  • the medium wave component of special light contained in a large amount in the Gs image signal corresponds to a component of reflected light of light that has reached the middle layer of the mucous membrane. Therefore, the Gs image signal includes information on the superficial blood vessels or intermediate deep blood vessels contained in the superficial layer or the middle layer of the mucous membrane.
  • the long wave component of special light included in the Rs image signal includes information on mucous membranes other than structures such as blood vessels. Therefore, it is possible to display mucosal information by the Rs image signal.
  • the mode switching SW 13a is operated to switch to the multi observation mode.
  • the special light is illuminated onto the observation target.
  • a special observation image including a Bs image signal, a Gs image signal, and an Rs image signal is obtained.
  • first display observation images for the first specified number of frames and second display observation images for the second specified number of frames are generated from one frame of special observation images.
  • the first prescribed frame number and the second prescribed frame number correspond to the number of frames displayed in one display cycle, respectively.
  • the first prescribed frame number and the second prescribed frame number may be fixed or may be changed according to specific conditions.
  • the generation of the first display observation image is performed by the first display observation image generation process.
  • a luminance signal allocation process for allocating a Bs image signal to the luminance signal Y is performed.
  • a first display observation image in which the surface blood vessels are emphasized is obtained.
  • the generation of the second display observation image is performed by the second display observation image generation process.
  • a luminance signal allocation process for allocating a Gs image signal to the luminance signal Y is performed.
  • a second display observation image in which the intermediate deep blood vessels are emphasized is obtained.
  • the first display observation image and the second display observation image are automatically switched and displayed on the monitor 18.
  • the luminance signal assignment processing for assigning the Bs image signal including the information on the surface blood vessels to the luminance signal Y and assigning the Gs image signal including the information on the mid-deep blood vessels to the luminance signal emphasizes the surface blood vessels by pattern matching or the like.
  • the load is smaller for image processing than for processing. Therefore, it is possible to switch between the superficial blood vessel image (first display observation image) and the intermediate deep blood vessel image (second display observation image) without imposing a load on image processing.
  • the sensitivity characteristics of the B pixel and the G pixel of the image sensor 48 partially overlap each other, so that the difference between the Bs image signal and the Gs image signal may be small. .
  • the difference between the first display observation image and the second display observation image may be small.
  • a Gs image signal obtained by multiplying the Bs image signal by a coefficient ⁇ is subtracted.
  • One calculation process (Bs ⁇ ⁇ Gs) is performed. Thereby, as shown in FIG.
  • the medium wave component (the component of the second color signal (green signal) of the observation image) of the Gs image signal can be removed from the Bs image signal.
  • the information on the middle-deep blood vessels is reduced. Therefore, the first display observation image in which the (Bs ⁇ ⁇ Gs) image signal is assigned to the luminance signal Y is The difference from the second display observation image can be increased.
  • a second calculation process (Gs ⁇ ⁇ Bs) for subtracting the Bs image signal multiplied by the coefficient ⁇ from the Gs image signal may be performed.
  • the short wave component (the component of the first color signal (blue signal) of the observation image) of the Bs image signal can be removed from the Gs image signal.
  • the second display observation image in which the (Gs ⁇ ⁇ Bs) image signal is assigned to the luminance signal Y can increase the difference from the first display observation image.
  • the observation target is illuminated using a laser light source and a phosphor instead of the four-color LEDs 20a to 20d shown in the first embodiment.
  • the rest is the same as in the first embodiment.
  • a blue laser light source that emits blue laser light having a central wavelength of 445 ⁇ 10 nm (see FIG. 14).
  • a blue-violet laser light source (indicated as “405LD” in FIG. 14) 206 that emits a blue-violet laser beam having a central wavelength of 405 ⁇ 10 nm is provided.
  • Light emission from the semiconductor light emitting elements of these light sources 204 and 206 is individually controlled by the light source control unit 208, and the light quantity ratio between the emitted light of the blue laser light source 204 and the emitted light of the blue-violet laser light source 206 can be freely changed. It has become.
  • the light source control unit 208 drives the blue laser light source 204 in the normal light observation mode. In the special light observation mode or the multi-observation mode, both the blue laser light source 204 and the blue-violet laser light source 206 are driven, and the emission ratio of the blue-violet laser light becomes larger than the light intensity ratio of the blue laser light. To control.
  • the laser light emitted from each of the light sources 204 and 206 is incident on the light guide 41 through an optical member (all not shown) such as a condenser lens, an optical fiber, or a multiplexer.
  • the half-value width of the blue laser beam or the blue-violet laser beam is preferably about ⁇ 10 nm.
  • a broad area type InGaN laser diode can be used, and an InGaNAs laser diode or a GaNAs laser diode can also be used.
  • the light source may be configured to use a light emitter such as a light emitting diode.
  • the illumination optical system 30a is provided with a phosphor 210 on which blue laser light or blue-violet laser light from the light guide 41 is incident.
  • the phosphor 210 When the phosphor 210 is irradiated with the blue laser light, the phosphor 210 emits fluorescence. Some of the blue laser light passes through the phosphor 210 as it is. The blue-violet laser light is transmitted without exciting the phosphor 210. The light emitted from the phosphor 210 is irradiated into the specimen through the illumination lens 45.
  • the blue laser light is incident on the phosphor 210. Therefore, as shown in FIG. 15, the blue laser light and the fluorescence excited and emitted from the phosphor 210 by the blue laser light are combined. The observed normal light is irradiated to the observation target.
  • the special light observation mode or the multi-observation mode since both the blue-violet laser light and the blue laser light are incident on the phosphor 210, the blue-violet laser light, the blue laser light, and the blue laser light as shown in FIG. Thus, the special light obtained by combining the fluorescence excited and emitted from the phosphor 210 is irradiated into the specimen. In this special light, the light intensity of the blue-violet laser light is larger than the light intensity of the blue laser light.
  • the phosphor 210 absorbs a part of the blue laser light and emits a plurality of kinds of phosphors that emit green to yellow light (for example, a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )). It is preferable to use what is comprised including. If a semiconductor light emitting device is used as an excitation light source for the phosphor 210 as in this configuration example, high intensity white light can be obtained with high luminous efficiency, and the intensity of white light can be easily adjusted. Changes in temperature and chromaticity can be kept small.
  • the processing unit (processing unit) included in the processor device 16 such as the image acquisition unit 53, the DSP 56, the noise removal unit 58, the normal observation image processing unit 61, the special observation image processing unit 63, and the multi-observation image processing unit 64.
  • the hardware structure of) is the following various processors.
  • the circuit configuration is changed after the manufacture of CPU (Central Processing Unit) and FPGA (Field Programmable Gate Array), which are general-purpose processors that function as various processing units by executing software (programs).
  • a programmable logic device Programmable Logic Device: PLD
  • PLD programmable Logic Device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or CPUs and FPGAs). May be. Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or server, one processor is configured with a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (integrated circuit) chip. is there.
  • various processing units are configured using one or more of the various processors as a hardware structure.
  • the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the present invention is not limited to the endoscope system as in the first to third embodiments and the processor device incorporated in the capsule endoscope system as in the fourth embodiment, and various medical image processing apparatuses. It is possible to apply.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Endoscopes (AREA)

Abstract

複数の観察画像を自動的に切り替えて表示する場合において、観察画像の切替に伴う処理や動作をできる限り軽減することができる内視鏡システム及びその作動方法を提供する。 特殊光で照明された観察対象を撮像することによって特殊観察画像を得る。特殊観察画像のBs画像信号を輝度信号Yに割り当てて第1表示用観察画像を生成する。特殊観察画像のGs画像信号を輝度信号Yに割り当てて第2表示用観察画像を生成する。第1表示用観察画像と第2表示用観察画像をと自動的に切り替えてモニタ(18)に表示する。

Description

内視鏡システム及びその作動方法
 本発明は、複数の観察画像を自動的に切り替えて表示する内視鏡システム及びその作動方法に関する。
 近年の医療分野では、光源装置、内視鏡、プロセッサ装置を備える内視鏡システムが広く用いられている。内視鏡システムでは、内視鏡から観察対象に照明光を照射し、その照明光で照明中の観察対象を内視鏡の撮像素子で撮像して得られるRGB画像信号に基づいて、観察対象の画像をモニタ上に表示する。
 また、近年では、診断の目的に応じて、表示内容が異なる複数の観察画像を同時に又は切り替えてモニタに表示することが行われている。例えば、特許文献1では、血管の太さや深さが異なる複数の画像を切り替えて表示することが行われている。また、特許文献2では、紫色光Vと青色光Bを切り替えて照明することにより、紫色光Vの画像と青色光Bの画像とを取得し、極表層血管を強調する場合には、紫色光Vの画像を輝度信号に割り当て、表層血管を強調する場合には、青色光Bの画像を輝度信号に割り当てている。
特開2017-60682号公報 特開2016-67780号公報
 上記のように、複数の観察画像を切り替えてモニタに表示する場合には、観察画像に対する処理など画像の切替に伴う処理や動作をできる限り軽減することが好ましい。この点において、特許文献1では、太さや深さが異なる血管を強調する処理が必要となるため、画像の切替に伴う画像処理の負荷が大きくなる。また、特許文献2では、複数の照明光の切替を行っているため、照明光の切替に合わせてプロセッサ装置との同期が必要となり、プロセッサ装置での処理の負荷が大きくなる。
 本発明は、複数の観察画像を自動的に切り替えて表示する場合において、観察画像の切替に伴う処理や動作をできる限り軽減することができる内視鏡システム及びその作動方法を提供することを目的とする。
 本発明の内視鏡システムは、画像取得部と、表示用観察画像処理部と、表示制御部とを備える。画像取得部は、観察画像を取得する。表示用観察画像処理部は、観察画像に基づいて、輝度信号を含む表示用観察画像を生成する場合において、観察画像の第1色信号を輝度信号に割り当てて第1表示用観察画像を生成し、観察画像の第2色信号を輝度信号に割り当てて第2表示用観察画像を生成する。表示制御部は、第1表示用観察画像と第2表示用観察画像とを自動的に切り替えて表示部に表示する。
 表示用観察画像処理部は、観察画像の第1色信号と観察画像の第2色信号とに基づく第1演算処理によって、観察画像の第1色信号から観察画像の第2色信号の成分を除き、第1演算処理済みの観察画像の第1色信号を輝度信号に割り当てて第1表示用観察画像を生成することが好ましい。表示用観察画像処理部は、観察画像の第1色信号と観察画像の第2色信号とに基づく第2演算処理によって、観察画像の第2色信号から観察画像の第1色信号の成分を除き、第2演算処理済みの観察画像の第2色信号を輝度信号に割り当てて第2表示用観察画像を生成することが好ましい。
 観察画像は、狭帯域化した紫色光又は青色光、緑色光、及び赤色光を含む特殊光によって照明された観察対象を撮像することにより得られる特殊観察画像であることが好ましい。紫色光は中心波長405±10nmを有することが好ましい。第1色信号は青色信号であり、第2色信号は緑色信号であることが好ましい。
 第1表示用観察画像は第1層血管が強調されており、第2表示用観察画像は第1層血管よりも深い位置にある第2層血管が強調されていることが好ましい。第1層血管は表層血管であり、第2層血管は中深層血管であることが好ましい。表示制御部は、第1表示用観察画像と第2表示用観察画像とを2フレーム以上の間隔で切り替えて表示することが好ましい。
 本発明の内視鏡システムの作動方法は、画像取得ステップと、画像生成ステップと、表示ステップとを有する。画像取得ステップでは、画像取得部が、観察画像を取得する。画像生成ステップでは、表示用観察画像処理部が、観察画像に基づいて、輝度信号を含む表示用観察画像を生成する表示用観察画像処理部であって、観察画像の第1色信号を輝度信号に割り当てて第1表示用観察画像を生成し、観察画像の第2色信号を輝度信号に割り当てて第2表示用観察画像を生成する。表示ステップでは、表示制御部が、第1表示用観察画像と第2表示用観察画像とを自動的に切り替えて表示部に表示する。
 本発明によれば、複数の観察画像を自動的に切り替えて表示する場合において、観察画像の切替に伴う処理や動作をできる限り軽減することができる。
第1実施形態の内視鏡システムの外観図である。 第1実施形態の内視鏡システムの機能を示すブロック図である。 第1実施形態の通常光の発光スペクトルを示すグラフである。 第1実施形態の特殊光の発光スペクトルを示すグラフである。 撮像センサに設けられたBカラーフィルタ、Gカラーフィルタ、Rカラーフィルタの透過率を示すグラフである。 1フレームの特殊観察画像から第1表示用観察画像と第2表示用観察画像のいずれかを生成し、生成した表示用観察画像を表示することを示す説明図である。 1フレームの特殊観察画像から第1表示用観察画像と第2表示用観察画像の両方を生成し、生成したいずれかの表示用観察画像を表示することを示す説明図である。 第1表示用観察画像生成処理を示す説明図である。 第2表示用観察画像生成処理を示す説明図である。 特殊光のスペクトル、観察対象の反射率、及び撮像センサのカラーフィルタとBs画像信号、Gs画像信号、及びRs画像信号との関連性を示す説明図である。 特殊光の反射光の成分とBs画像信号及びGs画像信号との関連性を説明図である。 マルチ観察モードの一連の流れを示すフローチャートである。 第1演算処理を行う場合の第1表示用観察画像生成処理を示す説明図である。 第1演算処理を示す説明図である。 第2実施形態の内視鏡システムの機能を示すブロック図である。 第2実施形態の通常光の発光スペクトルを示すグラフである。 第2実施形態の特殊光の発光スペクトルを示すグラフである。
 [第1実施形態]
 図1に示すように、第1実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、コンソール19とを有する。内視鏡12は光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられる湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作に伴って、先端部12dが所望の方向に向けられる。なお、コンソール19は図示したキーボードの他、マウスなどが含まれる。
 また、操作部12bには、アングルノブ12eの他、モード切替SW13aが設けられている。モード切替SW13aは、通常光観察モードと、特殊光観察モード、マルチ観察モードとの切替操作に用いられる。通常光観察モードは、通常観察画像をモニタ18上に表示するモードである。特殊観察画像は、特定深さの血管を強調した特殊観察画像をモニタ18上に表示するモードである。マルチ観察モードは、特殊観察画像から、表層血管(第1層血管)を強調した第1表示用観察画像、及び、中深層血管(第2層血管)を強調した第2表示用観察画像を生成し、且つ、第1表示用観察画像と第2表示用観察画像とを自動的に切り替えてモニタ18に表示するモードである。なお、モードを切り替えるためのモード切替部としては、モード切替SW13aの他に、フットスイッチを用いてもよい。また、マルチ観察モードにおいては、特殊観察画像に代えて、通常観察画像から第1表示用観察画像又は第2表示用観察画像を生成するようにしてもよい。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続される。モニタ18は、画像情報等を出力表示する。コンソール19は、機能設定等の入力操作を受け付けるUI(User Interface:ユーザーインターフェース)として機能する。なお、プロセッサ装置16には、画像情報等を記録する外付けの記録部(図示省略)を接続してもよい。
 図2に示すように、光源装置14は、光源部20と、光源制御部21と、光路結合部23とを有している。光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、R-LED(Red Light Emitting Diode)20dを有している。光源制御部21は、LED20a~20dの駆動を制御する。光路結合部23は、4色のLED20a~20dから発せられる4色の光の光路を結合する。光路結合部23で結合された光は、挿入部12a内に挿通されたライトガイド41及び照明レンズ45を介して、被検体内に照射される。なお、LEDの代わりに、LD(Laser Diode)など他の半導体光源を用いてもよい。
 図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長460±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。なお、以上の4色の光のうち紫色光については、波長範囲380~420nmのように、狭帯域化することが好ましい。
 光源制御部21は、いずれの観察モードにおいても、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを点灯する制御を行う。また、光源制御部21は、通常光観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVc:Bc:Gc:Rcとなる通常光(図3参照)を発光するように、各LED20a~20dを制御する。なお、本明細書において、光強度比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光強度比を有するものとする。
 また、光源制御部21は、特殊光観察モード又はマルチ観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVs:Bs:Gs:Rsとなる特殊光を発光するように、各LED20a~20dを制御する。特殊光は、特定深さの血管を強調する照明光であることが好ましい。例えば、特定深さの血管として表層血管を強調する場合には、特殊光は、400nm以上440nm以下にピークを有することが好ましい。この場合、特殊光は、図4に示すように、紫色光Vの光強度が、その他の青色光B、緑色光G、及び赤色光Rの光強度よりも大きくなるように、光強度比Vs1:Bs1:Gs1:Rs1が設定されている(Vs1>Bs1、Gs1、Rs1)。また、特殊光は、赤色光Rのような第1の赤色帯域を有しているため、粘膜の色を正確に再現することができる。さらに、特殊光には、紫色光V、青色光B、緑色光Gのように青色帯域及び緑色帯域を有しているため、上記のような表層血管の他、腺管構造や凹凸など各種構造も強調することができる。
 図2に示すように、ライトガイド41は、内視鏡12及びユニバーサルコード(内視鏡12と光源装置14及びプロセッサ装置16とを接続するコード)内に内蔵されており、光路結合部23で結合された光を内視鏡12の先端部12dまで伝搬する。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有しており、この照明レンズ45を介して、ライトガイド41からの光が観察対象に照射される。撮像光学系30bは、対物レンズ46及び撮像センサ48を有している。観察対象からの反射光は、対物レンズ46を介して、撮像センサ48に入射する。これにより、撮像センサ48に観察対象の反射像が結像される。
 撮像センサ48はカラーの撮像センサであり、被検体の反射像を撮像して画像信号を出力する。この撮像センサ48は、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等であることが好ましい。本発明で用いられる撮像センサ48は、R(赤)、G(緑)及びB(青)の3色のRGB画像信号を得るためのカラーの撮像センサ、即ち、Rカラーフィルタが設けられたR画素、Gカラーフィルタが設けられたG画素、Bカラーフィルタが設けられたB画素を備えた、いわゆるRGB撮像センサである。
 図5に示すように、Rカラーフィルタは、600~700nmの赤色帯域において透過率を有し、且つ、緑色帯域及び青色帯域において赤色帯域よりも低い透過率を有している。即ち、R画素は、赤色帯域に感度を有し、且つ、緑色帯域及び青色帯域においても若干の感度を有している。Gカラーフィルタは、500~600nmの緑色帯域において透過率を有し、且つ、赤色帯域及び青色帯域にも若干の透過率を有している。即ち、G画素は、緑色帯域に感度を有し、且つ、赤色帯域及び青色帯域においても若干の感度を有している。Bカラーフィルタは、400~500nmの青色帯域において透過率を有し、且つ、緑色帯域及び赤色帯域にも若干の透過率を有している。B画素は、青色帯域に感度を有し、且つ、緑色帯域及び赤色帯域にも若干の感度を有している。
 なお、撮像センサ48としては、RGBのカラーの撮像センサの代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた、いわゆる補色撮像センサであっても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号が出力されるため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換する必要がある。また、撮像センサ48はカラーフィルタを設けていないモノクロ撮像センサであっても良い。この場合、光源制御部21は青色光B、緑色光G、及び赤色光Rを時分割で点灯させて、撮像信号の処理では同時化処理を加える必要がある。
 撮像センサ48から出力される画像信号は、CDS・AGC回路50に送信される。CDS・AGC回路50は、アナログ信号である画像信号に相関二重サンプリング(CDS(Correlated Double Sampling))や自動利得制御(AGC(Auto Gain Control))を行う。CDS・AGC回路50を経た画像信号は、A/D変換器(A/D(Analog /Digital)コンバータ)52により、デジタル画像信号に変換される。A/D変換されたデジタル画像信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、画像取得部53と、DSP(Digital Signal Processor)56と、ノイズ除去部58と、信号切替部60と、通常観察画像処理部61と、特殊観察画像処理部63と、マルチ観察画像処理部64(表示用観察画像処理部)と、表示制御部66とを備えている。画像取得部53は、内視鏡12からの観察画像を取得する。観察画像はRGBのカラー画像信号である。通常光観察モードの場合には、観察画像として、撮像センサ48のR画素から出力されるRc画像信号と、撮像センサ48のG画素から出力されるGc画像信号と、撮像センサ48のB画素から出力されるBc画像信号とからなる通常観察画像を取得する。特殊光観察モード又はマルチ観察モードの場合には、観察画像として、撮像センサ48のR画素から出力されるRs画像信号と、撮像センサ48のG画素から出力されるGs画像信号と、撮像センサ48のB画素から出力されるBs画像信号とからなる特殊観察画像を取得する。
 DSP56は、受信した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、又はデモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施されたRGB画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後のRGB画像信号に特定のゲインを乗じることにより信号レベルが整えられる。ゲイン補正処理後のRGB画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。リニアマトリクス処理後のRGB画像信号には、デモザイク処理(等方化処理、同時化処理とも言う)が施され、各画素で不足した色の信号が補間によって生成される。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。
 ノイズ除去部58は、DSP56でガンマ補正等が施されたRGB画像信号に対してノイズ除去処理(例えば移動平均法やメディアンフィルタ法等)を施すことによって、RGB画像信号からノイズを除去する。ノイズが除去されたRGB画像信号は、信号切替部60に送信される。
 信号切替部60は、モード切替SW13aにより、通常光観察モードにセットされている場合には、RGB画像信号を通常観察画像処理部61に送信する。また、特殊光観察モードにセットされている場合には、RGB画像信号を特殊観察画像処理部63に送信する。また、マルチ観察モードにセットされている場合には、RGB画像信号をマルチ観察画像処理部64に送信する。
 通常観察画像処理部61は、通常光観察モード時に得られたRc画像信号、Gc画像信号、Rc画像信号が入力される。この入力されたRc画像信号、Gc画像信号、Rc画像信号に対して、通常光観察モード用の画像処理を施す。通常光観察モード用の画像処理には、通常光観察モード用の構造強調処理などが含まれる。通常光観察モード用の画像処理が施されたRGB画像信号は、通常観察画像として、通常観察画像処理部61から表示制御部66に入力される。
 特殊観察画像処理部63は、特殊光観察モード時に得られたRs画像信号、Gs画像信号、Bs画像信号が入力される。この入力されたRs画像信号、Gs画像信号、Rs画像信号に対して、特殊光観察モード用の画像処理を施す。特殊光観察モード用の画像処理には、特殊光観察モード用の構造強調処理などが含まれる。特殊観察画像用の画像処理が施されたRGB画像信号は、特殊観察画像として、特殊観察画像処理部63から表示制御部66に入力される。
 マルチ観察画像処理部64は、マルチ観察モード時に得られたRs画像信号、Gs画像信号、Bs画像信号が入力される。この入力されたRs画像信号、Gs画像信号、Rs画像信号に対して、マルチ観察モード用の画像処理を施す。マルチ観察モード用の画像処理は、1フレームの特殊観察画像から、互いに異なる深さの血管を強調した複数の表示用観察画像を生成する。本実施形態では、複数の表示用観察画像として、表層血管を強調した第1表示用観察画像と中深層血管を強調した第2表示用観察画像とを生成する。マルチ観察モード用の画像処理の詳細については後述する。第1表示用観察画像と第2表示用観察画像とは、マルチ観察画像処理部64から表示制御部66に入力される。
 表示制御部66は、通常観察画像処理部61、特殊観察画像処理部63、マルチ観察画像処理部64から入力された通常観察画像、特殊観察画像、又は、第1表示用観察画像又は第2表示用観察画像を、モニタ18上に表示させる制御を行う。モニタ18には、表示制御部66の制御に従って、各観察モードに対応する画像が表示される。通常光観察モード時には、モニタ18は通常観察画像を表示する。特殊光観察モード時には、モニタ18は特殊観察画像を表示する。マルチ観察モード時には、モニタ18は、特定の表示パターンに従って、第1表示用観察画像又は第2表示用観察画像を自動的に切り替えて表示する。
 例えば、特定の表示パターンを、1表示サイクルにおいて、第1表示用観察画像を2フレーム分表示、第2表示用観察画像を3フレーム分表示するパターンとする場合には、以下のようなパターンが考えられる。図6Aに示すように、2フレームの特殊観察画像を入力画像としてマルチ観察画像処理部64に入力した場合には、マルチ観察画像処理部64において、2フレーム分の第1表示用観察画像を生成画像として生成する。この生成した2フレーム分の第1表示用観察画像を順に表示画像としてモニタ18に表示する。次に、3フレームの特殊観察画像を入力画像としてマルチ観察画像処理部64に入力した場合には、マルチ観察画像処理部64において、3フレーム分の第2表示用観察画像を生成画像として生成する。この生成した3フレーム分の第2表示用観察画像を順に表示画像としてモニタ18に表示する。
 他のパターンとしては、図6Bに示すように、2フレームの特殊観察画像を入力画像としてマルチ観察画像処理部64に入力した場合には、マルチ観察画像処理部64において、2フレーム分の第1表示用観察画像及び第2表示用観察画像を生成画像として生成する。この生成した2フレーム分の第1表示用観察画像及び第2表示用観察画像のうち2フレーム分の第1表示用観察画像を順に表示画像としてモニタ18に表示する。次に、3フレームの特殊観察画像を入力画像としてマルチ観察画像処理部64に入力した場合には、マルチ観察画像処理部64において、3フレーム分の第1表示用観察画像及び第2表示用観察画像を生成画像として生成する。この生成した3フレーム分の第1表示用観察画像及び第2表示用観察画像のうち3フレーム分の第2表示用観察画像を順に表示画像としてモニタ18に表示する。上記の場合、ユーザーによって、表示用観察画像の静止画像の保存が指示された場合には、単一のフレームから第1表示用観察画像と第2表示用観察画像を生成し、保存することで、第1表示用観察画像と第2表示用観察画像に位置ズレのない画像が一度の動作により保存することができる。
 なお、第1表示用観察画像と第2表示用観察画像とは、2フレーム以上の間隔で切り替えて表示することが好ましい。1フレームの場合には、画像の切り替わりが早いために、第1表示用観察画像と第2表示用観察画像の差を認識できないおそれがある。
 次に、マルチ観察モード用の画像処理について説明する。マルチ観察モードの画像処理は、第1表示用観察画像を生成する第1表示用観察画像生成処理と、第2表示用観察画像を生成する第2表示用観察画像生成処理とを有する。第1表示用観察画像生成処理は、図7に示すように、マルチ観察モード時に得られるBs画像信号、Gs画像信号、Rs画像信号に対して、輝度色差信号変換処理を行って、輝度信号Y、色差信号Cr、Cbに変換する。次に、輝度信号YをBs画像信号(観察画像の第1色信号(青色信号))に割り当てる輝度信号割り当て処理を行うことによって、輝度信号Yを輝度信号Ymに変換する。Bs画像信号は、後述するように、表層血管の情報を含んでいることから、第1表示用観察画像を、表層血管を強調した画像にすることができる。
 次に、輝度信号Yを輝度信号Ymに変換することに伴う色差信号Cr、Cbのずれを補正する色差信号補正処理を行う。具体的には、色差信号Crに対して、変換後の色差信号Ym/変換後の色差信号Yを掛け合わせる。同様にして、色差信号Cbに対して、変換後の色差信号Ym/変換後の色差信号Yを掛け合わせる。これにより、色差信号Cr、Cbのずれを補正することにより、色相を維持したまま、輝度の変換に応じて彩度のずれを補正することができる(輝度が小さくなる場合には彩度を小さくすることができ、輝度が大きくなる場合には彩度を大きくすることができる)。そして、輝度信号Ym、色差信号Cr×Ym/Y、色差信号Cb×Ym/Yに対して、RGB変換処理を行うことによって、B1画像信号、G1画像信号、R1画像信号に変換する。これらB1画像信号、G1画像信号、R1画像信号が、第1表示用観察画像となる。
 第2表示用観察画像生成処理は、図8に示すように、第1表示用観察画像生成処理と同様、マルチ観察モード時に得られるBs画像信号、Gs画像信号、Rs画像信号に対して、輝度色差信号変換処理を行って、輝度信号Y、色差信号Cr、Cbに変換する。次に、輝度信号YをGs画像信号(観察画像の第2色信号(緑色信号))に割り当てる輝度信号割り当て処理を行うことによって、輝度信号Yを輝度信号Ynに変換する。Gs画像信号は、後述するように、中深層血管の情報を含んでいることから、第2表示用観察画像を、中深層血管を強調した画像にすることができる。なお、観察画像の第2色信号は観察画像の第1色信号よりも長波の成分を持つ色信号である。本実施形態では、第1色信号を青色信号、第2色信号を緑色信号としているが、これに限られない。例えば、第1色信号を緑色信号とし、第2色信号をRs画像信号のような赤色信号としてもよい。
 次に、輝度信号Yを輝度信号Ynに変換することに伴う色差信号Cr、Cbのずれを補正する色差信号補正処理を行う。具体的には、色差信号Crに対して、変換後の色差信号Yn/変換後の色差信号Yを掛け合わせる。同様にして、色差信号Cbに対して、変換後の色差信号Yn/変換後の色差信号Yを掛け合わせる。これにより、色差信号Cr、Cbのずれを補正することができる。そして、輝度信号Yn、色差信号Cr×Yn/Y、色差信号Cb×Yn/Yに対して、RGB変換処理を行うことによって、B2画像信号、G2画像信号、R2画像信号に変換する。これらB2画像信号、G2画像信号、R2画像信号が、第2表示用観察画像となる。
 以上のように、Bs画像信号が表層血管の情報を含み、Gs画像信号が中深層血管の情報を含んでいるのは以下の理由からである。図9に示すように、Bs画像信号は、特殊光の光強度と観察対象の反射率とB画素の光透過率とを掛け合わせて得られる光強度に対応する信号値を有している。Bs画像信号には、特殊光の短波成分を多く含んでいる。Gs画像信号は、特殊光の光強度と観察対象の反射率とG画素の光透過率とを掛け合わせて得られる光強度に対応する信号値を有している。Gs画像信号には、特殊光の中波成分を多く含んでいる。なお、Rs画像信号は、特殊光の光強度と観察対象の反射率とR画素の光透過率とを掛け合わせて得られる光強度に対応する信号値を有している。このRs画像信号には、特殊光の長波成分を多く含んでいる。
 図10に示すように、Bs画像信号に多く含まれる特殊光の短波成分は、粘膜の表層まで深達した光の反射光の成分に相当する。したがって、Bs画像信号には、粘膜の表層に含まれる表層血管の情報が含まれている。一方、Gs画像信号に多く含まれる特殊光の中波成分は、粘膜の中層付近にまで深達した光の反射光の成分に相当する。したがって、Gs画像信号には、粘膜の表層又は中層に含まれる表層血管又は中深層血管の情報が含まれている。なお、Rs画像信号に含まれる特殊光の長波成分は、血管など構造物以外の粘膜の情報を含まれている。したがって、Rs画像信号によって、粘膜の情報を表示することが可能となる。
 次に、マルチ観察モードについて、図11のフローチャートに沿って説明を行う。モード切替SW13aを操作して、マルチ観察モードに切り替える。これにより、特殊光が観察対象に照明される。特殊光で照明中の観察対象を撮像センサ48で撮像することにより、Bs画像信号、Gs画像信号、Rs画像信号からなる特殊観察画像が得られる。次に、1フレームの特殊観察画像から、第1の規定フレーム数分の第1表示用観察画像と第2の規定フレーム数分の第2表示用観察画像とを生成する。ここで、第1の規定フレーム数と第2の規定フレーム数とは、それぞれ1表示サイクルで表示するフレーム数に対応させることが好ましい。なお、第1の規定フレーム数と第2の規定フレーム数とは、固定でもよく、特定の条件に従って、変化するようにしてもよい。
 第1表示用観察画像の生成は、第1表示用観察画像生成処理によって行われる。第1表示用観察画像生成処理では、輝度信号Yに対してBs画像信号を割り当てる輝度信号割り当て処理を行う。これにより、表層血管が強調された第1表示用観察画像が得られる。また、第2表示用観察画像の生成は、第2表示用観察画像生成処理によって行われる。第2表示用観察画像生成処理では、輝度信号Yに対してGs画像信号を割り当てる輝度信号割り当て処理を行う。これにより、中深層血管が強調された第2表示用観察画像が得られる。そして、特定の表示パターンに従って、第1表示用観察画像と第2表示用観察画像とを自動的に切り替えてモニタ18に表示する。以上の処理は、マルチ観察モードが継続する限り、繰り返し行われる。なお、表層血管の情報を含むBs画像信号を輝度信号Yに割り当て、また、中深層血管の情報を含むGs画像信号を輝度信号に割り当てる輝度信号割り当て処理は、パターンマッチングなどによって表層血管を強調する処理よりも、画像処理としては負荷が小さい。したがって、画像処理などに負荷を掛けることなく、表層血管の画像(第1表示用観察画像)と中深層血管の画像(第2表示用観察画像)の切替を行うことができる。
 なお、上記実施形態で示したように、撮像センサ48のB画素の感度特性とG画素の感度特性はそれぞれ一部重なり合っていることから、Bs画像信号とGs画像信号の違いが小さい場合がある。この場合には、第1表示用観察画像と第2表示用観察画像との差が小さくなる場合がある。この第1表示用観察画像と第2表示用観察画像との差を小さくする方法の一つとして、図12に示すように、Bs画像信号から、係数αを掛け合わせたGs画像信号を差し引く第1演算処理(Bs-α×Gs)を行う。これにより、図13に示すように、Bs画像信号から、Gs画像信号が持つ中波成分(観察画像の第2色信号(緑色信号)の成分)を除くことができる。これにより、(Bs-α×Gs)画像信号においては、中深層血管の情報を少なくなることから、この(Bs-α×Gs)画像信号を輝度信号Yに割り当てた第1表示用観察画像は、第2表示用観察画像との差を大きくすることができる。
 また、Gs画像信号から、係数βを掛け合わせたBs画像信号を差し引く第2演算処理(Gs-β×Bs)を行ってもよい。これにより、Gs画像信号から、Bs画像信号が持つ短波成分(観察画像の第1色信号(青色信号)の成分)を除くことができる。これにより、(Gs-β×Bs)画像信号を輝度信号Yに割り当てた第2表示用観察画像は、第1表示用観察画像との差を大きくすることができる。
 [第2実施形態]
 第2実施形態では、第1実施形態で示した4色のLED20a~20dの代わりに、レーザ光源と蛍光体を用いて観察対象の照明を行う。それ以外については、第1実施形態と同様である。
 図14に示すように、第2実施形態の内視鏡システム200では、光源装置14において、4色のLED20a~20dの代わりに、中心波長445±10nmの青色レーザ光を発する青色レーザ光源(図14では「445LD」と表記)204と、中心波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(図14では「405LD」と表記)206とが設けられている。これら各光源204及び206の半導体発光素子からの発光は、光源制御部208により個別に制御されており、青色レーザ光源204の出射光と、青紫色レーザ光源206の出射光の光量比は変更自在になっている。
 光源制御部208は、通常光観察モードの場合には、青色レーザ光源204を駆動させる。特殊光観察モード又はマルチ観察モードの場合には、青色レーザ光源204と青紫色レーザ光源206の両方を駆動させ、且つ、青紫色レーザ光の発光比率を青色レーザ光の光強度比よりも大きくなるように制御する。以上の各光源204及び206から出射されるレーザ光は、集光レンズ、光ファイバ、又は合波器などの光学部材(いずれも図示せず)を介して、ライトガイド41に入射する。
 なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源104及び青紫色レーザ光源106は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオード等の発光体を用いた構成としてもよい。
 照明光学系30aには、照明レンズ45の他に、ライトガイド41からの青色レーザ光又は青紫色レーザ光が入射する蛍光体210が設けられている。蛍光体210に、青色レーザ光が照射されることで、蛍光体210から蛍光が発せられる。また、一部の青色レーザ光は、そのまま蛍光体210を透過する。青紫色レーザ光は、蛍光体210を励起させることなく透過する。蛍光体210を出射した光は、照明レンズ45を介して、検体内に照射される。
 ここで、通常光観察モードにおいては、主として青色レーザ光が蛍光体210に入射するため、図15に示すような、青色レーザ光、及び青色レーザ光により蛍光体210から励起発光する蛍光を合波した通常光が、観察対象に照射される。特殊光観察モード又はマルチ観察モードにおいては、青紫色レーザ光と青色レーザ光の両方が蛍光体210に入射するため、図16に示すような、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体210から励起発光する蛍光を合波した特殊光が、検体内に照射される。この特殊光においては、青紫色レーザ光の光強度は青色レーザ光の光強度よりも大きくなっている。
 なお、蛍光体210は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl1017)等の蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体210の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度及び色度の変化を小さく抑えることができる。
 上記実施形態において、画像取得部53、DSP56、ノイズ除去部58、通常観察画像処理部61、特殊観察画像処理部63、マルチ観察画像処理部64など、プロセッサ装置16に含まれる処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 なお、本発明は、第1~第3実施形態のような内視鏡システムや第4実施形態のようなカプセル内視鏡システムに組み込まれるプロセッサ装置の他、各種の医用画像処理装置に対して適用することが可能である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20 光源部
20a V-LED(Violet Light Emitting Diode)
20b B-LED(Blue Light Emitting Diode)
20c G-LED(Green Light Emitting Diode)
20d R-LED(Red Light Emitting Diode)
21 光源制御部
23 光路結合部
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
48 撮像センサ
50 CDS/AGC回路
53 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ除去部
60 信号切替部
61 通常観察画像処理部
63 特殊観察画像処理部
64 マルチ観察画像処理部
66 表示制御部
104 青色レーザ光源
106 青紫色レーザ光源
200 内視鏡システム
204 光源
204 青色レーザ光源
206 青紫色レーザ光源
208 光源制御部
210 蛍光体

Claims (10)

  1.  観察画像を取得する画像取得部と、
     前記観察画像に基づいて、輝度信号を含む表示用観察画像を生成する表示用観察画像処理部であって、前記観察画像の第1色信号を前記輝度信号に割り当てて第1表示用観察画像を生成し、前記観察画像の第2色信号を前記輝度信号に割り当てて第2表示用観察画像を生成する表示用観察画像処理部と、
     前記第1表示用観察画像と前記第2表示用観察画像とを自動的に切り替えて表示部に表示する表示制御部とを備える内視鏡システム。
  2.  前記表示用観察画像処理部は、
     前記観察画像の第1色信号と前記観察画像の第2色信号とに基づく第1演算処理によって、前記観察画像の第1色信号から前記観察画像の第2色信号の成分を除き、
     前記第1演算処理済みの前記観察画像の第1色信号を前記輝度信号に割り当てて第1表示用観察画像を生成する請求項1記載の内視鏡システム。
  3.  前記表示用観察画像処理部は、
     前記観察画像の第1色信号と前記観察画像の第2色信号とに基づく第2演算処理によって、前記観察画像の第2色信号から前記観察画像の第1色信号の成分を除き、
     前記表示用観察画像処理部は、前記第2演算処理済みの前記観察画像の第2色信号を前記輝度信号に割り当てて第2表示用観察画像を生成する請求項1または2記載の内視鏡システム。
  4.  前記観察画像は、狭帯域化した紫色光又は青色光、緑色光、及び赤色光を含む特殊光によって照明された観察対象を撮像することにより得られる特殊観察画像である請求項1ないし3いずれか1項記載の内視鏡システム。
  5.  前記紫色光は中心波長405±10nmを有する請求項4記載の内視鏡システム。
  6.  前記第1色信号は青色信号であり、前記第2色信号は緑色信号である請求項1ないし5いずれか1項記載の内視鏡システム。
  7.  前記第1表示用観察画像は第1層血管が強調されており、前記第2表示用観察画像は前記第1層血管よりも深い位置にある第2層血管が強調されている請求項1ないし6いずれか1項記載の内視鏡システム。
  8.  前記第1層血管は表層血管であり、前記第2層血管は中深層血管である請求項7記載の内視鏡システム。
  9.  前記表示制御部は、前記第1表示用観察画像と前記第2表示用観察画像とを2フレーム以上の間隔で切り替えて表示する請求項1ないし8いずれか1項記載の内視鏡システム。
  10.  画像取得部が、観察画像を取得する画像取得ステップと、
     表示用観察画像処理部が、前記観察画像に基づいて、輝度信号を含む表示用観察画像を生成する表示用観察画像処理部であって、前記観察画像の第1色信号を前記輝度信号に割り当てて第1表示用観察画像を生成し、前記観察画像の第2色信号を前記輝度信号に割り当てて第2表示用観察画像を生成する画像生成ステップと、
     表示制御部が、前記第1表示用観察画像と前記第2表示用観察画像とを自動的に切り替えて表示部に表示する表示ステップとを備える内視鏡システムの作動方法。
PCT/JP2019/002775 2018-01-30 2019-01-28 内視鏡システム及びその作動方法 WO2019151190A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980010783.2A CN111683583B (zh) 2018-01-30 2019-01-28 内窥镜系统及其工作方法
JP2019569098A JP6995889B2 (ja) 2018-01-30 2019-01-28 内視鏡システム及びその作動方法
US16/936,529 US11547272B2 (en) 2018-01-30 2020-07-23 Endoscope system and method of operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-013266 2018-01-30
JP2018013266 2018-01-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/936,529 Continuation US11547272B2 (en) 2018-01-30 2020-07-23 Endoscope system and method of operating the same

Publications (1)

Publication Number Publication Date
WO2019151190A1 true WO2019151190A1 (ja) 2019-08-08

Family

ID=67480003

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002775 WO2019151190A1 (ja) 2018-01-30 2019-01-28 内視鏡システム及びその作動方法

Country Status (4)

Country Link
US (1) US11547272B2 (ja)
JP (2) JP6995889B2 (ja)
CN (1) CN111683583B (ja)
WO (1) WO2019151190A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022125852A1 (de) * 2022-10-06 2024-04-11 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung und Verfahren zur medizinischen Bildgebung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152414A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 電子内視鏡システム
JP2017060682A (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4491865A (en) * 1982-09-29 1985-01-01 Welch Allyn, Inc. Image sensor assembly
JPH0695995B2 (ja) 1989-06-30 1994-11-30 株式会社東芝 電子内視鏡装置
US20050059894A1 (en) * 2003-09-16 2005-03-17 Haishan Zeng Automated endoscopy device, diagnostic method, and uses
JP5081720B2 (ja) * 2008-05-22 2012-11-28 富士フイルム株式会社 蛍光内視鏡装置および励起光ユニット
JP5203861B2 (ja) * 2008-09-10 2013-06-05 富士フイルム株式会社 内視鏡システム、およびその作動方法
JP2011019829A (ja) 2009-07-17 2011-02-03 Fujifilm Corp 蛍光撮影方法及び装置
JP5485215B2 (ja) * 2011-04-01 2014-05-07 富士フイルム株式会社 内視鏡装置
WO2012140970A1 (ja) * 2011-04-11 2012-10-18 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5948203B2 (ja) * 2011-10-12 2016-07-06 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5815426B2 (ja) * 2012-01-25 2015-11-17 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP5789280B2 (ja) * 2013-05-14 2015-10-07 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP5654167B1 (ja) * 2013-07-03 2015-01-14 富士フイルム株式会社 内視鏡システム及びその作動方法
EP3127469B1 (en) * 2014-03-31 2019-09-04 Fujifilm Corporation Endoscope system
JP6153912B2 (ja) * 2014-09-30 2017-06-28 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6196598B2 (ja) * 2014-09-30 2017-09-13 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6234350B2 (ja) * 2014-09-30 2017-11-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6367683B2 (ja) * 2014-10-21 2018-08-01 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JP6420230B2 (ja) 2015-12-22 2018-11-07 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP6577887B2 (ja) 2016-03-14 2019-09-18 富士フイルム株式会社 画像処理装置、内視鏡システム、画像処理方法、画像処理プログラム、及び記録媒体
JPWO2019093355A1 (ja) * 2017-11-13 2020-11-19 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2019093356A1 (ja) * 2017-11-13 2019-05-16 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2020183528A1 (ja) * 2019-03-08 2020-09-17 オリンパス株式会社 内視鏡装置、内視鏡画像処理装置、内視鏡装置の作動方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152414A (ja) * 2011-01-27 2012-08-16 Fujifilm Corp 電子内視鏡システム
JP2017060682A (ja) * 2015-09-25 2017-03-30 富士フイルム株式会社 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム

Also Published As

Publication number Publication date
US20200345225A1 (en) 2020-11-05
CN111683583B (zh) 2023-09-05
JP2021178188A (ja) 2021-11-18
US11547272B2 (en) 2023-01-10
JP7116223B2 (ja) 2022-08-09
CN111683583A (zh) 2020-09-18
JP6995889B2 (ja) 2022-01-17
JPWO2019151190A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
JP7203477B2 (ja) 内視鏡システム及びその作動方法
WO2019093355A1 (ja) 内視鏡システム及びその作動方法
WO2019163540A1 (ja) 内視鏡システム
JP7080195B2 (ja) 内視鏡システム
WO2020039932A1 (ja) 内視鏡システム
US11744437B2 (en) Medical image processing system
WO2019039354A1 (ja) 光源装置及び内視鏡システム
JP7069290B2 (ja) 内視鏡システム及びその作動方法
JP7116223B2 (ja) 内視鏡システム及びその作動方法
JP7196016B2 (ja) 情報処理装置及びその作動方法並びに内視鏡システム及びその作動方法
US11969152B2 (en) Medical image processing system
JP7052003B2 (ja) 内視鏡システム
JP6740481B2 (ja) 光源装置、内視鏡システム、及び光源装置の作動方法
JP7171885B2 (ja) 内視鏡システム
JP7273988B2 (ja) 内視鏡システム
JP7163243B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP2022160298A (ja) 医用画像処理装置及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19748239

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019569098

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19748239

Country of ref document: EP

Kind code of ref document: A1