WO2021106452A1 - 内視鏡システム及びその作動方法 - Google Patents

内視鏡システム及びその作動方法 Download PDF

Info

Publication number
WO2021106452A1
WO2021106452A1 PCT/JP2020/039790 JP2020039790W WO2021106452A1 WO 2021106452 A1 WO2021106452 A1 WO 2021106452A1 JP 2020039790 W JP2020039790 W JP 2020039790W WO 2021106452 A1 WO2021106452 A1 WO 2021106452A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
illumination
period
image
illumination light
Prior art date
Application number
PCT/JP2020/039790
Other languages
English (en)
French (fr)
Inventor
渡邉 幹緒
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN202080074004.8A priority Critical patent/CN114585292A/zh
Priority to JP2021561227A priority patent/JP7337190B2/ja
Publication of WO2021106452A1 publication Critical patent/WO2021106452A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources

Definitions

  • the present invention relates to an endoscope system that switches and emits a plurality of illumination lights having different emission spectra and a method of operating the same.
  • an endoscope system including a light source device, an endoscope, and a processor device.
  • an observation object is irradiated with illumination light, and the observation object illuminated by the illumination light is imaged to acquire an endoscopic image as a medical image.
  • the endoscopic image is displayed on the monitor and used for diagnosis.
  • CMOS Complementary Metal Oxide Semiconductor
  • the CMOS type imaging sensor employs a rolling shutter method in which when a plurality of pixels arranged in the row direction and the column direction are provided, signals are sequentially read out in the order of the column direction for each line in the row direction.
  • the exposure time may differ between different lines, and in this case, the image to be observed may be distorted. Therefore, when detecting a lesion region as in Patent Document 1, the lesion region may not be accurately detected due to image distortion or the like in the image obtained by imaging by the rolling shutter method. Therefore, even when a rolling shutter type image sensor is used, it is required that analysis processing such as lesion detection can be reliably executed and that the analysis results can be displayed on a bright image with high visibility. ..
  • the present invention is an endoscope system capable of reliably executing analysis processing and displaying the analysis results in a bright image with high visibility even when a rolling shutter type image sensor is used, and its operation.
  • the purpose is to provide a method.
  • the first illumination light is emitted when the light source unit that emits the first illumination light and the second illumination light having different emission spectra and the first illumination light and the second illumination light are automatically switched to emit light.
  • a light source processor that emits light in the first emission pattern and emits second illumination light in the second emission pattern, an imaging sensor in which a plurality of pixels are arranged in the row direction and the column direction, and a line unit in the row direction. It includes an imaging processor that reads signals in the order from the pixels in the column direction, and the imaging processor exposes the imaging sensor to the first illumination light within the first illumination period during which the first illumination light is emitted.
  • the second image signal is output by reading out the signal in a state where the image sensor is unexposed during the extinguishing period.
  • the light source processor is switched to the second illumination period after the first illumination period and after the global reset is activated by the imaging processor.
  • the imaging sensor does not have a global reset
  • the light source processor switches to the extinguishing period after the first illumination period, and after reading out the signal by the imaging processor in the extinguishing period after the first illumination period, It is preferable to switch to the second lighting period.
  • the image pickup sensor does not have a global reset
  • the light source processor reads out the signal related to the second illumination light during the extinguishing period, and then the signal by the image pickup processor in the extinguished state of the first illumination light and the second illumination light. In order to perform the reading, it is preferable to switch to the first lighting period after continuing the extinguishing period and reading the signal in the extinguished state.
  • white light is used as the first illumination light and purple light, blue light, green light, or red light is used as the second illumination light.
  • the second illumination period it emits either purple light, blue light, green light, or red light, or during the second illumination period, at least two of purple light, blue light, green light, or red light. It is preferable to switch the light in a specific order to emit light.
  • the second illumination light is either the first special light in which the amount of purple light is larger than the amount of light of other colors, or the second special light in which the amount of green light is larger than the amount of light of other colors. Is preferable.
  • the number of frames in the first lighting period is the same in each first lighting period, and the number of frames in the first lighting period is different in each first lighting period. It is preferably one of the first B emission patterns.
  • the second emission pattern is a second A pattern in which the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period.
  • the number of frames in the second illumination period is the same in each of the second illumination periods, and the emission spectrum of the second illumination light is different in each of the second illumination periods.
  • the number of frames in the second illumination period is different in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period.
  • the number of frames in the second C pattern and the second illumination period is the same. It is preferable that the emission spectrum of the second illumination light is one of the second D patterns that are different in each second illumination period and are different in each second illumination period.
  • the light source processor preferably has a first illumination period of two frames or more. It is preferable to provide a display control unit that displays a display image with an analysis result that displays the analysis result obtained by the analysis process based on the second image signal on the display image based on the first image signal. ..
  • the first illumination light is emitted as the first emission pattern.
  • a processor for a light source that emits light with a second emission pattern and emits a second illumination light in a second emission pattern, an imaging sensor in which a plurality of pixels are arranged in a row direction and a column direction, and a line unit in the row direction in the order of pixels to columns.
  • the imaging processor exposes the imaging sensor to the first illumination light within the first illumination period in which the first illumination light is emitted.
  • the first illumination light and the second illumination light are emitted. It has a step of reading out a signal and outputting a second image signal in a state where the image sensor is unexposed during the extinguishing period.
  • the endoscope system 10 has an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into the body to be observed, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a curved portion 12c and a tip provided on the tip end side of the insertion portion 12a. It has a part 12d.
  • the curved portion 12c bends by operating the angle knob 12e of the operating portion 12b.
  • the tip portion 12d is directed in a desired direction by the bending motion of the bending portion 12c.
  • the operation unit 12b includes a mode switching SW (mode switching switch) 12f used for mode switching operation, and a still image acquisition instruction unit 12g used for instructing acquisition of a still image to be observed.
  • a zoom operation unit 12h used for operating the zoom lens 43 (see FIG. 2) is provided.
  • the endoscope system 10 has three modes: a normal observation mode, a special observation mode, and an analysis processing mode.
  • a normal observation mode a normal observation image having a natural color is displayed on the monitor 18 by illuminating the observation target with white light and taking an image.
  • a special observation mode a special observation image emphasizing a specific structure is displayed on the monitor 18 by illuminating the observation target with special light having a wavelength band different from that of normal light and taking an image.
  • processing is performed in which the first illumination light and the second illumination light having different emission spectra are switched to emit light, and the image based on the first illumination light is used as a display image for display on the monitor 18.
  • an analysis process for obtaining an index value or the like related to the observation target is performed on the image based on the second illumination light. The result of the analysis process is superimposed and displayed on the display image.
  • the processor device 16 is electrically connected to the monitor 18 and the user interface 19.
  • the monitor 18 outputs and displays an image to be observed, information incidental to the image to be observed, and the like.
  • the user interface 19 has a keyboard, a mouse, a touch pad, and the like, and has a function of accepting input operations such as function settings.
  • An external recording unit (not shown) for recording an image, image information, or the like may be connected to the processor device 16.
  • the light source device 14 includes a light source unit 20 and a light source processor 21 that controls the light source unit 20.
  • the light source unit 20 has, for example, a plurality of semiconductor light sources, each of which is turned on or off, and when the light source unit 20 is turned on, the amount of light emitted from each semiconductor light source is controlled to emit illumination light that illuminates the observation target.
  • the light source unit 20 includes a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light).
  • EmittingDiode It has a 20d 4-color LED.
  • the V-LED 20a generates purple light V having a center wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 20b generates blue light B having a center wavelength of 450 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 20c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED20d generates red light R having a center wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm.
  • the light source processor 21 controls the V-LED20a, B-LED20b, G-LED20c, and R-LED20d. By controlling each of the LEDs 20a to 20d independently, the light source processor 21 can emit violet light V, blue light B, green light G, or red light R by independently changing the amount of light. Further, the light source processor 21 emits white light having a light amount ratio of Vc: Bc: Gc: Rc among purple light V, blue light B, green light G, and red light R in the normal observation mode. , Each LED 20a to 20d is controlled. In addition, Vc, Bc, Gc, Rc> 0.
  • the light source processor 21 has a light amount ratio of Vs: Bs: Gs: Rs with purple light V, blue light B, green light G, and red light R as short-wavelength narrow-band light.
  • Each LED 20a to 20d is controlled so as to emit a special light.
  • the light amount ratio Vs: Bs: Gs: Rs is different from the light amount ratio Vc: Bc: Gc: Rc used in the normal observation mode, and is appropriately determined according to the observation purpose. For example, when emphasizing superficial blood vessels, it is preferable to make Vs larger than other Bs, Gs, Rs, and when emphasizing mesopelagic blood vessels, Gs is made larger than other Vs, Gs, Rs. It is also preferable to increase the size.
  • the light source processor 21 uses the first illumination light as the first emission pattern when the first illumination light and the second illumination light are automatically switched and emitted in the analysis processing mode.
  • the second illumination light is emitted in the second emission pattern.
  • the first light emitting pattern the first A light emitting pattern in which the number of frames in the first lighting period is the same in each first lighting period and the number of frames in the first lighting period are the first lighting respectively. It is preferably one of the first B emission patterns that differ in the period.
  • the second emission pattern is a second A pattern in which the number of frames in the second illumination period is the same in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period.
  • the number of frames in the second illumination period is the same in each of the second illumination periods, and the emission spectrum of the second illumination light is different in each of the second illumination periods.
  • the number of frames in the second illumination period is different in each second illumination period, and the emission spectrum of the second illumination light is the same in each second illumination period.
  • the number of frames in the second C pattern and the second illumination period is the same. It is preferable that the emission spectrum of the second illumination light is one of the second D patterns that are different in each second illumination period and are different in each second illumination period.
  • the emission spectrum of the first illumination light may be the same or different in each first illumination period.
  • the first lighting period is preferably longer than the second lighting period, and the first lighting period is preferably 2 frames or more.
  • the first light emission pattern is the first A pattern and the second light emission pattern is the second A pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: the same)
  • the first The lighting period is set to 2 frames
  • the second lighting period is set to 1 frame. Since the first illumination light is used to generate a display image to be displayed on the monitor 18, it is preferable to obtain a bright image by illuminating the observation target with the first illumination light.
  • the first illumination light is preferably white light.
  • the second illumination light is used for the analysis process, it is preferable to obtain an image suitable for the analysis process by illuminating the observation target with the second illumination light.
  • purple light V, blue light B, green light G, and red light R may be used as the second illumination light.
  • the second emission pattern is the second A pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: the same) or the second C pattern (the number of frames in the second illumination period: different, the second illumination).
  • the second emission pattern is the second B pattern (five numbers in the second illumination period: the same, the emission spectrum of the second illumination light: different) or the second D pattern (the number of frames in the second illumination period: different, the second illumination light).
  • emission spectrum different
  • at least two of purple light V, blue light B, green light G, and red light R can be switched in a specific order to emit light in the second illumination period.
  • FIG. 8 which will be described later, three lights, purple light V, green light G, and red light R, are emitted in that order.
  • the frame refers to a unit of a period including at least a period from a specific timing to the completion of signal reading in the image pickup sensor 44.
  • the signal reading is performed. The period from the start to the completion of signal reading.
  • surface blood vessels having a depth of 50 ⁇ m from the mucosal surface For example, surface blood vessels having a depth of 50 ⁇ m from the mucosal surface, middle blood vessels having a depth of 200 ⁇ m from the mucosal surface, and deep blood vessels having a depth of 600 ⁇ m from the mucosal surface.
  • shape information of blood vessels related to blood vessels is acquired and analysis processing is performed based on the shape information of blood vessels in the surface layer, middle layer, and deep layer, purple light V that emphasizes surface blood vessels, green light G that emphasizes middle layer blood vessels, It is preferable to use red light R that emphasizes deep blood vessels.
  • the light intensity ratio includes the case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, this includes the case where any one or more of the semiconductor light sources are not lit. For example, as in the case where the light intensity ratio between the purple light V, the blue light B, the green light G, and the red light R is 1: 0: 0: 0, only one of the semiconductor light sources is turned on, and the other three are turned on. Even if it does not light up, it shall have a light intensity ratio.
  • the light emitted by each of the LEDs 20a to 20d is incident on the light guide 25 via the optical path coupling portion 23 composed of a mirror, a lens, or the like.
  • the light guide 25 is built in the endoscope 12 and the universal cord (the cord connecting the endoscope 12, the light source device 14, and the processor device 16).
  • the light guide 25 propagates the light from the optical path coupling portion 23 to the tip portion 12d of the endoscope 12.
  • the tip portion 12d of the endoscope 12 is provided with an illumination optical system 30a and an imaging optical system 30b.
  • the illumination optical system 30a has an illumination lens 32, and the illumination light propagated by the light guide 25 is applied to the observation target through the illumination lens 32.
  • the image pickup optical system 30b has an objective lens 42 and an image pickup sensor 44. The light from the observation target due to the irradiation of the illumination light is incident on the image pickup sensor 44 via the objective lens 42 and the zoom lens 43. As a result, an image to be observed is formed on the image sensor 44.
  • the zoom lens 43 is a lens for enlarging the observation target, and moves between the telephoto end and the wide end by operating the zoom operation unit 12h.
  • the image pickup sensor 44 is a primary color sensor, and is a B pixel (blue pixel) having a blue color filter, a G pixel (green pixel) having a green color filter, and an R pixel (red pixel) having a red color filter. It has three types of pixels.
  • the blue color filter BF mainly transmits light in the blue band, specifically, light in the wavelength band of 380 to 560 nm.
  • the transmittance of the blue color filter BF peaks at a wavelength of around 460 to 470 nm.
  • the green color filter transmits GF, mainly light in the green band, specifically, light in the wavelength band of 460 to 620 nm.
  • the red color filter RF mainly transmits light in the red band, specifically, light in the wavelength band of 580 to 760 nm.
  • the image sensor 44 is a CMOS (Complementary Metal Oxide Semiconductor) type, and has a plurality of pixels Px arranged in the row direction and the column direction as shown in FIG.
  • the plurality of pixels Px include B pixels, G pixels, and R pixels.
  • the image pickup processor 45 controls the image pickup of the CMOS type image pickup sensor 44.
  • the imaging processor 45 reads signals from the pixels Px in the column direction in the line unit LU in the row direction. This signal reading method is called a rolling shutter.
  • the image sensor 44 has the pixels Px of the first to Nth lines in the column direction, as shown in FIG. 7, the pixel group of the first line, the pixel group of the second line, ...
  • the read completion line FL in FIG. 7 represents the timing at which the read of the pixel group of each line is completed.
  • the T1, T2, and TN on the read-out completion line FL represent the timing at which the read-out of the pixel groups of the first, second, and N lines is completed, and T1 ⁇ T2 ⁇ TN.
  • the image signal is output from the image sensor 44 by reading the signal of the image sensor 44 by the image processor 45.
  • the Bc image signal is output from the B pixel of the image sensor 44 and the Gc image signal is output from the G pixel when the image pickup processor 45 reads out the signal while the white light is exposed to the image sensor 44.
  • Is output, and an Rc image signal is output from the R pixel.
  • the Bs image signal is output from the B pixel of the image sensor 44 and the Gs image signal is output from the G pixel when the imaging processor 45 reads out the signal while the special light is exposed to the image sensor 44.
  • Is output, and the Rs image signal is output from the R pixel.
  • the image pickup processor 45 outputs the first image signal from the image pickup sensor 44 by performing signal readout in a state where the first illumination light is exposed to the image pickup sensor 44 during the first illumination period (the first image signal is output from the image pickup sensor 44). 9 to 11).
  • the first image signal includes a B1 image signal output from the B pixel, a G1 image signal output from the G pixel, and an R1 image signal output from the R pixel.
  • the image pickup processor 45 is in a state where the image sensor 44 is unexposed during the extinguishing period in which the first and second illumination lights are turned off after the second illumination light is exposed to the image sensor 44 in the second illumination period.
  • the second image signal is output from the image sensor 44 by reading out the signal (see FIGS. 9 to 11).
  • the second image signal includes a B2 image signal output from the B pixel, a G2 image signal output from the G pixel, and an R2 image signal output from the R pixel.
  • the first image signal obtained by performing signal reading (rolling shutter) during exposure of illumination light sufficient exposure time can be obtained (exposure time of up to 1/60 for 60 frames). Therefore, it is preferable to use it as a display image to be displayed on the monitor 18. As long as such a display image is visually viewed as a moving image, the visibility does not deteriorate due to the rolling effect (image distortion) due to the use of the rolling shutter.
  • the exposure time can be the same in the first to Nth lines, so that the rolling effect (image distortion) due to the use of the rolling shutter is obtained. ) Is not affected. Therefore, since the second image signal can accurately output the shape of the observation target, it is an image signal suitable for analysis processing such as shape analysis. The details of the imaging control in the analysis processing mode will be described later.
  • the CDS / AGC (Correlated Double Sampling / Automatic Gain Control) circuit 46 performs correlated double sampling (CDS) and automatic gain control (AGC) on the analog image signal obtained from the image sensor 44. ..
  • CDS correlated double sampling
  • AGC automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 46 is converted into a digital image signal by the A / D (Analog / Digital) converter 48.
  • the digital image signal after A / D conversion is input to the processor device 16.
  • the processor device 16 includes an image acquisition unit 50, a DSP (Digital Signal Processor) 52, a noise reduction unit 54, an image processing switching unit 56, an image processing unit 58, and a display control unit 60.
  • the image processing unit 58 includes a normal observation image generation unit 62, a special observation image generation unit 64, and an analysis processing unit 66.
  • the image acquisition unit 50 acquires a color image input from the endoscope 12.
  • the color image includes a blue image, a green image, and a red image output from the B pixel, the G pixel, and the R pixel of the image sensor 44.
  • the acquired color image is transmitted to the DSP 52.
  • the DSP 52 performs various signal processing such as defect correction processing, offset processing, gain correction processing, matrix processing, gamma conversion processing, demosaic processing, and YC conversion processing on the received color image.
  • defect correction process the signal of the defective pixel of the image sensor 44 is corrected.
  • the offset processing the dark current component is removed from the image signal subjected to the defect correction processing, and an accurate zero level is set.
  • the gain correction process adjusts the signal level of a color image by multiplying the image signal of each color after the offset process by a specific gain.
  • the image signal of each color after the gain correction processing is subjected to matrix processing for enhancing color reproducibility.
  • the color image after the matrix processing is subjected to demosaic processing (also referred to as isotropic processing or simultaneous processing), and a signal of the missing color of each pixel is generated by interpolation.
  • demosaic processing also referred to as isotropic processing or simultaneous processing
  • all the pixels have signals of each color of RGB.
  • the DSP 52 performs YC conversion processing on the color image after the demosaic processing, and outputs the luminance signal Y, the color difference signal Cb, and the color difference signal Cr to the noise reduction unit 54.
  • the noise reduction unit 54 performs noise reduction processing by, for example, a moving average method or a median filter method on a color image that has undergone demosaic processing or the like by DSP 56.
  • the color image with reduced noise is input to the image processing switching unit 56.
  • the image processing switching unit 56 sets the transmission destination of the image signal from the noise reduction unit 54 to any one of the normal observation image generation unit 62, the special observation image generation unit 64, and the analysis processing unit 66. Switch to. Specifically, when the normal observation mode is set, the image signal from the noise reduction unit 54 is input to the normal observation image generation unit 62. When the special observation mode is set, the image signal from the noise reduction unit 54 is input to the special observation image generation unit 64. When the analysis processing mode is set, the image signal from the noise reduction unit 54 is input to the analysis processing unit 66.
  • the normal observation image generation unit 62 performs image processing for a normal observation image on the input Rc image signal, Gc image signal, and Bc image signal for one frame.
  • Image processing for normal observation images includes 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as 3D LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. Is done.
  • the Rc image signal, the Gc image signal, and the Bc image signal that have undergone image processing for a normal observation image are input to the display control unit 60 as normal observation images.
  • the special observation image generation unit 64 performs image processing for a special observation image on the input Rs image signal, Gs image signal, and Bs image signal for one frame.
  • Image processing for special observation images includes 3 ⁇ 3 matrix processing, gradation conversion processing, color conversion processing such as 3D LUT (Look Up Table) processing, color enhancement processing, and structure enhancement processing such as spatial frequency enhancement. Is done.
  • the Rs image signal, the Gs image signal, and the Bs image signal that have undergone image processing for the special observation image are input to the display control unit 60 as special observation images.
  • the analysis processing unit 66 performs the same image processing for normal observation images as described above on the input R1 image signal, G1 image signal, and B1 image signal for one frame.
  • the R1 image signal, the G1 image signal, and the B1 image signal that have been subjected to image processing for the normal observation image signal are used as the display image.
  • the analysis processing unit 66 performs analysis processing on the input R2 image signal, G2 image signal, and B2 image signal for a specific frame.
  • the analysis processing unit 66 performs display control processing for displaying the analysis result, which is the result of the analysis processing, on the display image.
  • the first light emission pattern is the first A light emission pattern and the second light emission pattern is the second B pattern (the number of frames in the second illumination period: the same, the emission spectrum of the second illumination light: different)
  • the first illumination When the white light W is illuminated for two frames as the light, and the purple light V, the green light G, and the red light R as the second illumination light are illuminated for one frame each during the emission of the white light W. 8 performs analysis processing on the R2 image signal, the G2 image signal, and the B2 image signal obtained by illuminating the purple light V to obtain the analysis result V.
  • the R2 image signal, the G2 image signal, and the B2 image signal obtained by the illumination of the green light G are subjected to analysis processing to obtain the analysis result G.
  • the R2 image signal, the G2 image signal, and the B2 image signal obtained by the illumination of the red light R are subjected to analysis processing to obtain the analysis result R.
  • These analysis results V, G, and R are displayed on the display image as a group of analysis results T after the analysis process for the red light R is completed.
  • the analysis results V, G, and R may be displayed independently on the display image, and the analysis result obtained by combining at least two of the analysis results V, G, and R may be displayed on the display image. It may be displayed.
  • a blood vessel extraction process for extracting blood vessel shape information for extracting blood vessel shape information
  • an index value calculation process for calculating an index value related to a blood vessel based on the extracted blood vessel shape information for calculating an index value related to a blood vessel based on the extracted blood vessel shape information
  • a calculated index value are displayed.
  • a superimposition display control process for superimposing and displaying on the image is included.
  • the display image with the analysis result on which the result of the analysis process is displayed is input to the display control unit 60.
  • the display control unit 60 controls to display the image output from the image processing unit 58 on the monitor 18. Specifically, the display control unit 60 converts a normal observation image, a special observation image, or a display image with an analysis result into a video signal that can be displayed in full color on the monitor 18. The converted video signal is input to the monitor 18. As a result, the monitor 18 displays a normal observation image, a special observation image, or a display image with an analysis result.
  • the image pickup processor 45 is the first. After the signal reading is completed in one lighting period, the global reset GR is activated. The light source processor 21 switches to the second illumination period after the operation of the global reset GR. Then, the light source processor 21 switches to the extinguishing period after the signal reading is completed in the second illumination period. Further, the imaging processor 45 activates the global reset after the signal reading during the extinguishing period is completed. Then, the light source processor 21 switches to the first lighting period after the operation of the global reset GR.
  • the light source processor 21 switches to the extinguishing period after the signal reading is completed in the first illumination period, as shown in FIG.
  • the imaging processor 45 reads out the signal during the extinguishing period. Since the image signal (blank reading signal) obtained for reading the signal during the extinguishing period contains the charge obtained by exposing the first illumination light to the image sensor 44 during the first illumination period, it is subsequently emitted. It is discarded so that the component of the first illumination light is not mixed with the component of the second illumination light.
  • the light source processor 21 reads out the signal in the extinguishing period after the first illumination light, and then switches to the second illumination period. Further, the light source processor 21 switches to the first illumination period after the signal reading is completed in the second illumination period.
  • the first illumination period is switched to, but even in the extinguishing period, the charge accumulation due to a slight exposure is accumulated. It can occur. Therefore, as shown in FIG. 11, the light source processor 21 reads out the signal by the imaging processor 45 in the state where the first illumination light and the second illumination light are turned off after the signal reading regarding the second illumination light is completed. Therefore, the extinguishing period may be continued. Then, the light source processor 21 switches to the first illumination period after the signal reading in the extinguished state is completed. The image signal obtained by reading the signal in the off state is discarded as a blank reading signal.
  • the mode switching SW12f Operate the mode switching SW12f to switch to the analysis processing mode.
  • the first illumination period in which the first illumination light is emitted and the second illumination period in which the second illumination light is emitted are automatically switched in a specific emission pattern.
  • the first illumination light and the second illumination light, which are automatically switched by the specific emission pattern in this way, are illuminated with respect to the observation target.
  • the image pickup processor 45 reads out signals from pixels in the column direction in line units in the row direction of the image pickup sensor 44 in a state where the first illumination light is exposed to the image pickup sensor 44 in the first illumination period. As a result, the first image signal is output from the image sensor 44. Further, the image pickup processor 45 is not exposed to the image pickup sensor 44 during the extinguishing period in which the first illumination light and the second illumination light are turned off after the second illumination light is exposed to the image pickup sensor 44 in the second illumination period. In this state, the signal is read out. As a result, the second image signal is output from the image sensor 44.
  • the display control unit 60 displays on the monitor 18 a display image with an analysis result that displays the analysis result obtained by the analysis process based on the second image signal with respect to the display image based on the first image signal.
  • purple light V, blue light B, green light G, and red light R are used as the second illumination light, but light having another emission spectrum may be used.
  • first special light in which the amount of purple light V is larger than the amount of light of other blue light B, green light G, and red light R may be used.
  • second illumination light a second special light in which the amount of green light G is larger than the amount of light of other purple light V, blue light B, and red light R may be used. Good.
  • both the first special light and the second special light are used as the second illumination light, and the first special light and the second special light are alternately emitted as the second emission pattern as the second B pattern or the second D pattern. You may do so.
  • the first special light is used, the second image signal is subjected to a color difference expansion process for expanding the color difference between the normal part and the abnormal part (lesion part, etc.) included in the observation target. May be good.
  • An analysis process may be performed on the second image signal that has undergone the color difference expansion process.
  • the first image signal based on the first illumination light is used for the display image
  • the second image signal based on the second illumination light is used only for the analysis process on the monitor 18.
  • the second image signal may also be used for display on the monitor 18.
  • the display image based on the first image signal and the display image based on the second image signal are switched and displayed on the monitor 18. It is preferable that the display or non-display of the image based on the second image signal on the monitor 18 can be appropriately set by the user interface 19.
  • a processing unit that executes various processes such as a light source processor 21, an imaging processor 45, a normal observation image generation unit 62 included in the image processing unit 58, a special observation image generation unit 64, and an analysis processing unit 66
  • the hardware structure of the processing unit is various processors as shown below.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.
  • the hardware structure of the storage unit is a storage device such as an HDD (hard disk drive) or SSD (solid state drive).

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

ローリングシャッタ方式の撮像センサを使用する場合においても、解析処理を確実に実行することができ、且つ、それら解析結果を視認性の高い明るい画像で表示できる内視鏡システム及びその作動方法を提供する。撮像用プロセッサ45は、第1照明期間内において第1照明光を撮像センサ44に露光させた状態で、信号読み出しを行って、第1画像信号を出力させる。撮像用プロセッサ45は、第2照明期間において第2照明光を撮像センサに露光させた後に、第1照明光及び第2照明光を消灯する消灯期間で撮像センサに対して未露光にした状態で、信号読み出しを行って、第2画像信号を出力させる。

Description

内視鏡システム及びその作動方法
 本発明は、発光スペクトルが異なる複数の照明光を切り替えて発光する内視鏡システム及びその作動方法に関する。
 医療分野においては、医療画像を用いて診断することが広く行われている。例えば、医療画像を用いる装置として、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムがある。内視鏡システムでは、観察対象に対して照明光を照射し、照明光で照明された観察対象を撮像することにより、医療画像としての内視鏡画像を取得する。内視鏡画像は、モニタに表示され、診断に使用される。
 また、近年の内視鏡システムにおいては、特定の波長帯域を有する光を観察対象に照明して、観察対象上の病変部の視認性を向上することによって、病変部の検出をし易くすることも行われている。ただし、特定の波長帯域を有する光により得られる特殊観察画像は、疑似カラーなど観察対象の色と異なる色で表示されるため、ユーザーにとっては、通常観察に用いられる通常観察画像と比較して、見慣れていない場合も多い。そこで、特許文献1では、特殊観察画像から病変領域を検出し、検出した病変領域を通常観察画像で強調表示することで、見慣れた通常観察画像上で病変領域を観察できるようにしている。
特開2011-135983号公報
 近年では、観察対象の撮像に、CMOS(Complementary Metal Oxide Semiconductor)型の撮像センサが用いられている。CMOS型の撮像センサでは、行方向と列方向に配列された複数の画素を有する場合において、行方向のライン単位で、列方向の順で順次信号読み出しを行うローリングシャッタ方式を採用している。ただし、ローリングシャッタ方式は、異なるライン間で露光時間に違いが生ずることが有り、この場合には、観察対象の画像の歪みが生じることがある。そのため、上記特許文献1のように、病変領域を検出する場合には、ローリングシャッタ方式による撮像で得られた画像については、画像の歪み等により、病変領域を正確に検出できない場合がある。そこで、ローリングシャッタ方式の撮像センサを使用する場合においても、病変検出などの解析処理を確実に実行することができ、且つ、それら解析結果を視認性の高い明るい画像上で表示できることが求められた。
 本発明は、ローリングシャッタ方式の撮像センサを使用する場合においても、解析処理を確実に実行することができ、且つ、それら解析結果を視認性の高い明るい画像で表示できる内視鏡システム及びその作動方法を提供することを目的とする。
 本発明は、互いに発光スペクトルが異なる第1照明光と第2照明光とを発する光源部と、第1照明光と第2照明光とを自動的に切り替えて発光する場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する光源用プロセッサと、複数の画素が行方向と列方向に配列された撮像センサと、行方向のライン単位で前画素から列方向の順で信号読み出しを行う撮像用プロセッサとを備え、撮像用プロセッサは、第1照明光を発光する第1照明期間内において第1照明光を撮像センサに露光させた状態で、信号読み出しを行って、第1画像信号を出力させ、第2照明光を発光する第2照明期間において第2照明光を撮像センサに露光させた後に、第1照明光及び第2照明光を消灯する消灯期間で撮像センサに対して未露光にした状態で、信号読み出しを行って、第2画像信号を出力させる。
 撮像センサがグローバルリセットを有する場合において、光源用プロセッサは、第1照明期間後、且つ、撮像用プロセッサによるグローバルリセットの作動後に、第2照明期間に切り替えることが好ましい。撮像センサがグローバルリセットを有しない場合において、光源用プロセッサは、第1照明期間後、消灯期間に切り替え、且つ、第1照明期間後の消灯期間において、撮像用プロセッサによる信号読み出しを行った後に、第2照明期間に切り替えることが好ましい。撮像センサがグローバルリセットを有しない場合において、光源用プロセッサは、消灯期間における第2照明光に関する信号読み出しを行った後、第1照明光及び第2照明光の消灯状態での撮像用プロセッサによる信号読み出しを行うために、消灯期間を継続し、且つ、消灯状態での信号読み出しを行った後に、第1照明期間に切り替えることが好ましい。
 第1照明光は白色光が用いられ、第2照明光は、紫色光、青色光、緑色光、又は赤色光が用いられることが好ましい。第2照明期間では、紫色光、青色光、緑色光、又は赤色光のいずれかを発光し、又は、第2照明期間では、紫色光、青色光、緑色光、又は赤色光のうち少なくとも2つの光を特定の順番で切り替えて発光することが好ましい。第2照明光は、紫色光の光量が他の色の光の光量よりも大きい第1特殊光、又は、緑色光の光量が他の色の光の光量よりも大きい第2特殊光のいずれかであることが好ましい。
 第1発光パターンは、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1A発光パターンと、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1B発光パターンとのうちのいずれかであることが好ましい。第2発光パターンは、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Aパターン、第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Bパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Cパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Dパターンのうちのいずれかであることが好ましい。
 特定発光パターンでは、第1照明期間は第2照明期間よりも長いことが好ましい。光源用プロセッサは、第1照明期間は2フレーム以上であることが好ましい。第1画像信号に基づく表示用画像に対して、第2画像信号に基づく解析処理により得られた解析結果を表示する解析結果付き表示用画像を表示部に表示する表示制御部を備えることが好ましい。
 本発明は、第1照明光と第2照明光とを発する光源部と、第1照明光と第2照明光とを自動的に切り替えて発光する場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する光源用プロセッサと、複数の画素が行方向と列方向に配列された撮像センサと、行方向のライン単位で画素から列方向の順で信号読み出しを行う撮像用プロセッサとを備える内視鏡システムの作動方法において、撮像用プロセッサは、第1照明光を発光する第1照明期間内において第1照明光を撮像センサに露光させた状態で、信号読み出しを行って、第1画像信号を出力させ、第2照明光を発光する第2照明期間において第2照明光を撮像センサに露光させた後に、第1照明光及び第2照明光を消灯する消灯期間で撮像センサに対して未露光にした状態で、信号読み出しを行って、第2画像信号を出力させるステップを有する。
 本発明によれば、ローリングシャッタ方式の撮像センサを使用する場合においても、解析処理を確実に検出することができ、且つ、それら解析結果を視認性の高い明るい画像で表示できる。
内視鏡システムの外観図である。 第1実施形態の内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、緑色光G、及び赤色光Rのスペクトルを示すグラフである。 解析処理モード時の発光パターンである特定発光パターンを示す説明図である。 撮像センサの各カラーフィルタの分光透過率を示すグラフである。 撮像センサにおける画素の配列を示す説明図である。 ローリングシャッタを示す説明図である。 解析処理モードにおける照明制御、解析処理、及び画像表示を時系列順で示す説明図である。 撮像センサがグローバルリセットを有する場合における解析処理モード時の撮像制御を示す説明図である。 撮像センサがグローバルリセットを有しない場合における解析処理モード時の撮像制御を示す説明図である。 撮像センサがグローバルリセットを有しない場合であって図10と異なる場合における解析処理モード時の撮像制御を示す説明図である。 解析処理モードの一連の流れを示すフローチャートである。 第1特殊光の発光スペクトルを示すグラフである。 第2特殊光の発光スペクトルを示すグラフである。
 図1において、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19とを有する。内視鏡12は、光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、観察対象の体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dとを有している。湾曲部12cは、操作部12bのアングルノブ12eを操作することにより湾曲動作する。先端部12dは、湾曲部12cの湾曲動作によって所望の方向に向けられる。
 また、操作部12bには、アングルノブ12eの他、モードの切り替え操作に用いるモード切替SW(モード切替スイッチ)12fと、観察対象の静止画の取得指示に用いられる静止画取得指示部12gと、ズームレンズ43(図2参照)の操作に用いられるズーム操作部12hとが設けられている。
 なお、内視鏡システム10は、通常観察モード、特殊観察モード、解析処理モードの3つのモードを有している。通常観察モードでは、白色光を観察対象に照明して撮像することによって、自然な色合いの通常観察画像をモニタ18に表示する。特殊観察モードでは、通常光と波長帯域が異なる特殊光を観察対象に照明して撮像することによって、特定の構造を強調した特殊観察画像をモニタ18に表示する。解析処理モードでは、発光スペクトルが異なる第1照明光と第2照明光とを切り替えて発光し、且つ、第1照明光に基づく画像はモニタ18に表示するための表示用画像とする処理を行う一方、第2照明光に基づく画像に対して、観察対象に関する指標値等を得る解析処理を行う。解析処理の結果は、表示用画像に重畳表示される。
 プロセッサ装置16は、モニタ18及びユーザーインターフェース19と電気的に接続される。モニタ18は、観察対象の画像や、観察対象の画像に付帯する情報などを出力表示する。ユーザーインターフェース19は、キーボード、マウス、タッチパッドなどを有し、機能設定などの入力操作を受け付ける機能を有する。なお、プロセッサ装置16には、画像や画像情報などを記録する外付けの記録部(図示省略)を接続してもよい。
 図2において、光源装置14は、光源部20と、光源部20を制御する光源用プロセッサ21とを備えている。光源部20は、例えば、複数の半導体光源を有し、これらをそれぞれ点灯または消灯し、点灯する場合には各半導体光源の発光量を制御することにより、観察対象を照明する照明光を発する。本実施形態では、光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDを有する。
 図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長450±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。
 光源用プロセッサ21は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを制御する。光源用プロセッサ21は、各LED20a~20dをそれぞれ独立に制御することで、紫色光V、青色光B、緑色光G、又は赤色光Rをそれぞれ独立に光量を変えて発光可能である。また、光源用プロセッサ21は、通常観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比がVc:Bc:Gc:Rcとなる白色光を発光するように、各LED20a~20dを制御する。なお、Vc、Bc、Gc、Rc>0である。
 また、光源用プロセッサ21は、特殊観察モード時には、短波長の狭帯域光としての紫色光V、青色光B、緑色光G、及び赤色光Rとの光量比がVs:Bs:Gs:Rsとなる特殊光を発光するように、各LED20a~20dを制御する。光量比Vs:Bs:Gs:Rsは、通常観察モード時に使用する光量比Vc:Bc:Gc:Rcと異なっており、観察目的に応じて適宜定められる。例えば、表層血管を強調する場合には、Vsを、他のBs、Gs、Rsよりも大きくすることが好ましく、中深層血管を強調する場合には、Gsを、他のVs、Gs、Rsよりも大きくすることが好ましい。
 また、光源用プロセッサ21は、図4に示すように、解析処理モード時には、第1照明光と第2照明光とを自動的に切り替えて発光する場合において、第1照明光を第1発光パターンで発光し、第2照明光を第2発光パターンで発光する。具体的には、第1発光パターンは、第1照明期間のフレーム数が、それぞれの第1照明期間において同じである第1A発光パターンと、第1照明期間のフレーム数が、それぞれの第1照明期間において異なっている第1B発光パターンとのうちのいずれかであることが好ましい。第2発光パターンは、第2照明期間のフレーム数が、それぞれの第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Aパターン、第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Bパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において同じである第2Cパターン、第2照明期間のフレーム数が、それぞれの第2照明期間において異なっており、且つ、第2照明光の発光スペクトルが、それぞれの第2照明期間において異なっている第2Dパターンのうちのいずれかであることが好ましい。なお、第1照明光の発光スペクトルは、それぞれの第1照明期間において同じであってもよく、異なってもよい。
 また、特定発光パターンは、第1照明期間は第2照明期間よりも長くすることが好ましく、第1照明期間は2フレーム以上とすることが好ましい。図4では、第1発光パターンを第1Aパターンとし、第2発光パターンを第2Aパターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:同じ)とする場合において、第1照明期間を2フレームとし、第2照明期間を1フレームとしている。第1照明光は、モニタ18に表示する表示用画像の生成に用いられることから、第1照明光を観察対象に照明することによって、明るい画像が得られることが好ましい。
 例えば、第1照明光は、白色光であることが好ましい。一方、第2照明光は、解析処理に用いることから、第2照明光を観察対象に照明することによって、解析処理に適した画像が得られることが好ましい。例えば、血管深さが異なる複数の血管の形状情報に基づいて、解析処理を行う場合には、第2照明光として、紫色光V、青色光B、緑色光G、赤色光Rを用いることが好ましい。この場合、第2発光パターンを第2Aパターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:同じ)又は第2Cパターン(第2照明期間のフレーム数:異なる、第2照明光の発光スペクトル:同じ)とする場合には、紫色光V、青色光B、緑色光G、赤色光Rのうちのいずれか1つの光を用いることが好ましい。一方、第2発光パターンを第2Bパターン(第2照明期間の5数:同じ、第2照明光の発光スペクトル:異なる)又は第2Dパターン(第2照明期間のフレーム数:異なる、第2照明光の発光スペクトル:異なる)とする場合には、第2照明期間において、紫色光V、青色光B、緑色光G、赤色光Rのうち少なくとも2つの光を特定の順番で切り替えて発光することが好ましい。後述の図8では、紫色光V、緑色光G、及び赤色光Rの3つの光を、その順番で順次発光している。
 なお、第1照明期間と第2照明期間の切替パターンである第1、2発光パターンの詳細については、撮像用プロセッサ45による撮像センサ44の撮像制御に基づいて定められることから、後述する。また、フレームとは、撮像センサ44において特定タイミングから信号読み出し完了までの間の期間を少なくとも含む期間の単位のことをいい、本実施形態では、CMOS型の撮像センサ44を用いることから、信号読み出し開始から信号読み出し完了までの期間をいう。
 例えば、粘膜表面からの深さが50μmの範囲内にある表層血管、粘膜表面からの深さが200μmの範囲内にある中層血管、及び、粘膜表面からの深さが600μmの範囲内にある深層血管に関する血管の形状情報を取得し、これら表層、中層、深層の血管の形状情報に基づいて解析処理を行う場合には、表層血管を強調する紫色光V、中層血管を強調する緑色光G、深層血管を強調する赤色光Rを用いることが好ましい。
 なお、本明細書において、光量比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光量比を有するものとする。
 図2に示すように、各LED20a~20dが発する光は、ミラーやレンズなどで構成される光路結合部23を介して、ライトガイド25に入射される。ライトガイド25は、内視鏡12及びユニバーサルコード(内視鏡12と、光源装置14及びプロセッサ装置16を接続するコード)に内蔵されている。ライトガイド25は、光路結合部23からの光を、内視鏡12の先端部12dまで伝搬する。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ32を有しており、ライトガイド25によって伝搬した照明光は照明レンズ32を介して観察対象に照射される。撮像光学系30bは、対物レンズ42、撮像センサ44を有している。照明光を照射したことによる観察対象からの光は、対物レンズ42及びズームレンズ43を介して撮像センサ44に入射する。これにより、撮像センサ44に観察対象の像が結像される。ズームレンズ43は観察対象を拡大するためのレンズであり、ズーム操作部12hを操作することによって、テレ端とワイド端と間を移動する。
 撮像センサ44は、原色系のカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。図5に示すように、青色カラーフィルタBFは、主として青色帯域の光、具体的には波長帯域が380~560nmの波長帯域の光を透過する。青色カラーフィルタBFの透過率は、波長460~470nm付近においてピークになる。緑色カラーフィルタはGF、主として緑色帯域の光、具体的には、460~620nmの波長帯域の光を透過する。赤色カラーフィルタRFは、主として赤色帯域の光、具体的には、580~760nmの波長帯域の光を透過する。
 また、撮像センサ44は、CMOS(Complementary Metal Oxide Semiconductor)型であり、図6に示すように、行方向と列方向に配列された複数の画素Pxを有している。複数の画素Pxには、B画素、G画素、及びR画素が含まれる。撮像用プロセッサ45は、CMOS型の撮像センサ44を撮像制御する。具体的には、撮像用プロセッサ45は、行方向のライン単位LUで、画素Pxから列方向の順で信号読み出しを行う。この信号読み出し方式は、ローリングシャッタと呼ばれている。撮像センサ44が、列方向に対して、第1~第Nラインの画素Pxを有する場合には、図7に示すように、第1ラインの画素群、第2ラインの画素群、・・・、第Nラインの画素群の時間順で、信号読み出しが行われる(Nは2以上の自然数)。図7の読み出し完了線FLは、各ラインの画素群の読み出しが完了したタイミングを表している。読み出し完了線FL上のT1、T2、TNは、第1、2、Nラインの画素群の読み出しが完了したタイミングを表しており、T1<T2<TNとなっている。なお、解析処理モードにおける撮像制御の詳細については、後述する。
 上記のように、撮像用プロセッサ45により撮像センサ44の信号読み出しを行うことによって、撮像センサ44から画像信号が出力される。通常観察モードでは、白色光が撮像センサ44に露光された状態で、撮像用プロセッサ45が信号読み出しを行うことにより、撮像センサ44のB画素からBc画像信号が出力され、G画素からGc画像信号が出力され、R画素からRc画像信号が出力される。特殊観察モードでは、特殊光が撮像センサ44に露光された状態で、撮像用プロセッサ45が信号読み出しを行うことによって、撮像センサ44のB画素からBs画像信号が出力され、G画素からGs画像信号が出力され、R画素からRs画像信号が出力される。
 解析処理モードでは、撮像用プロセッサ45は、第1照明期間において第1照明光を撮像センサ44に露光させた状態で、信号読み出しを行うことにより、撮像センサ44から第1画像信号を出力させる(図9~図11参照)。第1画像信号には、B画素から出力されるB1画像信号、G画素から出力されるG1画像信号、及び、R画素から出力されるR1画像信号が含まれる。また、撮像用プロセッサ45は、第2照明期間において第2照明光を撮像センサ44に露光させた後に、第1及び第2照明光を消灯する消灯期間で撮像センサ44を未露光にした状態で、信号読み出しを行うことにより、撮像センサ44から第2画像信号を出力させる(図9~図11参照)。第2画像信号には、B画素から出力されるB2画像信号、G画素から出力されるG2画像信号、及び、R画素から出力されるR2画像信号が含まれる。
 以上のように、照明光の露光中に信号読み出し(ローリングシャッタ)を行って得られる第1画像信号については、露光時間が十分に得られること(60フレームであれば最長1/60の露光時間がとれる)から、モニタ18に表示する表示用画像として用いることが好ましい。このような表示用画像を動画で目視で見る限りでは、ローリングシャッタの使用によるローリング効果(画像歪み)により視認性が落ちることは無い。一方、照明光の露光後に未露光にして信号読み出しを行って得られる第2画像信号については、第1~第Nラインにおいて露光時間を同じにできることから、ローリングシャッタの使用によるローリング効果(画像歪み)の影響を受けない。そのため、第2画像信号は、観察対象の形状を正確に出力できるため、形状解析などの解析処理に適した画像信号となっている。解析処理モードにおける撮像制御の詳細については後述する。
 図2に示すように、CDS/AGC(Correlated Double Sampling/Automatic Gain Control)回路46は、撮像センサ44から得られるアナログの画像信号に相関二重サンプリング(CDS)や自動利得制御(AGC)を行う。CDS/AGC回路46を経た画像信号は、A/D(Analog/Digital)コンバータ48により、デジタルの画像信号に変換される。A/D変換後のデジタル画像信号がプロセッサ装置16に入力される。
 プロセッサ装置16は、画像取得部50と、DSP(Digital Signal Processor)52と、ノイズ低減部54と、画像処理切替部56と、画像処理部58と、表示制御部60とを備えている。画像処理部58は、通常観察画像生成部62と、特殊観察画像生成部64と、解析処理部66とを備えている。
 画像取得部50は、内視鏡12から入力されるカラー画像を取得する。カラー画像には、撮像センサ44のB画素、G画素、R画素から出力される青色画像、緑色画像、赤色画像が含まれている。取得したカラー画像はDSP52に送信される。DSP52は、受信したカラー画像に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、マトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種信号処理を行う。欠陥補正処理では、撮像センサ44の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理を施した画像信号から暗電流成分を除かれ、正確な零レベルを設定される。ゲイン補正処理は、オフセット処理後の各色の画像信号に特定のゲインを乗じることによりカラー画像の信号レベルを整える。ゲイン補正処理後の各色の画像信号には、色再現性を高めるマトリクス処理が施される。
 その後、ガンマ変換処理によって、カラー画像の明るさや彩度が整えられる。マトリクス処理後のカラー画像には、デモザイク処理(等方化処理,同時化処理とも言う)が施され、補間により各画素の欠落した色の信号を生成される。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。DSP52は、デモザイク処理後のカラー画像にYC変換処理を施し、輝度信号Yと色差信号Cb及び色差信号Crをノイズ低減部54に出力する。
 ノイズ低減部54は、DSP56でデモザイク処理等を施したカラー画像に対して、例えば移動平均法やメディアンフィルタ法等によるノイズ低減処理を施す。ノイズを低減したカラー画像は、画像処理切替部56に入力される。
 画像処理切替部56は、設定されているモードによって、ノイズ低減部54からの画像信号の送信先を、通常観察画像生成部62と、特殊観察画像生成部64と、解析処理部66のいずれかに切り替える。具体的には、通常観察モードにセットされている場合には、ノイズ低減部54からの画像信号を通常観察画像生成部62に入力する。特殊観察モードにセットされている場合には、ノイズ低減部54からの画像信号を特殊観察画像生成部64に入力する。解析処理モードにセットされている場合には、ノイズ低減部54からの画像信号を解析処理部66に入力する。
 通常観察画像生成部62は、入力した1フレーム分のRc画像信号、Gc画像信号、Bc画像信号に対して、通常観察画像用画像処理を施す。通常観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。通常観察画像用画像処理が施されたRc画像信号、Gc画像信号、Bc画像信号は、通常観察画像として表示制御部60に入力される。
 特殊観察画像生成部64は、入力した1フレーム分のRs画像信号、Gs画像信号、Bs画像信号に対して、特殊観察画像用画像処理を施す。特殊観察画像用画像処理には、3×3のマトリクス処理、階調変換処理、3次元LUT(Look Up Table)処理等の色変換処理、色彩強調処理、空間周波数強調等の構造強調処理が含まれる。特殊観察画像用画像処理が施されたRs画像信号、Gs画像信号、Bs画像信号は、特殊観察画像として表示制御部60に入力される。
 解析処理部66は、入力した1フレーム分のR1画像信号、G1画像信号、B1画像信号に対して、上述と同様の通常観察画像用画像処理を施す。通常観察画像信号用画像処理が施されたR1画像信号、G1画像信号、B1画像信号は、表示用画像として使用される。また、解析処理部66は、入力した特定フレーム分のR2画像信号、G2画像信号、B2画像信号に対して、解析処理を行う。また、解析処理部66は、解析処理の結果である解析結果を表示用画像に表示させる表示制御処理を行う。
 例えば、第1発光パターンを第1A発光パターンとし、第2発光パターンを第2Bパターン(第2照明期間のフレーム数:同じ、第2照明光の発光スペクトル:異なる)とする場合において、第1照明光として白色光Wを2フレーム分、第2照明光としての紫色光V、緑色光G、赤色光Rを、白色光Wの発光の間に、それぞれ1フレーム分だけ観察対象に照明する場合には、図8に示すように、紫色光Vの照明により得られるR2画像信号、G2画像信号、B2画像信号に対して解析処理を行って、解析結果Vを得る。同様にして、緑色光Gの照明により得られるR2画像信号、G2画像信号、B2画像信号に対して解析処理を行って、解析結果Gを得る。また、赤色光Rの照明により得られるR2画像信号、G2画像信号、B2画像信号に対して解析処理を行って、解析結果Rを得る。これら解析結果V、G、Rは、赤色光Rに関する解析処理が完了した後、一まとめにした解析結果Tとして、表示用画像に表示される。なお、解析結果V、G、Rは、それぞれ単独で表示用画像に表示してもよく、また、解析結果V、G、Rのうち少なくとも2つ組み合わせて得られる解析結果を、表示用画像に表示してもよい。
 なお、解析処理としては、例えば、血管の形状情報を抽出する血管抽出処理、抽出した血管の形状情報に基づいて、血管に関する指標値を算出する指標値算出処理、及び、算出した指標値を表示用画像に重畳表示するための重畳表示制御処理が含まれる。解析処理の結果が表示された解析結果付き表示用画像は、表示制御部60に入力される。
 表示制御部60は、画像処理部58から出力される画像をモニタ18に表示するための制御を行う。具体的には、表示制御部60は、通常観察画像、特殊観察画像、又は、解析結果付き表示用画像を、モニタ18においてフルカラーで表示可能にする映像信号に変換する。変換済みの映像信号はモニタ18に入力される。これにより、モニタ18には通常観察画像、特殊観察画像、又は、解析結果付き表示用画像が表示される。
 次に、解析処理モードにおける光源制御及び撮像制御の詳細について説明する。CMOS型の撮像センサ44が、画素Pxに蓄積した電荷を信号読み出しせずに、一斉に排出することができるグローバルリセットを有する場合には、図9に示すように、撮像用プロセッサ45は、第1照明期間において信号読み出しが完了した後に、グローバルリセットGRを作動させる。光源用プロセッサ21は、グローバルリセットGRの作動後に、第2照明期間に切り替える。そして、光源用プロセッサ21は、第2照明期間において信号読み出しが完了した後、消灯期間に切り替える。また、撮像用プロセッサ45は、消灯期間の信号読み出しが完了した後は、グローバルリセットを作動させる。そして、光源用プロセッサ21は、グローバルリセットGRの作動後に、第1照明期間に切り替える。
 一方、CMOS型の撮像センサ44がグローバルリセットを有しない場合には、図10に示すように、光源用プロセッサ21は、第1照明期間において信号読み出しが完了した後に、消灯期間に切り替える。撮像用プロセッサ45は、消灯期間に信号読み出しを行う。この消灯期間の信号読み出しに得られた画像信号(空読み信号)は、第1照明期間において第1照明光を撮像センサ44に露光して得られた電荷を含むものであることから、その後に発光される第2照明光の成分に第1照明光の成分が混ざることが無いようにするため、破棄される。光源用プロセッサ21は、第1照明光の後の消灯期間において信号読み出しを行った後に、第2照明期間に切り替える。また、光源用プロセッサ21は、第2照明期間において信号読み出しが完了した後に、第1照明期間に切り替える。
 なお、図10では、第2照明期間において、第2照明光に関する信号読み出しが完了した後、直ぐに、第1照明期間に切り替えているが、消灯期間であっても僅かな露光による電荷の蓄積が生ずる場合もあり得る。そのため、図11に示すように、光源用プロセッサ21は、第2照明光に関する信号読み出しが完了した後、第1照明光及び第2照明光の消灯状態での撮像用プロセッサ45による信号読み出しを行うために、消灯期間を継続してもよい。そして、光源用プロセッサ21は、消灯状態での信号読み出しが完了した後に、第1照明期間への切替えを行う。なお、消灯状態での信号読み出しにより得られた画像信号は、空読み信号として、破棄される。
 次に、解析処理のモードの一連の流れについて、図12に示すフローチャートに沿って説明する。モード切替SW12fを操作して、解析処理モードに切り替える。解析処理モードに切り替えられると、第1照明光と発光する第1照明期間と、第2照明光と発光する第2照明期間とが特定発光パターンにて自動的に切り替えられる。このように特定発光パターンにて自動的に切り替えられる第1照明光と第2照明光とが、観察対象に対して照明される。
 撮像用プロセッサ45は、第1照明期間において第1照明光を撮像センサ44に露光させた状態で、撮像センサ44の行方向のライン単位で、画素から列方向の順で信号読み出しを行う。これにより、撮像センサ44から第1画像信号が出力される。また、撮像用プロセッサ45は、第2照明期間において第2照明光を撮像センサ44に露光させた後に、第1照明光及び第2照明光を消灯する消灯期間で撮像センサ44に対して未露光にした状態で、信号読み出しを行う。これにより、撮像センサ44から第2画像信号が出力される。表示制御部60は、第1画像信号に基づく表示用画像に対して、第2画像信号に基づく解析処理により得られた解析結果を表示する解析結果付き表示用画像をモニタ18に表示する。
 なお、上記実施形態においては、第2照明光として、紫色光V、青色光B、緑色光G、赤色光Rを用いているが、その他の発光スペクトルの光を用いてもよい。例えば、図13に示すように、第2照明光として、紫色光Vの光量を他の青色光B、緑色光G、及び赤色光Rの光量よりも大きくした第1特殊光を用いてもよい。また、図14に示すように、第2照明光として、緑色光Gの光量を、他の紫色光V、青色光B、及び赤色光Rの光量よりも大きくした第2特殊光を用いてもよい。また、第2照明光として、第1特殊光と第2特殊光の両方を用い、第2発光パターンを第2Bパターン又は第2Dパターンとして、第1特殊光と第2特殊光を交互に発光するようにしてもよい。なお、第1特殊光を用いた場合には、第2画像信号に対して、観察対象に含まれる正常部と異常部(病変部など)との色の差を拡張する色差拡張処理を行ってもよい。色差拡張処理済みの第2画像信号に対して、解析処理を行ってもよい。
 なお、上記実施形態においては、第1照明光に基づく第1画像信号は、表示用画像に用い、第2照明光に基づく第2画像信号は、解析処理にのみに用いて、モニタ18への表示に用いていないが、第2画像信号についても、モニタ18への表示に用いてもよい。この場合には、第1画像信号に基づく表示用画像と、第2画像信号に基づく表示用画像とを、モニタ18に対して切り替えて表示することになる。第2画像信号に基づく画像のモニタ18への表示又は非表示については、ユーザーインターフェース19によって適宜設定できるようにすることが好ましい。
 上記実施形態において、光源用プロセッサ21、撮像用プロセッサ45、画像処理部58に含まれる通常観察画像生成部62、特殊観察画像生成部64、解析処理部66といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f モード切替スイッチ
12g 静止画取得指示部
12h ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
21 光源用プロセッサ
23 光路結合部
25 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
42 対物レンズ
43 ズームレンズ
44 撮像センサ
45 撮像用プロセッサ
46 CDS/AGC回路
48 A/Dコンバータ
50 画像取得部
52 DSP
54 ノイズ低減部
56 画像処理切替部
58 画像処理部
60 表示制御部
62 通常観察画像生成部
64 特殊観察画像生成部
66 解析処理部
Px 画素
 

Claims (13)

  1.  互いに発光スペクトルが異なる第1照明光と第2照明光とを発する光源部と、
     前記第1照明光と前記第2照明光とを自動的に切り替えて発光する場合において、前記第1照明光を第1発光パターンで発光し、前記第2照明光を第2発光パターンで発光する光源用プロセッサと、
     複数の画素が行方向と列方向に配列された撮像センサと、
     前記行方向のライン単位で前記画素から前記列方向の順で信号読み出しを行う撮像用プロセッサとを備え、
     前記撮像用プロセッサは、
     前記第1照明光を発光する第1照明期間内において前記第1照明光を前記撮像センサに露光させた状態で、前記信号読み出しを行って、第1画像信号を出力させ、
     前記第2照明光を発光する第2照明期間において前記第2照明光を前記撮像センサに露光させた後に、前記第1照明光及び前記第2照明光を消灯する消灯期間で前記撮像センサに対して未露光にした状態で、前記信号読み出しを行って、第2画像信号を出力させる内視鏡システム。
  2.  前記撮像センサがグローバルリセットを有する場合において、
     前記光源用プロセッサは、前記第1照明期間後、且つ、前記撮像用プロセッサによる前記グローバルリセットの作動後に、前記第2照明期間に切り替える請求項1記載の内視鏡システム。
  3.  前記撮像センサがグローバルリセットを有しない場合において、
     前記光源用プロセッサは、前記第1照明期間後、前記消灯期間に切り替え、且つ、前記第1照明期間後の前記消灯期間において、前記撮像用プロセッサによる信号読み出しを行った後に、前記第2照明期間に切り替える請求項1記載の内視鏡システム。
  4.  前記撮像センサがグローバルリセットを有しない場合において、
     前記光源用プロセッサは、前記消灯期間における前記第2照明光に関する信号読み出しを行った後、前記第1照明光及び第2照明光の消灯状態での前記撮像用プロセッサによる信号読み出しを行うために、前記消灯期間を継続し、且つ、前記消灯状態での信号読み出しを行った後に、前記第1照明期間に切り替える請求項1記載の内視鏡システム。
  5.  前記第1照明光は白色光が用いられ、前記第2照明光は、紫色光、青色光、緑色光、又は赤色光が用いられる請求項1ないし4いずれか1項記載の内視鏡システム。
  6.  前記第2照明期間では、前記紫色光、前記青色光、前記緑色光、又は前記赤色光のいずれかを発光し、又は、前記第2照明期間では、前記紫色光、前記青色光、前記緑色光、又は前記赤色光のうち少なくとも2つの光を特定の順番で切り替えて発光する請求項5記載の内視鏡システム。
  7.  前記第2照明光は、紫色光の光量が他の色の光の光量よりも大きい第1特殊光、又は、緑色光の光量が他の色の光の光量よりも大きい第2特殊光のいずれかである請求項1ないし6いずれか1項記載の内視鏡システム。
  8.  前記第1発光パターンは、前記第1照明期間のフレーム数が、それぞれの前記第1照明期間において同じである第1A発光パターンと、前記第1照明期間のフレーム数が、それぞれの前記第1照明期間において異なっている第1B発光パターンとのうちのいずれかである請求項1ないし7いずれか1項記載の内視鏡システム。
  9.  前記第2発光パターンは、
     前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において同じである第2Aパターン、
     前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において同じであり、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2Bパターン、
     前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において異なっており、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において同じである第2Cパターン、及び、
     前記第2照明期間のフレーム数が、それぞれの前記第2照明期間において異なっており、且つ、前記第2照明光の発光スペクトルが、それぞれの前記第2照明期間において異なっている第2Dパターン
    のうちのいずれかである請求項1ないし8いずれか1項記載の内視鏡システム。
  10.  前記特定発光パターンでは、前記第1照明期間は前記第2照明期間よりも長い請求項1ないし9いずれか1項記載の内視鏡システム。
  11.  前記第1照明期間は2フレーム以上である請求項1ないし10いずれか1項記載の内視鏡システム。
  12.  前記第1画像信号に基づく表示用画像に対して、前記第2画像信号に基づく解析処理により得られた解析結果を表示する解析結果付き表示用画像を表示部に表示する表示制御部を備える請求項1ないし11いずれか1項記載の内視鏡システム。
  13.  第1照明光と第2照明光とを発する光源部と、前記第1照明光と前記第2照明光とを自動的に切り替えて発光する場合において、前記第1照明光を第1発光パターンで発光し、前記第2照明光を第2発光パターンで発光する光源用プロセッサと、複数の画素が行方向と列方向に配列された撮像センサと、前記行方向のライン単位で前記画素から前記列方向の順で信号読み出しを行う撮像用プロセッサとを備える内視鏡システムの作動方法において、
     前記撮像用プロセッサは、
     前記第1照明光を発光する第1照明期間内において前記第1照明光を前記撮像センサに露光させた状態で、前記信号読み出しを行って、第1画像信号を出力させ、前記第2照明光を発光する第2照明期間において前記第2照明光を前記撮像センサに露光させた後に、前記第1照明光及び前記第2照明光を消灯する消灯期間で前記撮像センサに対して未露光にした状態で、前記信号読み出しを行って、第2画像信号を出力させるステップを有する内視鏡システムの作動方法。
     
PCT/JP2020/039790 2019-11-27 2020-10-22 内視鏡システム及びその作動方法 WO2021106452A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080074004.8A CN114585292A (zh) 2019-11-27 2020-10-22 内窥镜系统及其工作方法
JP2021561227A JP7337190B2 (ja) 2019-11-27 2020-10-22 内視鏡システム及びその作動方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-214396 2019-11-27
JP2019214396 2019-11-27

Publications (1)

Publication Number Publication Date
WO2021106452A1 true WO2021106452A1 (ja) 2021-06-03

Family

ID=76129329

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/039790 WO2021106452A1 (ja) 2019-11-27 2020-10-22 内視鏡システム及びその作動方法

Country Status (3)

Country Link
JP (1) JP7337190B2 (ja)
CN (1) CN114585292A (ja)
WO (1) WO2021106452A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213993A (ja) * 2009-03-18 2010-09-30 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡駆動方法
JP5427316B2 (ja) * 2011-12-27 2014-02-26 オリンパスメディカルシステムズ株式会社 撮像装置
JP2017099455A (ja) * 2015-11-30 2017-06-08 富士フイルム株式会社 内視鏡システム及びその制御方法
JP2017170168A (ja) * 2014-03-28 2017-09-28 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP2017225755A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2018033719A (ja) * 2016-08-31 2018-03-08 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2019093355A1 (ja) * 2017-11-13 2019-05-16 富士フイルム株式会社 内視鏡システム及びその作動方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213993A (ja) * 2009-03-18 2010-09-30 Fujifilm Corp 内視鏡システム、内視鏡用プロセッサ装置、並びに内視鏡駆動方法
JP5427316B2 (ja) * 2011-12-27 2014-02-26 オリンパスメディカルシステムズ株式会社 撮像装置
JP2017170168A (ja) * 2014-03-28 2017-09-28 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP2017099455A (ja) * 2015-11-30 2017-06-08 富士フイルム株式会社 内視鏡システム及びその制御方法
JP2017225755A (ja) * 2016-06-24 2017-12-28 富士フイルム株式会社 内視鏡装置
JP2018033719A (ja) * 2016-08-31 2018-03-08 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2019093355A1 (ja) * 2017-11-13 2019-05-16 富士フイルム株式会社 内視鏡システム及びその作動方法

Also Published As

Publication number Publication date
JPWO2021106452A1 (ja) 2021-06-03
JP7337190B2 (ja) 2023-09-01
CN114585292A (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
US9629555B2 (en) Endoscope system, endoscope system processor device, operation method for endoscope system, and operation method for endoscope system processor device
US10022074B2 (en) Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device
JP6917518B2 (ja) 内視鏡システム
CN111343898B (zh) 内窥镜系统及其工作方法
JP7080195B2 (ja) 内視鏡システム
JP6891294B2 (ja) 内視鏡システム及びその作動方法
WO2021106452A1 (ja) 内視鏡システム及びその作動方法
JPWO2019208235A1 (ja) 医療画像処理システム
JP7214886B2 (ja) 画像処理装置及びその作動方法
JP7217351B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の作動方法
JP7052003B2 (ja) 内視鏡システム
WO2021149357A1 (ja) 内視鏡システム及びその作動方法
WO2021229900A1 (ja) 内視鏡システム及びその作動方法
US20220265129A1 (en) Endoscope system
JP7411515B2 (ja) 内視鏡システム及びその作動方法
JP7477208B2 (ja) 内視鏡システム及びその作動方法
WO2022004056A1 (ja) 内視鏡システム及びその作動方法
WO2020171012A1 (ja) 内視鏡システム
JP7163243B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
WO2021172131A1 (ja) 内視鏡システム、及び内視鏡システムの作動方法
WO2021182048A1 (ja) 内視鏡システム、及び内視鏡システムの作動方法
WO2021065939A1 (ja) 内視鏡システム及びその作動方法
WO2019208236A1 (ja) 医療画像処理システム
CN112472011A (zh) 内窥镜系统及其工作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20892970

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021561227

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20892970

Country of ref document: EP

Kind code of ref document: A1