WO2020158165A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2020158165A1
WO2020158165A1 PCT/JP2019/047008 JP2019047008W WO2020158165A1 WO 2020158165 A1 WO2020158165 A1 WO 2020158165A1 JP 2019047008 W JP2019047008 W JP 2019047008W WO 2020158165 A1 WO2020158165 A1 WO 2020158165A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
image
light
gain coefficient
value
Prior art date
Application number
PCT/JP2019/047008
Other languages
English (en)
French (fr)
Inventor
弘亮 岩根
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201980090845.5A priority Critical patent/CN113366366B/zh
Priority to JP2020569410A priority patent/JP7136933B2/ja
Publication of WO2020158165A1 publication Critical patent/WO2020158165A1/ja
Priority to US17/372,648 priority patent/US20210338069A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3137Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Definitions

  • the present invention relates to an endoscope system that switches and displays a plurality of types of images.
  • an endoscope system including a light source device, an endoscope, and a processor device is widely used.
  • the observation target is irradiated with illumination light from the endoscope, and the observation target is illuminated by the illumination light based on an RGB image signal obtained by imaging the observation target with an imaging device of the endoscope. The image of is displayed on the monitor.
  • Patent Document 1 two blue narrow band lights, that is, NB1 light having a peak wavelength of 422 nm and NB2 light having a peak wavelength of 460 to 470 nm are alternately illuminated, thereby observing the inside of the blood vessel included in the observation target. Obtaining oxygen saturation is described.
  • Patent Document 2 light having a peak in the B1 region (first B region: 390 nm to 440 nm) and light having a peak in the B2 region (second B region: 440 nm to 490 nm) are observed.
  • surface layer blood vessel resolution information is obtained by illuminating and imaging with an image sensor including B pixels that are sensitive to both light in the B1 region and light in the B2 region.
  • desired tissue information of a biological tissue is more suitable for diagnosis by using violet light having a central wavelength of 405 nm, blue laser light having a central wavelength of 445 nm, and excitation light emission excited by blue laser light. It is described that it is acquired in a clear state.
  • the tint of the entire image greatly differs between the surface image and the deep image. Therefore, for example, when the short wave term and the medium wavelength light are automatically switched to be illuminated, images with different tints are automatically switched and displayed, which may result in a screen that is difficult to see. In addition, the visibility of the surface information and the deep information to be noticed at the time of diagnosis may be reduced.
  • the normal mucous membrane and the mucous membrane with inflammation may have the same color tone, and correct diagnosis may not be possible.
  • a standard subject such as a mucous membrane in advance
  • it is set in advance so that color tone and brightness are equal, for example, for each wavelength of light. It is conceivable to deal with this by performing white balance processing or the like with different gain coefficients.
  • the spectral reflectance differs from that of the standard subject due to changes in the observation site, individual differences, the presence or absence of diseases such as inflammation, or the presence or absence of pigment dispersion.
  • the brightness, color tone, etc. of images captured with light of a plurality of wavelengths are greatly different, it may be difficult to recognize the difference in the target biometric information.
  • the present invention by switching and illuminating a plurality of lights, when switching and displaying a plurality of images obtained by illumination of each light, in accordance with the change of the subject, while aligning the brightness, color tone, etc. of each image, It is an object of the present invention to provide an endoscope system in which it is easy to recognize the difference between images.
  • the endoscope system of the present invention includes a light source unit, a light source control unit, an image acquisition unit, and a white balance unit.
  • the light source section emits first illumination light and second illumination light having an emission spectrum different from that of the first illumination light.
  • the light source control unit is a light source control unit that automatically switches between the first illumination light and the second illumination light to emit light, and emits the light emission period for emitting the first illumination light and the second illumination light.
  • the light emitting period is a light emitting period of at least one frame or more.
  • the image acquisition unit includes a first image signal group including a first image signal obtained by imaging a subject illuminated by the first illumination light in the emission period of the first illumination light, and a first image signal group in the emission period of the second illumination light.
  • a second image signal group including a second image signal obtained by capturing an image of a subject illuminated by the two illumination lights.
  • the white balance unit multiplies the first image signal by the first gain coefficient and the second image signal by the second gain coefficient to perform white balance processing.
  • the white balance unit performs white balance processing using a corrected gain coefficient obtained by correcting at least one of the first gain coefficient and the second gain coefficient.
  • the white balance part performs the white balance process using a fixed second gain coefficient without correction.
  • the first image signal or the second image signal includes a blue signal, a red signal, and a green component
  • the signal value of the first image or the signal value of the second image is a blue signal value, a red signal value, and a green signal value. It is preferable that
  • the white balance section preferably defines the first gain coefficient or the second gain coefficient for each of the blue signal value, the red signal value, and the green signal value.
  • the first gain coefficient of the acquisition period P N used for the first image signals included in the first image signal group of the acquisition period P N (N is an integer) is the acquisition period P N. It is preferable that the corrected first gain coefficient is obtained by correcting the first gain coefficient of the acquisition period P N-2 used for the first image signal of the acquisition period P N-2 immediately before N.
  • a plurality of acquisition period P N-K before the acquisition period P N (K is an even number of at least two) with respect to the first image signal included in the first image signal group
  • At least a part of the first gain coefficients of the plurality of acquisition periods P NK used is a corrected gain coefficient, and the first gain signals included in the first image signal group of the acquisition period P N are used.
  • the first gain coefficient acquisition period P N used, the first gain factor of the plurality of acquisition period P N-K, a summed value over each weighting factor, the weighting factor is acquisition period P N The larger the value, the larger the value.
  • First gain coefficient of the plurality of acquisition period P N-K are preferably used in the white balance processing in each acquisition period P N-K.
  • a correction coefficient for correcting at least one of the first gain coefficient and the second gain coefficient is used for the correction of the first gain coefficient or the second gain coefficient, and the correction coefficient is calculated based on the first image signal group. It is preferable to calculate using the first calculated value obtained by the above and the second calculated value obtained by the calculation based on the second image signal group.
  • the first calculation value is obtained by averaging respective first image signal value averages obtained by averaging the signal values of the first image signals in the first image signals included in the first image signal group.
  • the two calculated values are preferably obtained by averaging the respective second image signal value averages obtained by averaging the signal values of the second image signals in the second image signals included in the second image signal group. ..
  • a detection unit that detects an image signal of a blood vessel or a lesion portion and sets it as an abnormal image signal is provided, and the first image signal value average or the second image signal value average is the abnormal image, respectively. It is preferably obtained by using the signal value of the first image signal other than the signal or the signal value of the second image signal.
  • a detection unit that detects an image signal of an abnormal pixel portion to be an abnormal image signal is provided, and the first image signal value average or the second image signal value average is the abnormal image signal, respectively. It is preferably obtained by using the signal value of the first image signal or the signal value of the second image signal other than the above.
  • the correction coefficient is preferably the ratio of the first calculated value and the second calculated value.
  • First gain coefficient acquisition period P N is the first gain factor used for the first image signal included in the first image signal group of acquisition period P N-2, the in acquisition period P N-2 1 It is preferably a value obtained by multiplying the value of the ratio between the calculated value and the second calculated value in the acquisition period P N ⁇ 1 .
  • a first gain coefficient acquisition period P N, acquisition period difference between the first gain factor used for the first image signal included in the first image signal group P N-2 is less than or equal to the threshold value set in advance In this case, it is preferable not to correct the first gain coefficient in the acquisition period P N.
  • a first gain coefficient acquisition period P N the difference between the first gain factor used for the first image signal included in the first image signal group of acquisition period P N-2 is more than a preset threshold value In this case, it is preferable not to correct the first gain coefficient in the acquisition period P N.
  • the first illumination light includes violet light, green light, and red light
  • the second illumination light includes blue light, green light, and red light
  • the light source controller controls the first illumination light and the second illumination light. It is preferable to control the light emission amount of each of the colors included in 1) based on the first gain coefficient or the second gain coefficient.
  • the light source control unit preferably increases the light emission amount to a preset minimum light emission amount when the light emission amount controlled based on the first gain coefficient or the second gain coefficient is equal to or less than a specific threshold value.
  • the image processing unit generates a first display observation image based on the first image signal, and generates a second display observation image based on the second image signal. Therefore, it is preferable that the middle-deep layer blood vessel at a position deeper than the surface layer blood vessel be emphasized in the second display observation image.
  • the present invention when a plurality of lights are switched and illuminated and a plurality of images obtained by the illumination of each light are switched and displayed, the brightness, color tone, etc. of each image are aligned according to the change of the subject. At the same time, it is possible to provide an endoscope system in which it is easy to recognize the difference between the images.
  • 7 is a graph showing emission spectra of violet light V, blue light B, green light G, and red light R. It is a graph which shows the emission spectrum of the 1st illumination light containing purple light V, blue light B, green light G, and red light R. 7 is a graph showing an emission spectrum of second illumination light including purple light V, blue light B, green light G, and red light R. It is explanatory drawing which shows the light emission period of 1st illumination light, and the light emission period of 2nd illumination light. It is explanatory drawing which shows a light emission period setting menu.
  • the endoscope system 10 of the present embodiment includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18 (display unit), and a user interface 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, and a bending portion 12c and a distal end portion 12d provided at a distal end side of the insertion portion 12a. have.
  • the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b. With this bending operation, the tip portion 12d is directed in a desired direction.
  • the user interface 19 includes a mouse as well as the illustrated keyboard.
  • the operation unit 12b is provided with a mode switching SW 13a and a still image acquisition instruction unit 13b.
  • the mode switching SW 13a is used for switching operation among the normal observation mode, the first special observation mode, the second special observation mode, and the multi-observation mode.
  • the normal observation mode is a mode in which a normal image is displayed on the monitor 18.
  • the first special observation mode is a mode in which a first special observation image in which surface layer information such as surface blood vessels is emphasized is displayed on the monitor 18.
  • the second special observation mode is a mode in which a second special observation image in which deep information such as deep blood vessels is emphasized is displayed on the monitor 18.
  • the multi-observation mode is a mode in which the first special observation image (hereinafter referred to as the first image) and the second special observation image (hereinafter referred to as the second image) are automatically switched and displayed on the monitor 18.
  • a foot switch or the like may be used in addition to the mode switching SW 13a to switch the mode.
  • the processor device 16 is electrically connected to the monitor 18 and the user interface 19.
  • the monitor 18 outputs and displays image information and the like.
  • the user interface 19 functions as a UI (User Interface) that receives input operations such as function settings.
  • An external recording unit (not shown) for recording image information and the like may be connected to the processor device 16.
  • the light source device 14 includes a light source unit 20, a light source control unit 21, an optical path coupling unit 23, and a light emission period setting unit 24.
  • the light source unit 20 has a V-LED (Violet Light Emitting Diode) 20a, a B-LED (Blue Light Emitting Diode) 20b, a G-LED (Green Light Emitting Diode) 20c, and an R-LED (Red Light Emitting Diode) 20d. doing.
  • the light source controller 21 controls driving of the LEDs 20a to 20d.
  • the optical path coupling unit 23 couples the optical paths of the four color lights emitted from the four color LEDs 20a to 20d.
  • the light combined by the optical path combining unit 23 is irradiated into the subject through the light guide 41 and the illumination lens 45 that are inserted into the insertion unit 12a.
  • An LD Laser Diode
  • the light emission period setting unit 24 sets the light emission period of each of the plurality of illumination lights.
  • the V-LED 20a generates a purple light V having a central wavelength of 405 ⁇ 10 nm and a wavelength range of 380 to 420 nm.
  • the B-LED 20b emits blue light B having a central wavelength of 460 ⁇ 10 nm and a wavelength range of 420 to 500 nm.
  • the G-LED 20c generates green light G having a wavelength range of 480 to 600 nm.
  • the R-LED 20d generates red light R having a central wavelength of 620 to 630 nm and a wavelength range of 600 to 650 nm.
  • the light source controller 21 controls the V-LED 20a, the B-LED 20b, the G-LED 20c, and the R-LED 20d. In the normal observation mode, the light source controller 21 emits normal light having a light intensity ratio of violet light V, blue light B, green light G, and red light R of Vc:Bc:Gc:Rc. First, the LEDs 20a to 20d are controlled.
  • the light source control unit 21 makes the first illumination light in which the light intensity ratio among the violet light V, the blue light B, the green light G, and the red light R is Vs1:Bs1:Gs1:Rs1.
  • the LEDs 20a to 20d are controlled to emit light.
  • the light intensity ratio Vs1:Bs1:Gs1:Rs1 corresponds to the light amount condition of the first illumination light.
  • the first illumination light preferably emphasizes the superficial blood vessels. Therefore, it is preferable that the intensity of the violet light V of the first illumination light be higher than that of the blue light B. For example, as shown in FIG. 4, the ratio between the light intensity Vs1 of the violet light V and the light intensity Bs1 of the blue light B is “4:1”.
  • the light intensity ratio includes the case where the ratio of at least one semiconductor light source is 0 (zero). Therefore, the case where any one or two or more of the respective semiconductor light sources are not illuminated is included. For example, as in the case where the light intensity ratio among the violet light V, the blue light B, the green light G, and the red light R is 1:0:0:0, only one of the semiconductor light sources is turned on and the other three light sources are turned on. One has a light intensity ratio even when it does not light.
  • the light source controller 21 is the second illumination light in which the light intensity ratio among the violet light V, the blue light B, the green light G, and the red light R is Vs2:Bs2:Gs2:Rs2.
  • the LEDs 20a to 20d are controlled to emit light.
  • the light intensity ratio Vs2:Bs2:Gs2:Rs2 corresponds to the light amount condition of the second illumination light.
  • the second illumination light preferably emphasizes deep blood vessels. Therefore, it is preferable that the intensity of the blue light B of the second illumination light be higher than that of the violet light V.
  • the ratio of the light intensity Vs2 of the violet light V and the light intensity Bs2 of the blue light B is set to “1:3”.
  • the light source control unit 21 emits the first illumination light and the second illumination light in the emission periods of the first period and the second period, respectively, and the first illumination light.
  • the light and the second illumination light are automatically switched to emit light.
  • Each of the first period and the second period has a light emitting period of at least one frame or more.
  • the light source controller 21 emits the first illumination light for 4 frames in succession. After that, the second illumination light is emitted for four consecutive frames. Then, this light emission pattern is repeated.
  • the “frame” is a unit for controlling the image sensor 48 (see FIG. 2) that images the observation target.
  • “1 frame” exposes the image sensor 48 with light from the observation target.
  • the first period or the second period is defined corresponding to the “frame” which is a unit of imaging.
  • the first period which is the emission period of the first illumination light
  • the second period which is the emission period of the second illumination light
  • the emission period setting unit 24 can be appropriately changed by the emission period setting unit 24 connected to the light source control unit 21.
  • the light emitting period setting unit 24 displays the light emitting period setting menu as shown in FIG. 7 on the monitor 18.
  • the first period can be changed, for example, between 2 frames and 10 frames. Each light emitting period is assigned on the slide bar 26a.
  • the first period is changed by operating the user interface 19 and moving the slider 27a to the position on the slide bar 26a that indicates the emission period to be changed.
  • the second period is changed by operating the user interface 19 to move the slider 27b to a position on the slide bar 26b that indicates the emission period to be changed.
  • the slide bar 26b is also assigned a light emitting period of, for example, 2 to 10 frames.
  • the light guide 41 is built in the endoscope 12 and a universal cord (a cord that connects the endoscope 12 to the light source device 14 and the processor device 16), and is connected to the optical path coupling unit 23.
  • the combined light is propagated to the tip portion 12d of the endoscope 12.
  • a multimode fiber can be used as the light guide 41.
  • An illumination optical system 30a and an imaging optical system 30b are provided at the tip portion 12d of the endoscope 12.
  • the illumination optical system 30a has an illumination lens 45, and the light from the light guide 41 is applied to the observation target through the illumination lens 45.
  • the imaging optical system 30b has an objective lens 46 and an imaging sensor 48. The reflected light from the observation target is incident on the image sensor 48 via the objective lens 46. As a result, a reflected image of the observation target is formed on the image sensor 48.
  • the image sensor 48 is a color image sensor, and captures a reflected image of the subject and outputs an image signal.
  • the image sensor 48 is preferably a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like.
  • the image sensor 48 used in the present invention is a color image sensor for obtaining RGB image signals of three colors of R (red), G (green), and B (blue), that is, an R pixel provided with an R filter.
  • a so-called RGB image sensor including a G pixel provided with a G filter and a B pixel provided with a B filter.
  • the B filter 48b transmits light on the short-wave side of light in the violet band, light in the blue band, and light in the green band.
  • the G filter 48g transmits light in the green band, light in the long wave side of light in the blue band, and light in the short wave side of light in the red band.
  • the R filter 48r transmits light in the red band and light on the long wave side in the green band. Therefore, in the image sensor 48, the B pixel is sensitive to the violet light V and the blue light B, the G pixel is sensitive to the blue light B, the green light G, and the red light R, and the R pixel is the green light. It has sensitivity to G and red light R.
  • the image sensor 48 is a so-called complementary color image sensor including complementary color filters of C (cyan), M (magenta), Y (yellow) and G (green) instead of the RGB color image sensor. May be.
  • the complementary color image sensor is used, the CMYG four color image signals are output, and therefore it is necessary to convert the four CMYG color image signals into the RGB three color image signals by the complementary color-primary color conversion. ..
  • the image sensor 48 may be a monochrome image sensor without a color filter. In this case, the light source control unit 21 needs to turn on the blue light B, the green light G, and the red light R in a time-division manner, and to add the synchronization processing in the processing of the image pickup signal.
  • the image signal output from the image sensor 48 is transmitted to the CDS/AGC circuit 50.
  • the CDS/AGC circuit 50 performs correlated double sampling (CDS (Correlated Double Sampling)) and automatic gain control (AGC (Auto Gain Control)) on an image signal which is an analog signal.
  • CDS Correlated Double Sampling
  • AGC Automatic gain control
  • the image signal that has passed through the CDS/AGC circuit 50 is converted into a digital image signal by an A/D converter (A/D (Analog/Digital) converter) 52.
  • A/D converted digital image signal is input to the processor device 16.
  • the processor device 16 includes an image acquisition unit 52, a DSP (Digital Signal Processor) 54, a noise removal unit 58, a signal switching unit 60, a normal observation image processing unit 62, a special observation image processing unit 63, and display control.
  • a unit 64, a still image storage unit 65, and a still image storage control unit 66 are provided.
  • the image acquisition unit 52 acquires an observation image obtained by imaging the observation target with the endoscope 12. Specifically, a digital color image signal from the endoscope 12 is input to the image acquisition unit 52 as an observation image.
  • the color image signal is composed of a red signal output from the R pixel of the image sensor 48, a green signal output from the G pixel of the image sensor 48, and a blue signal output from the B pixel of the image sensor 48. ..
  • the image acquisition unit 52 acquires the first image signal group in the first period PL1.
  • the first image signal group includes a plurality of first image signals SP1 obtained by imaging the subject illuminated by the first illumination light L1 in the first period PL1.
  • the image acquisition unit 52 also acquires the second image signal group in the second period PL2.
  • the second image signal group includes a plurality of second image signals SP2 obtained by imaging the subject illuminated by the second illumination light L2 in the second period PL2.
  • the light source control unit 21 sets the first illumination light L1 and the second illumination light L2 in the light emission periods of the first period PL1 and the second period PL2, respectively.
  • the image acquisition unit 52 controls the first illumination light L1 and the second illumination light L2 by automatically switching between the first illumination light L1 and the second illumination light L2. Images are periodically acquired in the order of the image signal group.
  • the first image signal group and the second image signal group respectively have at least one first image signal SP1.
  • the second image signal SP2 is included.
  • both the first period PL1 and the second period PL2 are light emission periods of 4 frames. Therefore, the first image signal group including the four first image signals SP1 is acquired in the first period PL1, and the second image signal group including the four second image signals SP2 is acquired in the second period PL2. ..
  • the DSP 56 performs various signal processing such as defect correction processing, offset processing, white balance processing, linear matrix processing, gamma conversion processing, or demosaic processing on the received image signal. Further, as shown in FIG. 10, the DSP 54 includes a white balance unit 55. The white balance unit 55 also includes a correction coefficient calculation unit 56.
  • the signal of the defective pixel of the image sensor 48 is corrected.
  • the dark current component is removed from the image signal subjected to the defect correction process, and an accurate zero level is set.
  • the white balance unit 55 performs white balance processing by multiplying the first image signal by the first gain coefficient and by multiplying the second image signal by the second gain coefficient.
  • the first gain coefficient means a gain coefficient to be multiplied with the first image signal
  • the second gain coefficient means a gain coefficient to be multiplied with the second image signal.
  • the signal level is adjusted by multiplying the image signal after the offset processing by the gain.
  • the correction coefficient calculation unit 56 calculates a correction coefficient for correcting at least one of the first gain coefficient and the second gain coefficient.
  • the image signal after the white balance processing is subjected to linear matrix processing for enhancing color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing.
  • the image signal after the linear matrix processing is subjected to demosaic processing (also referred to as isotropic processing or synchronization processing), and a color signal lacking in each pixel is generated by interpolation. By this demosaic processing, all pixels have signals of each color.
  • the noise removal unit 58 removes noise from the image signal by performing noise removal processing (eg, moving average method or median filter method) on the image signal that has been gamma-corrected by the DSP 56.
  • noise removal processing eg, moving average method or median filter method
  • the image signal from which the noise has been removed is transmitted to the signal switching unit 60.
  • the signal switching unit 60 transmits the image signal for normal light obtained by illumination and imaging of normal light to the normal observation image processing unit 62 when the normal switching mode is set by the mode switching SW 13a.
  • the special observation image processing unit 63 includes a first special observation image processing unit 67, a second special observation image processing unit 68, and a detection unit 69. Then, when the first special observation mode is set, the first image signal obtained by the illumination and imaging of the first illumination light is transmitted to the first special observation image processing unit 67.
  • the first image signal includes a first red signal output from the R pixel of the image sensor, a first green signal output from the G pixel of the image sensor 48, and a first red signal output from the B pixel of the image sensor 48. Blue signal is included.
  • the second image signal obtained by the illumination and the imaging of the second illumination light is transmitted to the second special observation image processing unit 63.
  • the second image signal includes a second red signal output from the R pixel of the image sensor, a second green signal output from the G pixel of the image sensor 48, and a second red signal output from the B pixel of the image sensor 48. Blue signal is included.
  • the multi-observation mode is set, the first image signal obtained by the illumination and the imaging of the first illumination light is transmitted to the first special observation image processing unit 67, and the illumination of the second illumination light and the The second image signal obtained by imaging is transmitted to the second special observation image processing unit 63.
  • the normal observation image processing unit 62 performs image processing for normal images on the RGB image signals obtained in the normal observation mode.
  • the image processing for normal images includes structure enhancement processing for normal images.
  • the normal observation image processing unit 62 is provided with normal image parameters to be multiplied with the RGB image signals in order to perform image processing for normal images.
  • the RGB image signal subjected to the image processing for the normal image is input as a normal image from the normal observation image processing unit 62 to the display control unit 64.
  • the first special observation image processing unit 67 generates a first image that has been subjected to image processing such as saturation emphasis processing, hue emphasis processing, and structure emphasis processing based on the first image signal.
  • image processing such as saturation emphasis processing, hue emphasis processing, and structure emphasis processing based on the first image signal.
  • the first special observation image processing unit 67 is provided with a first image parameter to be multiplied with the first image signal in order to perform image processing of the first image.
  • the first special observation image processing unit 67 does not perform the surface layer blood vessel emphasizing process for emphasizing the surface layer blood vessel, but may perform the surface layer blood vessel emphasizing process depending on the processing load.
  • the first image As shown in FIG. 12, an image showing the background mucous membrane BM and the surface blood vessel VS1 of the observation target is displayed.
  • the first image is obtained based on the first illumination light including violet light, blue light, green light, and red light.
  • the first illumination light L1 when the observation target is illuminated with the first illumination light L1, the purple light and the blue light V/B of the first illumination light L1 reach the surface layer where the surface blood vessels VS1 are distributed.
  • the first illumination light L1 is illuminated on the observation target from above the paper surface, and the bottom direction on the paper surface is the depth direction D of the observation target.
  • the surface layer included in the violet light image VP obtained based on the reflected light of the violet light V.
  • the image of the blood vessel VS1 is highlighted.
  • the violet light image VP is set.
  • the red light R of the first illumination light L1 reaches deep into the background mucous membrane BM distributed at a position deeper than the superficial blood vessel VS1 and the deep blood vessel VS2 (the blood vessel located deeper than the superficial blood vessel VS1).
  • the red light image RP obtained based on the reflected light of the red light R includes the image of the background mucous membrane BM. From the above, since the first image is an image in which the purple light image VP and the red light image RP are combined, the images of the background mucous membrane BM and the superficial blood vessel VS1 are displayed.
  • the second special observation image processing unit 68 generates a second image that has undergone image processing such as saturation enhancement processing, hue enhancement processing, and structure enhancement processing based on the second image signal.
  • image processing such as saturation enhancement processing, hue enhancement processing, and structure enhancement processing based on the second image signal.
  • the second special observation image processing unit 68 is provided with a parameter for the second image to be multiplied with the second image signal in order to perform the image processing of the second image.
  • the second special observation image processing unit 68 does not perform the superficial layer blood vessel enhancing process for enhancing the deep layer blood vessel, but may perform the deep layer blood vessel enhancing process depending on the processing load.
  • the second image displays an image showing the background mucous membrane BM and the deep blood vessel VS2 of the observation target.
  • the second image is obtained based on the second illumination light including the purple light V, the blue light B, the green light G, and the red light R.
  • the green light G of the second illumination light L2 reaches a deep layer where the deep blood vessels VS2 are distributed.
  • the first illumination light L1 is illuminated on the observation target from above the paper surface, and the bottom direction of the paper surface is the depth direction D of the observation target.
  • the light intensity of the green light G is stronger than the light intensities of the blue light B, the green light G, and the red light R, and thus is included in the green light image GP obtained based on the reflected light of the green light G.
  • the image of the deep blood vessel VS2 is emphasized.
  • the green light image GP is used here.
  • the red light R of the second illumination light L2 reaches deep into the background mucous membrane BM distributed at a position deeper than the superficial blood vessel VS1 and the deep blood vessel VS2 (a blood vessel located deeper than the superficial blood vessel VS1).
  • the red light image RP obtained based on the reflected light of the red light R includes the image of the background mucous membrane BM. From the above, since the second image is an image in which the red light image RP is combined, the images of the background mucous membrane BM and the deep blood vessel VS2 are displayed.
  • the first special observation image is generated by the first image signal
  • the second special observation image is generated by the second image signal
  • the surface layer blood vessel is emphasized in the first special observation image. Therefore, it is preferable that the second special observation image emphasize the middle-deep blood vessels at a position deeper than the surface blood vessels.
  • the detection unit 69 detects a blood vessel or a lesion from the normal image, the first image, and the second image.
  • the first image is an image showing the superficial blood vessels VS1 and the second image is an image showing the deep blood vessels VS2. Therefore, these blood vessels can be detected by image processing. .. Further, the detection unit 69 detects an abnormal portion in the first image or the second image and sets it as an abnormal image signal.
  • the blood vessel or lesion detection result is sent to the white balance unit 55 or the light source control unit 21.
  • the display control unit 64 displays the normal image, the first image, and/or the second image input from the normal observation image processing unit 62 or the special observation image processing unit 63 as images that can be displayed on the monitor 18. Take control. An image according to each observation mode is displayed under the control of the display control unit 64. In the normal observation mode, a normal image is displayed on the monitor 18. In the case of the first special observation mode, the first image (see FIG. 12) is displayed on the monitor 18. Further, in the second special observation mode, the second image (see FIG. 14) is displayed on the monitor 18.
  • the color first image and the second image are switched and displayed on the monitor 18 in accordance with the emission period of the first illumination light and the emission period of the second illumination light. That is, when the first period is 4 frames and the second period is 4 frames, the first display observation image is continuously displayed for 4 frames, and the second display observation image is continuously displayed for 4 frames. To be done.
  • two types of first image and second image can be automatically switched and displayed without the user operating the mode switching SW 13a.
  • the same observation target is displayed in the first image and the second image as long as the observation target does not move or the tip portion 12d of the endoscope 12 does not move.
  • the appearance of the observation target is different due to the difference in the spectral information. That is, the visibility of the superficial blood vessels is high in the first image, while the visibility of the deep blood vessels is high in the second image. Therefore, the visibility of a plurality of blood vessels having different depths can be improved by switching and displaying the first image and the second image.
  • the present embodiment includes a normal observation mode, a first special observation mode, a second special observation mode, and a multi-observation mode for switching between the first special observation mode and the second special observation mode.
  • a plurality of observation modes different from these observation modes may be provided. In this case, it is possible to observe the subject from multiple angles.
  • the still image saving control unit 66 performs control to save the image obtained at the timing of the still image acquisition instruction as a still image in the still image saving unit 65 according to the instruction of the still image acquisition instruction unit 13b.
  • the normal image obtained at the timing of the still image acquisition instruction is stored in the still image storage unit 65 as a still image.
  • the first special observation image obtained at the timing of the still image acquisition instruction is stored in the still image storage unit 65 as a still image.
  • the second special observation image obtained at the timing of the still image acquisition instruction is stored in the still image storage unit 65 as a still image.
  • a set of display observation images of the first special observation image and the second special observation image obtained at the timing of the still image acquisition instruction is stored in the still image storage unit 65.
  • the white balance unit 55 performs white balance processing using the corrected gain coefficient obtained by correcting at least one of the first gain coefficient and the second gain coefficient.
  • the corrected first gain coefficient is used when the first gain coefficient is corrected, and the corrected second gain coefficient is used when the second gain coefficient is corrected.
  • the correction may be performed by multiplying a specific coefficient calculated using various data. The calculation may be performed each time, or a fixed period may be set and the calculation may be performed for each period.
  • the correction gain coefficient obtained by correcting at least one of the first gain coefficient and the second gain coefficient is used as the gain coefficient, the first image signal by the first illumination light and the second image signal by the second illumination light are used. It is possible to provide an endoscope system in which, when images are switched and displayed, the brightness, color tone, and the like of each image are adjusted according to the change of the subject and the difference between the images can be easily recognized.
  • the white balance unit 55 performs white balance processing using a fixed second gain coefficient without correction.
  • the first gain coefficient is corrected.
  • the color tone of the second image signal is prevented from changing, and, for example, it is possible to prevent the normal color mucosa and the mucosa with inflammation from having the same color tone in the first image signal and the second image signal.
  • the color tone of the first image signal is matched with the color tone of the second image signal. Therefore, while maintaining the difference between the first image signal and the second image signal, for example, the difference in color tone between the normal mucous membrane and the mucous membrane associated with inflammation can be maintained, and a more accurate diagnosis can be performed.
  • the first image signal or the second image signal includes a blue signal, a red signal, and a green component
  • the signal value of the first image signal or the signal value of the second image signal is the blue signal value, the red signal It consists of a signal value and a green signal value.
  • the white balance unit 55 also defines the first gain coefficient or the second gain coefficient for each of the blue signal value, the red signal value, and the green signal value.
  • the acquisition period P N (N is an integer) first gain acquisition period P N used for the first image signal included in the first image signal group coefficients, using the correction first gain coefficient AR n obtained by correcting the first gain factor used for the first image signal of the acquisition period P n-2 immediately before the acquisition period P n.
  • the acquisition period P N refers to the specific first period PL1 or second period PL2.
  • N is an odd number, it is an acquisition period for acquiring the first image signal group, and when N is an even number, it is an acquisition period for acquiring the second image signal group.
  • the corrected first gain coefficient AR n will be described with reference to FIG. 16.
  • the second period PL 2 immediately before the acquisition period P 5 is the acquisition period P 4
  • the first period PL 1 immediately before the acquisition period P 4 is The acquisition period is P 3 .
  • the first gain coefficient R N for the red signal value of the first image signal SP1 N included in the acquisition period P N is the first gain coefficient R N
  • the first gain coefficient for the green signal value is the first gain coefficient G N
  • the blue signal value is the first gain coefficient B 5 .
  • the image signal acquired in the acquisition period P N when N is an odd number is the first image signal SP1 N.
  • the image signal acquired in the acquisition period P N when N is an even number is the second image signal SP2 N.
  • the acquisition period P N when N is an odd number, it is the first period PL1 for acquiring the first image signal group, and when N is an even number, it is a second period PL2 for acquiring the second image signal group.
  • the first gain coefficient R N for the red signal value will be mainly described as a representative, but the same applies to the first gain coefficient G N for the green signal value and the first gain coefficient B N for the blue signal value.
  • first gain coefficient AR 5 indicates that the gain coefficient R N has been corrected. Therefore, when using a corrected gain coefficient R N as a gain factor R N is the gain factor R N is the same as the correction gain coefficient AR N.
  • the first gain factor G 5 of acquisition period P 5 using the first image signal SP1 5 in the first image signal group of acquisition period P 5, immediately before the acquisition period P 5 The corrected first gain coefficient AG 5 obtained by correcting the first gain coefficient G 3 used for the first image signal in the acquisition period P 3 for acquiring the first image signal of is used.
  • the corrected first gain coefficient AB 5 obtained by correcting the first gain coefficient B 3 used for the first image signal in the acquisition period P 3 for acquiring the first image signal of is used.
  • the first image signal SP1 N acquired in the acquisition period P N a plurality of lights are switched and illuminated, and when a plurality of images obtained by illumination of each light are switched and displayed, correction is performed. for using the first gain coefficient AR N, AG N, and AB N, it is possible to obtain an image of stable color tone and brightness.
  • the correction of the first gain coefficient R N, using the correction coefficient W N for correcting the first gain coefficient R N is calculated using the first calculation value obtained by the calculation based on the first image signal group and the second calculation value obtained by the calculation based on the second image signal group.
  • the first calculated value represents a representative value of the signal values of the first image signal group
  • the second calculated value represents a representative value of the signal values of the second image signal group.
  • the correction coefficient W N is preferably the ratio of the first calculated value and the second calculated value. Details of the first and second calculated values and the correction coefficient W N will be described later. Even when the second gain coefficient is corrected, the same correction coefficient may be used.
  • the first gain coefficient R N-2, G N- 2, B N-2 was used for the first image signal immediately before the acquisition period P N-2 of the acquisition period P N, the correction coefficient Wr N, Wg N and correcting the first gain coefficient AR N when corrected by multiplying the Wb N, AG N, AB N is given by the following expression (1) to (3).
  • the first gain factor R N is first calculated value obtained by calculation based on the first image signal group, and based on the second image signal group arithmetic
  • the correction coefficient Wr N calculated using the second calculated value obtained by Therefore, since the second period PL2 by the second illumination light L2 and the first period PL1 by the first illumination light L1 are adjusted together, a plurality of lights are switched and illuminated to obtain by each illumination. When a plurality of displayed images are switched and displayed, it is possible to visualize the difference between the images while matching the tint of each image according to the change of the subject.
  • the acquisition period P N when the first gain coefficient R N is corrected, that is, when the corrected first gain coefficient AR N that has been subjected to the correction process is used as the first gain coefficient, the acquisition period P N
  • the correction may be performed using the first gain coefficient R N in the acquisition period earlier than that. ..
  • the first gain coefficient R N of acquisition period P N is the first gain factor R N-K of the plurality of acquisition period P N-K, a value obtained by adding over each weighting factor Good.
  • K is an even number of 2 or more. It is preferable that the weighting coefficient be increased as it approaches the acquisition period P N.
  • the first gain coefficient R N-K of the acquisition period P a plurality of acquisition period before the N P N-K is at least partially corrected first gain factor is corrected each AR N-K.
  • First gain coefficient of the plurality of acquisition period P N-K, it is preferred in each acquisition period P N-K is a first gain coefficient that is used in the white balance processing. Therefore, in this case, since using the corrected first gain coefficient AR N-K as the first gain coefficient R N-K, and the first gain factor R N-K with the corrected first gain coefficient AR N-K equal.
  • the first gain coefficient R N-K of the acquisition period P N plurality of acquisition period before the P N-K is corrected first gain coefficient processing is for each and every correction AR N- K, and the plurality of acquisition period P N-K, the first gain coefficient R N-K which is used in the white balance process is a process of correction is corrected first gain coefficient AR N-K.
  • a corrected first gain coefficient AR 3 which is a first gain coefficient
  • a corrected first gain coefficient AR 1 which is a first gain coefficient used for the first image signal SP1 1 two times before the acquisition period P 5
  • the corrected first gain coefficient AR N the corrected first gain coefficient AR N of the plurality of acquisition period P N is used.
  • the number of corrected first gain coefficients AR N used is not particularly limited. Therefore, although not shown for the acquisition period P 1 previously, for example, before the acquisition period P 1, obtaining period P -1, P -3, if ... are acquisition period P -1, P -3, ... The first gain coefficients AR -1 , AR -3, ... Which are the corrected first gain coefficients AR N used for the first image signal SP1 are used.
  • the weighting coefficient be increased as it approaches the acquisition period P N.
  • the weighting coefficient is alpha n
  • acquisition period P for the first gain factor of N-K R N-K K is an even number of at least two
  • the weighting coefficient for 2 is ⁇ 1
  • the weighting coefficient for the corrected first gain coefficient AR N-4 of the acquisition period P N-4 is ⁇ 2, and the numbers are sequentially attached.
  • First gain coefficient R N at the acquisition period P N, when in the formula may be the following equation (4) and (5).
  • N is an integer and n is a natural number.
  • the weighting coefficient is set to 1 when all the weighting coefficients ⁇ n are added in the above case.
  • the weighting coefficient ⁇ n can be multiplied by a heavier coefficient as the corrected first gain coefficient AR N ⁇ K is closer to the acquisition timing P N. Therefore, for example, ⁇ 1 is 0.5, ⁇ 2 is 0.25, ⁇ 3 is 0.125, and 0.5 is the n-th power. Therefore, ⁇ n can be expressed by Equation (5).
  • the weight of the weighting factor alpha 1 the corrected first gain coefficient AR 3 of acquisition period P 3 the weight of the corrected first gain coefficient AR 1 weighting coefficient alpha 2 of acquisition period P 1
  • ⁇ 1 is 0.5
  • ⁇ 2 is 0.25
  • ⁇ 3 is 0.125
  • ⁇ 4 or less are set to 0.125, and the weighting factor is increased as the acquisition period P N is closer.
  • the acquisition period P 1 is to be the first acquisition period P N
  • the first gain coefficient R 5 used for the first image signal SP1 5 acquired at the acquisition period P 5 The following equation (6) is obtained. Note that ⁇ 1 is 0.5 and ⁇ 2 is 0.5.
  • the gain coefficient R for the first image signal SP1 in the previous acquisition period P N-2 is calculated. Since not only N-2 but also the gain coefficients for the plurality of first image signals SP1 in the acquisition period before that are used, the gain coefficient may be largely changed even for a subject whose hue or brightness suddenly changes. None, and can be subsequently observed with a similar tint or brightness. Therefore, when a plurality of lights are switched and illuminated and a plurality of images obtained by the illumination of each light are switched and displayed, an image with stable color tone and brightness can be obtained.
  • the first gain coefficient is mainly described, but the second gain coefficient can be corrected in the same manner as the first gain coefficient.
  • the first calculation value and the second calculation value may be used to calculate the correction coefficient.
  • the first calculated value and the second calculated value used for calculating the correction coefficient are preferably as follows. That is, the first calculated value is obtained by averaging respective first image signal value averages obtained by averaging the signal values of the first image signal SP1 in the first image signal SP1 included in the first image signal group.
  • the second calculated value is obtained by averaging the respective second image signal value averages obtained by averaging the signal values of the second image signal SP2 in the second image signal SP2 included in the second image signal group. Obtained.
  • values obtained by the first image signal group and the second image signal group can be used in addition to the arithmetic mean of the respective image signal value averages as described above.
  • the signal value of the first image signal SP1 included in the first image signal group for the past specific period and the signal value of the second image signal SP2 included in the second image signal group for the past specific period are added. It is also possible to use a device that has undergone arithmetic processing such as averaging.
  • the correction coefficient calculation unit 56 firstly averages the signal values of the first image signal SP1 for each of the first image signals SP1 included in the first image signal group. The average is calculated for the number of the first image signals SP1. Next, a value obtained by adding and averaging each of the plurality of first image signal value averages is set as a first operation value. Further, in the second image signal SP2 included in the second image signal group, similarly, for each of the second image signals SP2, the second image signal value average obtained by averaging the signal values of the second image signal SP2 The number of image signals SP2 is calculated. Next, a value obtained by adding and averaging each of the plurality of second image signal value averages is set as a second operation value.
  • the first calculated value and the second calculated value will be described with reference to FIG.
  • the first The calculated value and the second calculated value are calculated.
  • the RGB signal value of any one first image signal of the plurality of first image signals SP1 1 included in the acquisition period P 1 is r 1-1 , g 1-1 , b 1-1
  • the RGB signal values of another one first image signal are r 1-2 , g 1-2 , and b 1-2, and are sequentially numbered.
  • the number of frames is L in the acquisition period P 1
  • the number of the first image signals included in the acquisition period P 1 is L
  • the RGB signal values of the first image signal are r 1-1 and g 1-1. , B 1-1 to r 1-L , g 1-L , and b 1-L .
  • RGB signal values be r 2-1 , g 2-2 , and b 2-3 . Since the number of frames in the acquisition period P 2 is M, the number of the second image signals included in the acquisition period P 2 is M, and the RGB signal values of the second image signal are r 2-1 and g 2- 1 , b 2-1 to r 2-M , g 2-M , b 2-M .
  • the first image signal value average is an average of the respective color signal values of the plurality of first image signals in the image plane, and is Sr 1-1 , Sg 1-1 , Sb 1-1 .
  • the average of the second image signal values is the average of the respective color signal values of the plurality of second image signals in the image plane, and is Sr 2-1 , Sg 2-1 , and Sb 2-1 . Therefore, Sr 1-1 , Sg 1-1 , Sb 1-1 , Sr 2-1 , Sg 2-1 , and Sb 2-1 are obtained by the following equations (7) to (12).
  • the general formulas are the following formulas (13) to (18).
  • the first image signal value average Sr 1-L of the acquisition period P1 is set to the acquisition period P 1 .
  • the values obtained by adding and averaging all the plurality of first image signals of the number of included frames are respectively AveSr 1 , AveSg 1 , and AveSb 1 . Therefore, the average of the first image signal values in the acquisition period P 1 is a value obtained by adding L of Sr 1-1 to Sr 1- L and dividing them by L.
  • the second frame calculation value since a value obtained by averaging the respective average second image signal value, the second image signal value average acquisition period P 2, are included in the acquisition period P 2
  • AveSr 2 , AveSg 2 , and AveSb 2 be the values obtained by adding all of the plurality of second image signals and averaging them, these are obtained by the following equations (22) to (24). ..
  • the correction coefficient W 3 of the acquisition period P 3 the correction coefficient of the gain coefficient of the red signal is Wr 3
  • the correction coefficient of the gain coefficient of the green signal is Wg 3
  • the correction coefficient of the gain coefficient of the blue signal is Wg. 3 and when, these correction factors Wr 3, Wg 3, Wb 3 includes a AveSr 1, AveSg 1, AveSb 1 is first calculated value of the acquisition period P 1, is the second operation value acquisition period P 2 It is calculated using AveSr 2 , AveSg 2 , and AveSb 2 .
  • the correction value Wr 3 for the red signal is calculated using the first calculated value AveSr 1 for the red signal and the second calculated value AveSr 2 for the red signal. And the same color.
  • the correction coefficient may be calculated by a combination other than the same color.
  • the detection unit 69 detects the image signal of the portion detected as a blood vessel or a lesion in the first image signal or the second image signal. It is preferable that the first average image signal value average or the second average image signal value average is calculated after eliminating the above as an abnormal image signal. Similarly, the detecting unit 69 excludes the image signal of the portion detected as an abnormal pixel in the first image signal or the second image signal as an abnormal image signal, and then, the first image signal value average or It is preferable to calculate the average of two image signal values.
  • the abnormal pixel includes a dark part, a bright part such as halation, or an abnormal frame.
  • the correction coefficient is calculated using the signal value of the entire image in each of the first image signal and the second image signal. Therefore, when switching and displaying a plurality of images obtained by illuminating each light, it is possible to prevent a sudden change in the tint, brightness, etc. of the entire image in accordance with the change of the subject, and to display the plurality of images. Since it is possible to display, it becomes easy to recognize the difference between a plurality of images.
  • the correction coefficient is calculated using the signal value of the image excluding the abnormal image signal in each of the first image signal and the second image signal, a plurality of images are displayed with stable color tone and brightness. be able to.
  • the correction coefficient is obtained as follows. That is, the first gain factor acquisition period P N is the first gain factor used for the first image signal included in the first image signal group of acquisition period P N-2, in the acquisition period P N-2 A value obtained by multiplying the value of the ratio between the first calculated value and the second calculated value in the acquisition period P N ⁇ 1 can be used.
  • the correction coefficients Wr 3 , Wg 3 , and Wb 3 in the acquisition period P 3 are AveSr 1 , AveSg 1 , AveSb 1 , AveSr 2 , and AveSg as the first calculation value and the second calculation value, respectively. 2 and AveSb 2 are used to obtain the following equations (25) to (27).
  • Equations (28) to (30) are equations relating to the gain coefficient of the acquisition period P 3 , and can be generalized into the following equations (31) to (33).
  • h is an odd number. Therefore, the corrected first gain coefficients AR h+2 , AG h+2 , and AB h+2 for the first image in the acquisition period (h+2) obtained by the first illumination light are obtained by the following equations (31) to (33).
  • a first gain coefficient R N of acquisition period P N over the first gain coefficient R N-K of the plurality of acquisition period P N-K, respectively weighting factors adding
  • the corrected first gain coefficient can be expressed by the following expression (34) by the expression (4) and the expressions (31) to (33).
  • the first gain coefficient is the first gain coefficient in the acquisition period h.
  • K is an even number of 2 or more.
  • the coefficient ⁇ is set to be 1 when all are added, as described above, and the correction first gain coefficient closer to the acquisition period h is set to a larger coefficient. Therefore, for example, ⁇ 1 is 0.5, ⁇ 2 is 0.25, ⁇ 3 is 0.125, and 0.5 is the n-th power. Therefore, ⁇ n can be expressed by Equation (5).
  • the first gain coefficient is mainly described, but the second gain coefficient can be calculated in the same manner.
  • the gain coefficient can be corrected in accordance with the change of the subject, so that it is better adjusted in accordance with the change of the subject.
  • the first gain factor used for the first gain coefficient R N, G N, and B N and the first image signal included in the first image signal group of acquisition period P N-2 of the acquisition period P N R N-2, G N- 2, and the difference between B N-2 is less than or equal to a predetermined threshold value, the first gain coefficient R N of acquisition period P N, the correction of G N, and B N It is preferable not to do so.
  • the first gain factor used for the first gain coefficient R N, G N, and B N and the first image signal included in the first image signal group of acquisition period P N-2 of the acquisition period P N R N-2, G N- 2, and the difference between B N-2 is, in the case of more than a predetermined threshold value, the first gain coefficient R N of acquisition period P N, the correction of G N, and B N It is preferable not to do so.
  • the case of being equal to or less than the preset threshold value is, for example, the case where the image signal has an abnormal pixel portion such as a dead zone.
  • the dead zone is a portion of the acquired image that the illumination light does not reach, a portion outside the lens, or the like.
  • the case of being equal to or more than the preset threshold is, for example, a case where the image signal includes an abnormal pixel portion such as halation. The abnormal pixel portion of these image signals is detected by the detection unit 69.
  • the light source controller 21 emits each illumination light with the preset light amount ratio, but controls the light amount ratio based on the first gain coefficient or the second gain coefficient.
  • Each illumination light may be emitted. That is, the first illumination light includes violet light, blue light, green light, and red light, the second illumination light includes violet light, blue light, green light, and red light, and the light source control unit 21
  • the light emission amounts of the respective colors included in the first illumination light and the second illumination light may be controlled based on the first gain coefficient or the second gain coefficient.
  • the light source control unit 21 emits the first illumination light having a light intensity ratio of Vs1:Bs1:Gs1:Rs1 among the violet light V, the blue light B, the green light G, and the red light R for the first illumination light.
  • the LEDs 20a to 20d are controlled.
  • the R signal value of the first image, the G signal value of the first image, and the B signal value of the first image are obtained.
  • the corrected first gain coefficients are AR 1 , AG 1 , and AB 1 , respectively. If the calculated gain processing each corrected first gain coefficient in the first image signal value as it is not AR N, AG N, so that the R signal value of the values combined by multiplying the AB N, the first illumination light
  • the light intensity ratio may be controlled.
  • the G signal value of the first image and the B signal value of the first image the light intensity ratio of the first illumination light can be similarly controlled.
  • the light source control unit 21 When the light emission amount controlled based on the corrected first gain coefficient or the corrected second gain coefficient as described above is less than or equal to a specific threshold value, the light source control unit 21 emits light up to a preset minimum light emission amount. It is preferred to increase the amount. For example, the light source control unit 21 controls the light emission amount so that the image signal value subjected to the white balance processing by the first gain coefficient becomes the same image signal value when the white balance processing is not performed. The amount of light emission at this time is compared with a specific threshold value.
  • the light source control unit 21 adjusts the light amount ratio to perform the gain process, noise may be generated in the processed image. However, this suppresses the generation of noise due to the gain process. It is possible to obtain an image with adjusted color tone, or brightness.
  • the first illumination light has a center wavelength or a peak wavelength as shown in FIG. 21, instead of including the violet light V, the blue light B, the green light G, and the red light R.
  • the first red narrow band light NR1 of 560 to 580 nm may be included in the first illumination light.
  • a second wavelength having a central wavelength or a peak wavelength of 630 to 670 nm is used.
  • the red narrow band light NR2 may be included.
  • the first red signal (first specific color signal) of the specific biological tissue corresponding to at least the specific biological tissue in the first image signal obtained by imaging the first red narrowband light NR1 on the observation target.
  • the first red narrowband light NR1 and the second red narrowband light NR2 have sensitivity to the R pixel of the image sensor 48, respectively.
  • the hardware structure of the processing unit included in the processor device 16 is the following various processors.
  • CPUs Central Processing Units
  • GPUs Graphics Processing Units
  • FPGAs Field Programmable Gate Arrays
  • a processor with a circuit configuration designed to execute specific processing such as a programmable logic device (PLD) or an ASIC (Application Specific Integrated Circuit), which is a processor whose circuit configuration can be changed after manufacturing It includes a dedicated electric circuit.
  • PLD programmable logic device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be configured by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of CPUs and FPGAs, a GPU). CPU combination). Further, the plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units by one processor, firstly, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which this processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a processor that realizes the functions of the entire system including a plurality of processing units by one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above various processors as a hardware structure.
  • the hardware-like structure of these various processors is more specifically an electrical circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the present invention can be applied to a processor device incorporated in an endoscope system as in the above embodiment, a processor device incorporated in a capsule endoscope system, or various medical image processing devices. Is possible.
  • a processor device of an endoscope system including a light source unit that emits first illumination light and second illumination light having an emission spectrum different from that of the first illumination light, A control for automatically switching between the first illumination light and the second illumination light to perform light emission is performed, and the light emission period for emitting the first illumination light and the light emission period for emitting the second illumination light are each at least one frame or more.
  • a second image signal group including a second image signal obtained by imaging the captured subject White balance processing is performed by multiplying the first image signal by the first gain coefficient and the second image signal by the second gain coefficient
  • the white balance unit is a processor device that performs white balance processing using a corrected gain coefficient obtained by correcting at least one of the first gain coefficient and the second gain coefficient.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)

Abstract

複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合において、被写体の変化に合わせて、各画像の色味を揃えつつ、各画像の違いを可視化することができる内視鏡システムを提供する。 内視鏡システムは、光源部(14)と、光源制御部(21)と、画像取得部(52)と、ホワイトバランス部(55)と、補正係数算出部(56)とを備える。ホワイトバランス部(55)は、第1画像信号には第1ゲイン係数をかけ、第2画像信号には第2ゲイン係数をかけて、また、第1ゲイン係数および第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いてホワイトバランス処理を行う。

Description

内視鏡システム
 本発明は、複数種類の画像を切り替えて表示する内視鏡システムに関する。
 近年の医療分野では、光源装置、内視鏡、プロセッサ装置を備える内視鏡システムが広く用いられている。内視鏡システムでは、内視鏡から観察対象に照明光を照射し、その照明光で照明中の観察対象を内視鏡の撮像素子で撮像して得られるRGB画像信号に基づいて、観察対象の画像をモニタ上に表示する。
 また、近年では、診断の目的に応じて、互いに波長域が異なる複数の照明光を観察対象に照明することが行われている。例えば、特許文献1では、ピーク波長が422nmのNB1光と、ピーク波長が460~470nmのNB2光との2つの青色の狭帯域光を交互に照明することによって、観察対象に含まれる血管中の酸素飽和度を取得することが記載されている。また、特許文献2では、B1領域(第1のB領域:390nmから440nm)にピークを有する光と、B2領域(第2のB領域:440nmから490nm)にピークを有する光とを観察対象に照明し、B1領域の光及びB2領域の光の両方に感度を有するB画素を含む撮像素子によって撮像を行うことにより、表層血管の解像情報を得ることが記載されている。また、特許文献3には、中心波長405nmの紫色光、中心波長445nmの青色レーザ光、及び青色レーザ光によって励起発光する励起発光を用いて、生体組織の所望の組織情報を、診断に適したより明瞭な状態で取得することが記載されている。
特開2015-173737号公報 国際公開第2016/080130号 特開2017-185258号公報
 近年では、内視鏡分野においては、背景粘膜以外の生体情報、例えば、深さが異なる血管や深さ、高さが異なる腺管構造などに着目する診断が行われている。このような診断においては、ユーザーに対して、背景粘膜以外の複数の情報をそれぞれ把握できるように表示する必要がある。このような複数の情報をそれぞれ表示する方法として、生体組織への深達度が異なる複数波長の光を自動で周期的に切り替えて照明し、それらの照明によって得られる複数の画像を切り替えて表示する方法が考えられる。例えば、表層血管など表層の情報と深層血管など深層の情報を得るためには、表層にまで深達度を有する短波光と深層にまで深達度を有する中波長光を切り替えて照明し、短波光の照明により得られる表層画像と中波長光の照明により得られる深層画像とを切り替えて表示する。このような切替表示を行うことにより、表層画像と深層画像の差分が表示されるため、異なる生体情報を分離して表示することができる。したがって、表層情報と深層情報との異なる生体情報を把握することができる。
 しかしながら、短波光と中波長光を切り替えて照明した場合には、表層画像の信号値と深層画像の信号値とが大きく異なると、表層画像と深層画像とで画像全体の色味が大きく異なる。したがって、例えば、短波項と中波長光とを自動で切替えて照明した場合には、色味が違う画像が自動で切り替えられて表示されるため、見づらい画面となるおそれがある。また、診断時に注目する表層情報及び深層情報の視認性が低下するおそれがある。
 これらを防ぐために、オートホワイトバランスのように、基準の色に常に色調を合わせると、正常粘膜と炎症を伴う粘膜とが同じ色調となり、正しい診断ができないおそれがある。また、あらかじめ、粘膜等による標準的な被写体を仮定し、複数波長の光で撮影した画像において、色調、および明るさが同等となるように、例えば、各波長の光に対して、予め設定した異なるゲイン係数によりホワイトバランス処理等を行うことにより対応することが考えられる。しかしながら、このように対応した場合であっても、観察部位の違い、個人差、炎症等の疾患の有無、または色素散布の有無等の被写体の変化により、標準的な被写体と分光反射率が異なり、複数波長の光で撮影したそれぞれの画像の明るさ、色調等が大きく異なるために、目的とする生体情報の差が認識しにくいとの問題が生じるおそれがある。
 本発明は、複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合において、被写体の変化に合わせて、各画像の明るさ、色調等を揃えつつ、各画像の違いを認識しやすい内視鏡システムを提供することを目的とする。
 本発明の内視鏡システムは、光源部と、光源制御部と、画像取得部と、ホワイトバランス部とを備える。光源部は、第1照明光と、第1照明光とは異なる発光スペクトルを有する第2照明光とを発光する。光源制御部は、第1照明光と第2照明光とを自動的に切り替えて発光する制御を行う光源制御部であって、第1照明光を発光する発光期間と第2照明光を発光する発光期間は、それぞれ少なくとも1フレーム以上の発光期間である。画像取得部は、第1照明光の発光期間において第1照明光により照明された被写体を撮像して得られる第1画像信号を含む第1画像信号群と、第2照明光の発光期間において第2照明光により照明された被写体を撮像して得られる第2画像信号を含む第2画像信号群とを取得する。ホワイトバランス部は、第1画像信号に第1ゲイン係数をかけ合わせ、第2画像信号に第2ゲイン係数をかけ合わせてホワイトバランス処理を行う。ホワイトバランス部は、第1ゲイン係数と第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いて、ホワイトバランス処理を行う。
 ホワイトバランス部は、補正無しの固定の第2ゲイン係数を用いて、ホワイトバランス処理を行うことが好ましい。
 第1画像信号または第2画像信号は、青色信号、赤色信号、及び緑色成分を含み、第1画像の信号値または第2画像の信号値は、青色信号値、赤色信号値、及び緑色信号値からなることが好ましい。
 ホワイトバランス部は、第1ゲイン係数または第2ゲイン係数を、青色信号値、赤色信号値、及び緑色信号値のそれぞれについて定めることが好ましい。
 第1ゲイン係数を補正する場合において、取得期間P(Nは整数)の第1画像信号群に含まれる第1画像信号に対して用いる取得期間Pの第1ゲイン係数は、取得期間Pの直前の取得期間PN-2の第1画像信号に対して用いた取得期間PN-2の第1ゲイン係数を補正した補正第1ゲイン係数であることが好ましい。
 第1ゲイン係数を補正する場合において、取得期間Pよりも前の複数の取得期間PN-K(Kは2以上の偶数)の第1画像信号群に含まれる第1画像信号に対して用いる複数の取得期間PN-Kの第1ゲイン係数は、少なくとも一部はそれぞれ補正された補正ゲイン係数であり、取得期間Pの第1画像信号群に含まれる第1画像信号に対して用いる取得期間Pの第1ゲイン係数は、複数の取得期間PN-Kの第1ゲイン係数に対して、それぞれ重み付け係数をかけて加算された値であり、重み付け係数は、取得期間Pに近いほど大きいことが好ましい。
 複数の取得期間PN-Kの第1ゲイン係数は、各取得期間PN-Kにおいてホワイトバランス処理で用いられていることが好ましい。
 第1ゲイン係数または第2ゲイン係数の補正には、第1ゲイン係数および第2ゲイン係数のうち少なくとも一方を補正するための補正係数が用いられ、補正係数は、第1画像信号群に基づく演算により得られる第1演算値と、第2画像信号群に基づく演算により得られる第2演算値とを用いて算出することが好ましい。
 第1演算値は、第1画像信号群に含まれる第1画像信号において、第1画像信号の信号値を平均して得られる第1画像信号値平均のそれぞれを加算平均して得られ、第2演算値は、第2画像信号群に含まれる第2画像信号において、第2画像信号の信号値を平均して得られる第2画像信号値平均のそれぞれを加算平均して得られることが好ましい。
 第1画像信号または第2画像信号において、血管または病変部分の画像信号を検出して異常画像信号とする検出部を備え、第1画像信号値平均または第2画像信号値平均は、それぞれ異常画像信号以外の第1画像信号の信号値また記第2画像信号の信号値を用いることにより得られることが好ましい。
 第1画像信号または第2画像信号において、異常画素部分の画像信号を検出して異常画像信号とする検出部を備え、第1画像信号値平均または第2画像信号値平均は、それぞれ異常画像信号以外の第1画像信号の信号値または第2画像信号の信号値を用いることにより得られることが好ましい。
 補正係数は、第1演算値と第2演算値の比であることが好ましい。
 取得期間Pの第1ゲイン係数は、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数に、取得期間PN-2における第1演算値と取得期間PN-1における第2演算値との比の値をかけ合わせた値であることが好ましい。
 取得期間Pの第1ゲイン係数と、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数との差が、予め設定した閾値以下の場合は、取得期間Pの第1ゲイン係数の補正を行わないことが好ましい。
 取得期間Pの第1ゲイン係数と、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数との差が、予め設定した閾値以上の場合は、取得期間Pの第1ゲイン係数の補正を行わないことが好ましい。
 第1照明光は、紫色光、緑色光、及び赤色光を含み、第2照明光は、青色光、緑色光及び赤色光を含み、光源制御部は、第1照明光と第2照明光とが含む各色のそれぞれの発光量を、第1ゲイン係数または第2ゲイン係数に基づいて制御することが好ましい。
 光源制御部は、第1ゲイン係数または第2ゲイン係数に基づいて制御された発光量が、特定の閾値以下である場合、予め設定された最低発光量まで発光量を増加させることが好ましい。
 画像処理部は、第1画像信号により第1表示用観察画像を生成し、かつ、第2画像信号により第2表示用観察画像を生成し、第1表示用観察画像は表層血管が強調されており、第2表示用観察画像は表層血管よりも深い位置にある中深層血管が強調されていることが好ましい。
 本発明によれば、複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合において、被写体の変化に合わせて、各画像の明るさ、色調等を揃えつつ、各画像の違いを認識しやすい内視鏡システムを提供することができる。
内視鏡システムの外観図である。 内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、緑色光G、及び赤色光Rの発光スペクトルを示すグラフである。 紫色光V、青色光B、緑色光G、及び赤色光Rを含む第1照明光の発光スペクトルを示すグラフである。 紫色光V、青色光B、緑色光G、及び赤色光Rを含む第2照明光の発光スペクトルを示すグラフである。 第1照明光の発光期間と第2照明光の発光期間を示す説明図である。 発光期間設定メニューを示す説明図である。 撮像センサに設けられたBフィルタ、Gフィルタ、Rフィルタの分光透過率である。 第1画像信号群および第2画像信号群の取得について、時系列により説明する説明図である。 DSPの機能を示すブロック図である。 特殊画像処理部の機能を示すブロック図である。 第1特殊観察画像(第1画像)を示す画像図である。 第1照明光を照明した場合に得られる紫及び青色光画像と緑及び赤色光画像を示す説明図である。 第2特殊観察画像(第2画像)を示す画像図である。 第2照明光を照明した場合に得られる紫及び青色光画像と緑及び赤色光画像を示す説明図である。 取得期間Pにおける補正第1ゲイン係数の一例を説明する説明図である。 取得期間Pにおける補正第1ゲイン係数の別の一例を説明する説明図である。 第1画像信号値平均及び第2画像信号値平均を説明する説明図である。 補正係数の一例を説明する説明図である。 補正係数の別の一例を説明する説明図である。 第1赤色狭帯域光を含む第1照明光の発光スペクトルを示すグラフである。 第2赤色狭帯域光を含む第2照明光の発光スペクトルを示すグラフである。
 図1に示すように、本実施形態の内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18(表示部)と、ユーザーインターフェース19とを有する。内視鏡12は光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられる湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作に伴って、先端部12dが所望の方向に向けられる。なお、ユーザーインターフェース19は図示したキーボードの他、マウスなどが含まれる。
 また、操作部12bには、アングルノブ12eの他、モード切替SW13a、静止画取得指示部13bが設けられている。モード切替SW13aは、通常観察モードと、第1特殊観察モードと、第2特殊観察モードと、マルチ観察モードとの切替操作に用いられる。通常観察モードは、通常画像をモニタ18上に表示するモードである。第1特殊観察モードは、表層血管などの表層情報を強調した第1特殊観察画像をモニタ18上に表示するモードである。第2特殊観察モードは、深層血管などの深層情報を強調した第2特殊観察画像をモニタ18上に表示するモードである。マルチ観察モードは、第1特殊観察画像(以下、第1画像という)と第2特殊観察画像(以下、第2画像という)とを自動的に切り替えてモニタ18に表示するモードである。なお、モードを切り替えるためには、モード切替SW13aの他に、フットスイッチ等を用いてもよい。
 プロセッサ装置16は、モニタ18及びユーザーインターフェース19と電気的に接続される。モニタ18は、画像情報等を出力表示する。ユーザーインターフェース19は、機能設定等の入力操作を受け付けるUI(User Interface:ユーザーインターフェース)として機能する。なお、プロセッサ装置16には、画像情報等を記録する外付けの記録部(図示省略)を接続してもよい。
 図2に示すように、光源装置14は、光源部20と、光源制御部21と、光路結合部23と、発光期間設定部24とを有している。光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、R-LED(Red Light Emitting Diode)20dを有している。光源制御部21は、LED20a~20dの駆動を制御する。光路結合部23は、4色のLED20a~20dから発せられる4色の光の光路を結合する。光路結合部23で結合された光は、挿入部12a内に挿通されたライトガイド41及び照明レンズ45を介して、被検体内に照射される。なお、LEDの代わりに、LD(Laser Diode)を用いてもよい。発光期間設定部24は、複数の照明光のそれぞれの発光期間を設定する。
 図3に示すように、V-LED20aは、中心波長405±10nm、波長範囲380~420nmの紫色光Vを発生する。B-LED20bは、中心波長460±10nm、波長範囲420~500nmの青色光Bを発生する。G-LED20cは、波長範囲が480~600nmに及ぶ緑色光Gを発生する。R-LED20dは、中心波長620~630nmで、波長範囲が600~650nmに及ぶ赤色光Rを発生する。
 光源制御部21は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを制御する。また、光源制御部21は、通常観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVc:Bc:Gc:Rcとなる通常光を発光するように、各LED20a~20dを制御する。
 また、光源制御部21は、第1特殊観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVs1:Bs1:Gs1:Rs1となる第1照明光を発光するように、各LED20a~20dを制御する。光強度比Vs1:Bs1:Gs1:Rs1は、第1照明光の光量条件に対応する。第1照明光は、表層血管を強調することが好ましい。そのため、第1照明光は、紫色光Vの光強度を青色光Bの光強度よりも大きくすることが好ましい。例えば、図4に示すように、紫色光Vの光強度Vs1と青色光Bの光強度Bs1との比率を「4:1」とする。
 なお、本明細書において、光強度比は、少なくとも1つの半導体光源の比率が0(ゼロ)の場合を含む。したがって、各半導体光源のいずれか1つまたは2つ以上が点灯しない場合を含む。例えば、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比が1:0:0:0の場合のように、半導体光源の1つのみを点灯し、他の3つは点灯しない場合も、光強度比を有するものとする。
 また、光源制御部21は、第2特殊観察モード時には、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVs2:Bs2:Gs2:Rs2となる第2照明光を発光するように、各LED20a~20dを制御する。光強度比Vs2:Bs2:Gs2:Rs2は、第2照明光の光量条件に対応する。第2照明光は、深層血管を強調することが好ましいい。そのため、第2照明光は、青色光Bの光強度を紫色光Vの光強度よりも大きくすることが好ましい。例えば、図5に示すように、紫色光Vの光強度Vs2と青色光Bの光強度Bs2との比率を「1:3」とする。
 光源制御部21は、マルチ観察モードに設定されている場合には、第1照明光と第2照明光とをそれぞれ第1期間と第2期間の発光期間にて発光し、且つ、第1照明光と第2照明光とを自動的に切り替えて発光する制御を行う。第1期間と第2期間とは、それぞれ少なくとも1フレーム以上の発光期間を有する。
 より具体的には、例えば、図6に示すように、光源制御部21は、第1期間を4フレームとし、第2期間を4フレームとした場合、第1照明光が4フレーム続けて発光した後に、第2照明光が4フレーム続けて発光される。そして、この発光パターンを繰り返し行う。
 なお、「フレーム」とは、観察対象を撮像する撮像センサ48(図2参照)を制御するための単位をいい、例えば、「1フレーム」とは、観察対象からの光で撮像センサ48を露光する露光期間と画像信号を読み出す読出期間とを少なくとも含む期間のことをいう。本実施形態においては、撮像の単位である「フレーム」に対応して第1期間または第2期間がそれぞれ定められている。
 第1照明光の発光期間である第1期間と第2照明光の発光期間である第2期間は、光源制御部21に接続された発光期間設定部24によって、適宜変更が可能である。ユーザーインターフェース19の操作により、発光期間の変更操作を受け付けると、発光期間設定部24は、図7に示すような発光期間設定メニューをモニタ18上に表示する。第1期間は、例えば、2フレームから10フレームの間で変更可能である。各発光期間については、スライドバー26a上に割り当てられている。
 第1期間を変更する場合には、ユーザーインターフェース19を操作して、スライドバー26a上の変更したい発光期間を示す位置にスライダ27aを合わせることで、第1期間が変更される。第2期間についても、ユーザーインターフェース19を操作して、スライドバー26b上の変更したい発光期間を示す位置にスライダ27bを合わせることで、第2期間が変更される。なお、スライドバー26bも、例えば、2フレームから10フレームの発光期間が割り当てられている。
 図2に示すように、ライトガイド41は、内視鏡12及びユニバーサルコード(内視鏡12と光源装置14及びプロセッサ装置16とを接続するコード)内に内蔵されており、光路結合部23で結合された光を内視鏡12の先端部12dまで伝搬する。なお、ライトガイド41としては、マルチモードファイバを使用することができる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは照明レンズ45を有しており、この照明レンズ45を介して、ライトガイド41からの光が観察対象に照射される。撮像光学系30bは、対物レンズ46及び撮像センサ48を有している。観察対象からの反射光は、対物レンズ46を介して、撮像センサ48に入射する。これにより、撮像センサ48に観察対象の反射像が結像される。
 撮像センサ48はカラーの撮像センサであり、被検体の反射像を撮像して画像信号を出力する。この撮像センサ48は、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等であることが好ましい。本発明で用いられる撮像センサ48は、R(赤)、G(緑)及びB(青)の3色のRGB画像信号を得るためのカラーの撮像センサ、即ち、Rフィルタが設けられたR画素、Gフィルタが設けられたG画素、Bフィルタが設けられたB画素を備えた、いわゆるRGB撮像センサである。
 図8に示すように、Bフィルタ48bは、紫色帯域の光、青色帯域の光、及び緑色帯域の光のうち短波側の光を透過させる。Gフィルタ48gは、緑色帯域の光、青色帯域の光の長波側の光、及び赤色帯域の光の短波側の光を透過させる。Rフィルタ48rは、赤色帯域の光、緑色帯域の長波側の光を透過させる。したがって、撮像センサ48のうち、B画素は紫色光V及び青色光Bに感度を有し、G画素は青色光B、緑色光G、及び赤色光Rに感度を有し、R画素は緑色光G及び赤色光Rに感度を有している。
 なお、撮像センサ48としては、RGBのカラーの撮像センサの代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた、いわゆる補色撮像センサであっても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号が出力されるため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換する必要がある。また、撮像センサ48はカラーフィルタを設けていないモノクロ撮像センサであっても良い。この場合、光源制御部21は青色光B、緑色光G、及び赤色光Rを時分割で点灯させて、撮像信号の処理では同時化処理を加える必要がある。
 図2に示すように、撮像センサ48から出力される画像信号は、CDS/AGC回路50に送信される。CDS/AGC回路50は、アナログ信号である画像信号に相関二重サンプリング(CDS(Correlated Double Sampling))や自動利得制御(AGC(Auto Gain Control))を行う。CDS/AGC回路50を経た画像信号は、A/D変換器(A/D(Analog /Digital)コンバータ)52により、デジタル画像信号に変換される。A/D変換されたデジタル画像信号は、プロセッサ装置16に入力される。
 プロセッサ装置16は、画像取得部52と、DSP(Digital Signal Processor)54と、ノイズ除去部58と、信号切替部60と、通常観察画像処理部62と、特殊観察画像処理部63と、表示制御部64と、静止画保存部65と、静止画保存制御部66とを備えている。
 画像取得部52は、内視鏡12において観察対象を撮像することにより得られた観察画像を取得する。具体的には、観察画像として、内視鏡12からのデジタルのカラー画像信号が画像取得部52に入力される。カラー画像信号は、撮像センサ48のR画素から出力される赤色信号と、撮像センサ48のG画素から出力される緑色信号と、撮像センサ48のB画素から出力される青色信号とから構成される。
 図9に示すように、画像取得部52は、第1期間PL1において第1画像信号群を取得する。第1画像信号群は、第1期間PL1において第1照明光L1により照明された被写体を撮像した複数の第1画像信号SP1を含む。また、画像取得部52は、第2期間PL2において第2画像信号群を取得する。第2画像信号群は、第2期間PL2において第2照明光L2により照明された被写体を撮像した複数の第2画像信号SP2を含む。本実施形態では、マルチ観察モードに設定されている場合には、光源制御部21は、第1照明光L1と第2照明光L2とをそれぞれ第1期間PL1と第2期間PL2の発光期間にて発光し、且つ、第1照明光L1と第2照明光L2とを自動的に切り替えて発光する制御を行うため、画像取得部52は、時間の経過により、第1画像信号群、第2画像信号群の順に、周期的に画像を取得する。
 第1期間PL1と第2期間PL2とは、それぞれ少なくとも1フレーム以上の発光期間を有するため、第1画像信号群と第2画像信号群とは、それぞれ少なくとも1つ以上の第1画像信号SP1と第2画像信号SP2とを含む。本実施形態では、第1期間PL1と第2期間PL2とは、どちらも4フレームの発光期間である。したがって、第1期間PL1では、4つの第1画像信号SP1を含む第1画像信号群が取得され、第2期間PL2では、4つの第2画像信号SP2を含む第2画像信号群が取得される。
 DSP56は、受信した画像信号に対して、欠陥補正処理、オフセット処理、ホワイトバランス処理、リニアマトリクス処理、ガンマ変換処理、又はデモザイク処理等の各種信号処理を施す。また、図10に示すように、DSP54は、ホワイトバランス部55を備える。また、ホワイトバランス部55は、補正係数算出部56を備える。
 欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施された画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ホワイトバランス部55は、第1画像信号に第1ゲイン係数をかけ合わせて、また、第2画像信号に第2ゲイン係数をかけ合わせて、ホワイトバランス処理を行う。第1ゲイン係数とは、第1画像信号にかけ合わせるゲイン係数を、また、第2ゲイン係数とは、第2画像信号にかけ合わせるゲイン係数を意味する。ホワイトバランス処理では、オフセット処理後の画像信号にゲインを乗じることにより信号レベルが整えられる。補正係数算出部56は、第1ゲイン係数および第2ゲイン係数のうち少なくとも一方を補正するための補正係数を算出する。ホワイトバランス処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。リニアマトリクス処理後の画像信号には、デモザイク処理(等方化処理、同時化処理とも言う)が施され、各画素で不足した色の信号が補間によって生成される。このデモザイク処理によって、全画素が各色の信号を有するようになる。
 ノイズ除去部58は、DSP56でガンマ補正等が施された画像信号に対してノイズ除去処理(例えば移動平均法やメディアンフィルタ法等)を施すことによって、画像信号からノイズを除去する。ノイズが除去された画像信号は、信号切替部60に送信される。
 信号切替部60は、モード切替SW13aにより、通常観察モードにセットされている場合には、通常光の照明及び撮像で得られた通常光用画像信号を通常観察画像処理部62に送信する。図11に示すように、特殊観察画像処理部63は、第1特殊観察画像処理部67、第2特殊観察画像処理部68、及び検出部69を含む。そして、第1特殊観察モードにセットされている場合には、第1照明光の照明及び撮像で得られた第1画像信号を第1特殊観察画像処理部67に送信する。第1画像信号には、撮像センサのR画素から出力される第1赤色信号と、撮像センサ48のG画素から出力される第1緑色信号と、撮像センサ48のB画素から出力される第1青色信号が含まれる。また、第2特殊観察モードにセットされている場合には、第2照明光の照明及び撮像で得られた第2画像信号を第2特殊観察画像処理部63に送信する。第2画像信号には、撮像センサのR画素から出力される第2赤色信号と、撮像センサ48のG画素から出力される第2緑色信号と、撮像センサ48のB画素から出力される第2青色信号が含まれる。また、マルチ観察モードにセットされている場合には、第1照明光の照明及び撮像で得られた第1画像信号は第1特殊観察画像処理部67に送信され、第2照明光の照明及び撮像で得られた第2画像信号は第2特殊観察画像処理部63に送信される。
 通常観察画像処理部62は、通常観察モード時に得られたRGB画像信号に対して、通常画像用の画像処理を施す。通常画像用の画像処理には、通常画像用の構造強調処理などが含まれる。通常観察画像処理部62では、通常画像用の画像処理を行うために、RGB画像信号に対して掛け合わされる通常画像用パラメータが設けられている。通常画像用の画像処理が施されたRGB画像信号は、通常画像として、通常観察画像処理部62から表示制御部64に入力される。
 第1特殊観察画像処理部67は、第1画像信号に基づいて、彩度強調処理、色相強調処理、及び構造強調処理などの画像処理が行われた第1画像を生成する。第1画像では、表層血管が多く含まれているとともに、背景粘膜の色も正確に再現されている。第1特殊観察画像処理部67では、第1画像の画像処理を行うために、第1画像信号に対して掛け合わされる第1画像用のパラメータが設けられている。なお、第1特殊観察画像処理部67では、表層血管を強調する表層血管強調処理は行わないが、処理負荷の状況によっては、表層血管強調処理を行うようにしてもよい。
 第1画像により、図12に示すように、観察対象のうち背景粘膜BM、及び、表層血管VS1が表された画像が表示される。第1画像は、紫色光、青色光、緑色光、及び赤色光を含む第1照明光に基づいて得られる。図13に示すように、第1照明光L1が観察対象に照明されると、第1照明光L1のうち紫色光及び青色光V/Bは、表層血管VS1が分布する表層にまで深達する。なお、図13において、紙面上方から第1照明光L1が観察対象に照明され、紙面下方が観察対象の深さ方向Dである。第1照明光では紫色光Vの光強度が青色光B、緑色光G、及び赤色光Rの光強度より強いため、紫色光Vの反射光に基づいて得られる紫色光画像VPに含まれる表層血管VS1の像が強調される。なお、ここでは、紫色光Vの光強度が青色光B、緑色光G、及び赤色光Rの光強度より強いことから、紫色光画像VPとする。また、第1照明光L1のうち赤色光Rは、表層血管VS1及び深層血管VS2(表層血管VS1よりも深い位置にある血管)よりもさらに深い位置に分布する背景粘膜BMにまで深達する。したがって、赤色光Rの反射光に基づいて得られる赤色光画像RPには、背景粘膜BMの像が含まれる。以上から、第1画像は紫色光画像VPと赤色光画像RPを組み合わせた画像であるため、背景粘膜BM及び表層血管VS1の像が表示される。
 第2特殊観察画像処理部68は、第2画像信号に基づいて、彩度強調処理、色相強調処理、及び構造強調処理などの画像処理が行われた第2画像を生成する。第2画像では、深層血管が多く含まれているとともに、背景粘膜の色も正確に再現されている。第2特殊観察画像処理部68では、第2画像の画像処理を行うために、第2画像信号に対して掛け合わされる第2画像用のパラメータが設けられている。なお、第2特殊観察画像処理部68では、深層血管を強調する表層血管強調処理は行わないが、処理負荷の状況によっては、深層血管強調処理を行うようにしてもよい。
 第2画像により、図14に示すように、観察対象のうち背景粘膜BM、及び、深層血管VS2が表された画像が表示される。第2画像は、紫色光V、青色光B、緑色光G、及び赤色光Rを含む第2照明光に基づいて得られる。図15に示すように、第2照明光L2のうち緑色光Gは、深層血管VS2が分布する深層にまで深達する。なお、図14において、紙面上方から第1照明光L1が観察対象に照明され、紙面下方が観察対象の深さ方向Dである。第2照明光L2では緑色光Gの光強度が青色光B、緑色光G、及び赤色光Rの光強度より強いので、緑色光Gの反射光に基づいて得られる緑色光画像GPに含まれる深層血管VS2の像が強調される。なお、ここでは、緑色光Gの光強度が強いことから、緑色光画像GPとする。また、第2照明光L2のうち赤色光Rは、表層血管VS1及び深層血管VS2(表層血管VS1よりも深い位置にある血管)よりもさらに深い位置に分布する背景粘膜BMにまで深達する。したがって、赤色光Rの反射光に基づいて得られる赤色光画像RPには、背景粘膜BMの像が含まれる。以上から、第2画像は赤色光画像RPを組み合わせた画像であるため、背景粘膜BM及び深層血管VS2の像が表示される。
 以上のように、本実施形態では、第1画像信号により第1特殊観察画像を生成し、かつ、第2画像信号により第2特殊観察画像を生成し、第1特殊観察画像は表層血管が強調されており、第2特殊観察画像は表層血管よりも深い位置にある中深層血管が強調されることが好ましい。
 検出部69は、通常画像、第1画像及び第2画像により、血管または病変を検出する。上記のとおり、第1画像は、表層血管VS1が表された画像であり、第2画像は、深層血管VS2が表された画像であるため、画像処理により、これらの血管を検出することができる。また、検出部69は、第1画像または第2画像における異常部分を検出し、異常画像信号とする。血管または病変の検出結果は、ホワイトバランス部55または光源制御部21に送られる。
 表示制御部64は、通常観察画像処理部62または特殊観察画像処理部63から入力された通常画像、第1画像、および/または第2画像を、モニタ18で表示可能な画像として表示するための制御を行う。表示制御部64による制御によって、各観察モードに応じた画像が表示される。通常観察モードの場合には、通常画像がモニタ18に表示される。また、第1特殊観察モードの場合には、第1画像(図12参照)がモニタ18に表示される。また、第2特殊観察モードの場合には、第2画像(図14参照)がモニタ18に表示される。
 また、マルチ観察モードの場合には、第1照明光の発光期間と第2照明光の発光期間に合わせて、カラーの第1画像と第2画像が切り替えてモニタ18に表示される。即ち、第1期間が4フレームで、第2期間が4フレームである場合には、第1表示用観察画像が4フレーム続けて表示され、かつ、第2表示用観察画像が4フレーム続けて表示される。
 以上のように、マルチ観察モードにおいては、ユーザーによるモード切替SW13aの操作を行うことなく、2種類の第1画像と第2画像を自動的に切り替えて表示することができる。このように自動的に切り替えて表示することで、観察対象に動き又は内視鏡12の先端部12dに動きが無い限り、第1画像と第2画像とでは同一の観察対象が表示される。ただし、第1画像と第2画像とでは同一の観察対象であっても、それぞれ分光情報が異なっているため、分光情報の違いにより観察対象の見え方は異なっている。即ち、第1画像では表層血管の視認性が高くなっている一方、第2画像では深層血管の視認性が高くなっている。したがって、第1画像と第2画像とを切り替えて表示することによって、深さが異なる複数の血管に対する視認性の向上を図ることができる。
 なお、本実施形態では、通常観察モード、第1特殊観察モード、第2特殊観察モード、及び、第1特殊観察モードと第2特殊観察モードとを切替えるマルチ観察モードとを備えるが、通常観察モード、第1特殊観察モードと第2特殊観察モードとを切替えるマルチ観察モードに加え、これらの観察モードとは異なる複数の観察モードを備えても良い。この場合は、より多角的に被写体を観察することができる。
 静止画保存制御部66は、静止画取得指示部13bの指示に従って、その静止画取得指示のタイミングで得られた画像を静止画として静止画保存部65に保存する制御を行う。通常観察モードの場合であれば、静止画取得指示のタイミングで得られた通常画像を静止画として静止画保存部65に保存する。第1特殊観察モードの場合であれば、静止画取得指示のタイミングで得られた第1特殊観察画像を静止画として静止画保存部65に保存する。第2特殊観察モードの場合であれば、静止画取得指示のタイミングで得られた第2特殊観察画像を静止画として静止画保存部65に保存する。また、マルチ観察モードの場合であれば、静止画取得指示のタイミングで得られた第1特殊観察画像と第2特殊観察画像の1セットの表示用観察画像を静止画保存部65に保存する。
 次に、ホワイトバランス処理について、以下に詳説する。ホワイトバランス部55は、第1ゲイン係数と第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いて、ホワイトバランス処理を行う。第1ゲイン係数を補正した場合は、補正第1ゲイン係数を用い、また、第2ゲイン係数を補正した場合は、補正第2ゲイン係数を用いる。補正は、各種データを用いて算出した特定の係数をかけ合わせてもよい。算出については、その都度算出してもよいし、一定の期間を設定し、その期間毎に算出してもよい。
 したがって、ゲイン係数として、第1ゲイン係数と第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いるため、第1照明光による第1画像信号と第2照明光による第2画像信号とによる画像を切り替えて表示する場合において、被写体の変化に合わせて、各画像の明るさ、色調等を揃えつつ、各画像の違いを認識しやすい内視鏡システムを提供することができる。
 本実施形態では、ホワイトバランス部55は、補正なしの固定の第2ゲイン係数を用いて、ホワイトバランス処理を行う。この場合、第1ゲイン係数を補正する。これにより、第2画像信号の色調が変化して、例えば、第1画像信号と第2画像信号で、正常粘膜と炎症を伴う粘膜が同じ色調となることが避けられる。しかも、第1画像信号の色調は、第2画像信号の色調に合わせられる。したがって、第1画像信号と第2画像信号との違いを保ちつつ、例えば、正常粘膜と炎症を伴う粘膜等の色調の違いを保つことができ、より正しい診断を行うことができる。
 本実施形態では、第1画像信号または第2画像信号は、青色信号、赤色信号、及び緑色成分を含み、第1画像信号の信号値または第2画像信号の信号値は、青色信号値、赤色信号値、及び緑色信号値からなる。また、ホワイトバランス部55は、第1ゲイン係数または第2ゲイン係数を、青色信号値、赤色信号値、及び緑色信号値のそれぞれについて定める。
 本実施形態では、第1ゲイン係数を補正する場合において、ある取得期間P(Nは整数)の第1画像信号群に含まれる第1画像信号に対して用いる取得期間Pの第1ゲイン係数は、取得期間Pの直前の取得期間PN-2の第1画像信号に対して用いた第1ゲイン係数を補正した補正第1ゲイン係数ARを用いる。取得期間Pは、特定の第1期間PL1または第2期間PL2を指す。本実施形態では、Nが奇数の場合は、第1画像信号群を取得する取得期間であり、Nが偶数の場合は、第2画像信号群を取得する取得期間である。
 図16を用いて補正第1ゲイン係数ARを説明する。図16の矢印で示す任意の第1期間PL1である取得期間Pに対し、取得期間Pの直前の第2期間PL2を取得期間P、取得期間Pの直前の第1期間PL1を取得期間Pとする。取得期間Pの前は、取得期間P、取得期間P、取得期間Pの後は取得期間P、取得期間Pと、順に続く。取得期間Pに含まれる第1画像信号SP1の赤色信号値に対する第1ゲイン係数を第1ゲイン係数R、緑色信号値に対する第1ゲイン係数を第1ゲイン係数G、及び青色信号値に対する第1ゲイン係数を第1ゲイン係数Bとするので、取得期間Pに含まれる第1画像信号SP1の赤色信号値に対する第1ゲイン係数は、第1ゲイン係数R、緑色信号値に対する第1ゲイン係数は、第1ゲイン係数G、及び青色信号値に対する第1ゲイン係数は、第1ゲイン係数Bである。また、Nが奇数の場合の取得期間Pにおいて取得された画像信号が、第1画像信号SP1である。同様に、Nが偶数の場合の取得期間Pにおいて取得された画像信号が、第2画像信号SP2である。取得期間Pにおいて、Nが奇数の場合は第1画像信号群を取得する第1期間PL1であり、Nが偶数の場合は第2画像信号群を取得する第2期間PL2である。以下、主に赤色信号値に対する第1ゲイン係数Rを代表として説明を行うが、緑色信号値に対する第1ゲイン係数G、及び青色信号値に対する第1ゲイン係数Bについても同様である。
 第1ゲイン係数を補正する場合について説明する。例えば、N=5の場合、取得期間Pにおいて、赤色信号値については、図16の矢印に示すように、取得期間Pの第1画像信号群に含まれる第1画像信号SP1に対して用いる取得期間Pの第1ゲイン係数Rは、取得期間Pの直前の第1画像信号を取得する取得期間Pの第1画像信号に対して用いた第1ゲイン係数Rを補正した補正第1ゲイン係数ARを用いる。補正ゲイン係数ARは、ゲイン係数Rが補正されたものであることを示す。したがって、ゲイン係数Rとして補正されたゲイン係数Rを用いる場合は、ゲイン係数Rは補正ゲイン係数ARと同じである。
 上記したとおり、緑色信号値及び青色信号値についても、それぞれ同様である。したがって、緑色信号値については、取得期間Pの第1画像信号群に含まれる第1画像信号SP1に対して用いる取得期間Pの第1ゲイン係数Gは、取得期間Pの直前の第1画像信号を取得する取得期間Pの第1画像信号に対して用いた第1ゲイン係数Gを補正した補正第1ゲイン係数AGを用いる。また、青色信号値については、取得期間Pの第1画像信号群に含まれる第1画像信号SP1に対して用いる取得期間Pの第1ゲイン係数Bは、取得期間Pの直前の第1画像信号を取得する取得期間Pの第1画像信号に対して用いた第1ゲイン係数Bを補正した補正第1ゲイン係数ABを用いる。
 以上のように、取得期間Pに取得された第1画像信号SP1においては、複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合において、補正第1ゲイン係数AR、AG、及びABを用いるため、安定した色調および明るさの画像を得ることができる。
 本実施形態では、第1ゲイン係数Rの補正には、第1ゲイン係数Rを補正するための補正係数Wを用いる。補正係数Wは、第1画像信号群に基づく演算により得られる第1演算値と、第2画像信号群に基づく演算により得られる第2演算値とを用いて算出する。第1演算値は、第1画像信号群の信号値の代表値を表しており、第2演算値は、第2画像信号群の信号値の代表値を表す。補正係数Wは、第1演算値と第2演算値の比であることが好ましい。第1及び第2演算値と補正係数Wの詳細については後述する。なお、第2ゲイン係数の補正をする場合についても、同様の補正係数を用いて補正してもよい。
 赤色信号に対する第1ゲイン係数Rを補正するための補正係数をWr、緑色信号に対する第1ゲイン係数G、及び第1ゲイン係数Bの補正係数を、それぞれWg及びWbとする。取得期間Pの直前の取得期間PN-2の第1画像信号に対して用いた第1ゲイン係数RN-2、GN-2、BN-2に、補正係数Wr、Wg及びWbをかけ合わせることにより補正する場合の補正第1ゲイン係数AR、AG、ABは、以下の式(1)~(3)となる。
 AR=Wr*RN-2  (1)
 AG=Wg*GN-2  (2)
 AB=Wb*BN-2  (3)
 第1ゲイン係数Rの補正は上記のように行われるため、第1ゲイン係数Rが、第1画像信号群に基づく演算により得られる第1演算値、および第2画像信号群に基づく演算により得られる第2演算値を用いて算出した補正係数Wrで補正したものとなる。したがって、第2照明光L2による第2期間PL2と第1照明光L1による第1期間PL1とを、あわせて調整することとなるため、複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合に、被写体の変化に合わせて、各画像の色味を揃えつつ、各画像の違いを可視化することができる。
 また、本実施形態では、第1ゲイン係数Rを補正する場合において、すなわち、第1ゲイン係数として、補正の処理がされた補正第1ゲイン係数ARを用いる場合において、取得期間Pの直前の取得期間PN-2の第1画像信号に対して用いた第1ゲイン係数RN-2に加え、それより前の取得期間の第1ゲイン係数Rを用いて補正してもよい。
 より具体的には、取得期間Pの第1ゲイン係数Rは、複数の取得期間PN-Kの第1ゲイン係数RN-Kに対して、それぞれ重み付け係数をかけて加算した値としてもよい。Kは、2以上の偶数である。重み付け係数は、取得期間Pに近いほど大きくすることが好ましい。
 また、取得期間Pよりも前の複数の取得期間PN-Kの第1ゲイン係数RN-Kは、少なくとも一部はそれぞれ補正された補正第1ゲイン係数ARN-Kである。複数の取得期間PN-Kの第1ゲイン係数は、各取得期間PN-Kにおいてホワイトバランス処理で用いられている第1ゲイン係数であることが好ましい。したがって、この場合は、第1ゲイン係数RN-Kとして補正第1ゲイン係数ARN-Kを用いるため、第1ゲイン係数RN-Kと補正第1ゲイン係数ARN-Kとは等しい。なお、本実施形態では、取得期間Pよりも前の複数の取得期間PN-Kの第1ゲイン係数RN-Kは、それぞれすべて補正の処理がされた補正第1ゲイン係数ARN-Kであり、複数の取得期間PN-Kでは、ホワイトバランス処理で用いられている第1ゲイン係数RN-Kは、補正の処理がされた補正第1ゲイン係数ARN-Kである。
 このように第1ゲイン係数を補正する場合、例えば、取得期間Pにおいて、N=5の場合、赤色信号値については、図17の矢印に示すように、取得期間Pの第1画像信号群に含まれる第1画像信号SP1に対して用いる取得期間Pの第1ゲイン係数Rは、取得期間Pの直前の取得期間Pの第1画像信号SP1に対して用いた第1ゲイン係数である補正第1ゲイン係数ARと、取得期間Pの2回前の第1画像信号SP1に対して用いた第1ゲイン係数である補正第1ゲイン係数ARと、それ以前の第1画像信号SP1を取得する取得期間Pがあれば、それぞれの補正第1ゲイン係数ARと、複数の取得期間Pの補正第1ゲイン係数ARを用いる。用いる補正第1ゲイン係数ARの個数は特に制限されない。したがって、取得期間P以前については図示をしないが、例えば、取得期間Pの前に、取得期間P-1、P-3、…があれば、取得期間P-1、P-3、…の第1画像信号SP1に対して用いた補正第1ゲイン係数ARである第1ゲイン係数AR-1、AR-3…を用いる。
 重み付け係数については、取得期間Pに近いほど大きくすることが好ましい。ここで、重み付け係数をαとし、取得期間PN-Kの第1ゲイン係数RN-K(Kは2以上の偶数)について、取得期間PN-2の補正第1ゲイン係数ARN-2に対する重み付け係数をα、取得期間PN-4の補正第1ゲイン係数ARN-4に対する重み付け係数をαと、番号を順次付す。取得期間Pにおける第1ゲイン係数Rは、数式にすると、以下の式(4)及び(5)とすることができる。ここで、Nは整数、nは自然数である。
Figure JPOXMLDOC01-appb-M000001
 なお、重み付け係数は、以上のように付す場合、重み付け係数αを全て足すと1となるようにする。式(4)において、重み付け係数αは、取得時期Pに近い補正第1ゲイン係数ARN-Kほど重い係数をかけることができる。したがって、例えば、αを0.5とし、αを0.25、αを0.125、と0.5のn乗とする。したがって、αについては数式(5)とすることができる。
 本実施形態においては、例えば、取得期間Pの補正第1ゲイン係数ARを重み付け係数αの重みで、取得期間Pの補正第1ゲイン係数ARを重み付け係数αの重みで、取得期間P-1の補正第1ゲイン係数を重み付け係数αの重みでそれぞれ重み付けを行うとすると、αを0.5,αを0.25、αを0.125、α以下の重み付け係数を全て合わせると0.125、とするというように、取得期間Pに近いほど重み付け係数を大きくする。
 また、図17において、例えば、取得期間Pが最初の取得期間Pであるとすると、取得期間Pにおいて取得される第1画像信号SP1に対して用いられる第1ゲイン係数Rは、以下の式(6)となる。なお、αは0.5、αは0.5である。
Figure JPOXMLDOC01-appb-M000002
 
 以上のように、取得期間Rの第1画像信号SP1に用いる第1ゲイン係数Rを算出するために、1回前の取得期間PN-2の第1画像信号SP1に対するゲイン係数RN-2のみならず、それ以前の取得期間の複数の第1画像信号SP1に対するゲイン係数をも用いるため、急に色味または明るさが変化した被写体であってもゲイン係数が大きくかわることがなく、引き続いて同様の色味または明るさで観察することができる。したがって、複数の光を切り替えて照明し、各光の照明により得られる複数の画像を切り替えて表示する場合において、安定した色調および明るさの画像を得ることができる。なお、以上の実施形態では、主に、第1ゲイン係数について説明したが、第2ゲイン係数を補正する場合は、第1ゲイン係数と同様に行うことができる。
 本実施形態では、補正係数の算出に第1演算値と第2演算値を用いても良い。補正係数の算出に用いられる第1演算値と第2演算値は、次のようにすることが好ましい。すなわち、第1演算値は、第1画像信号群に含まれる第1画像信号SP1において、第1画像信号SP1の信号値を平均して得られる第1画像信号値平均のそれぞれを加算平均して得られ、第2演算値は、第2画像信号群に含まれる第2画像信号SP2において、第2画像信号SP2の信号値を平均して得られる第2画像信号値平均のそれぞれを加算平均して得られる。なお、第1演算値及び第2演算値は、上記のように各画像信号値平均の加算平均の他に、第1画像信号群および第2画像信号群により得られる値を用いることができ、例えば、過去の特定期間分の第1画像信号群が含む第1画像信号SP1の信号値と、過去の特定期間分の第2画像信号群が含む第2画像信号SP2の信号値とを、加算、平均等の演算の処理をしたもの等を用いてもよい。
 より具体的には、例えば、補正係数算出部56が、まず、第1画像信号群に含まれる第1画像信号SP1のそれぞれについて、第1画像信号SP1の信号値を平均した第1画像信号値平均を、第1画像信号SP1の個数分、算出する。次に、これらの複数の第1画像信号値平均のそれぞれを、加算平均して得られる値を第1演算値とする。さらに、第2画像信号群に含まれる第2画像信号SP2においても同様に、第2画像信号SP2のそれぞれについて、第2画像信号SP2の信号値を平均した第2画像信号値平均を、第2画像信号SP2の個数分、算出する。次に、これらの複数の第2画像信号値平均のそれぞれを、加算平均して得られる値を第2演算値とする。
 第1演算値及び第2演算値について、図18を用いて説明する。例えば、取得期間Pに含まれる第1画像信号SP1に対して用いる補正ゲイン係数ARの補正係数を算出するために、取得期間P1と取得期間P2の画像信号に基づく演算により、第1演算値及び第2演算値を算出する。まず、取得期間Pに含まれる複数の第1画像信号SP1のうちの任意の1つの第1画像信号のRGB信号値を、r1-1、g1-1、b1-1とし、別の1つの第1画像信号のRGB信号値を、r1-2、g1-2、b1-2とし、順次番号を付与する。取得期間Pは、フレーム数がLであるので、取得期間Pに含まれる第1画像信号はL個であり、第1画像信号のRGB信号値は、r1-1、g1-1、b1-1からr1-L、g1-L、b1-Lまでとなる。
 また、同様に、取得期間Pに含まれる複数の第2画像信号SP2についても同様に、取得期間に含まれる複数の第2画像信号SP2のうちの任意の1つの第2画像信号のRGB信号値を、r2-1、g2-2、b2-3とする。取得期間Pは、フレーム数がMであるので、取得期間Pに含まれる第2画像信号は、M個であり、第2画像信号のRGB信号値は、r2-1、g2-1、b2-1からr2-M、g2-M、b2-Mまでとなる。
 また、各画像信号の水平画素数をi、垂直画素数をjとする。第1画像信号値平均は、複数の第1画像信号の各色信号値の画像面内の平均であり、Sr1-1、Sg1-1、Sb1-1とする。同様に、第2画像信号値平均は、複数の第2画像信号の各色信号値の画像面内の平均であり、Sr2-1、Sg2-1、Sb2-1とする。したがって、Sr1-1、Sg1-1、Sb1-1、Sr2-1、Sg2-1、Sb2-1は、以下の式(7)~(12)により得られる。一般式は、以下の式(13)~(18)となる。
Figure JPOXMLDOC01-appb-M000003
 
Figure JPOXMLDOC01-appb-M000004
 
 次に、第1演算値は、第1画像信号値平均のそれぞれを加算平均して得られる値であるので、取得期間P1の第1画像信号値平均Sr1-Lを、取得期間Pに含まれるフレーム数の個数の複数の第1画像信号について、すべてを加算して平均した値を、それぞれ、AveSr、AveSg、AveSbとする。したがって、取得期間Pの第1画像信号値平均は、Sr1-1からSr1-LまでのL個があるため、これらを足し合わせてLで割った値である。これらは以下の式(19)~(21)により得られる。同様に、第2演算値は、第2画像信号値平均のそれぞれを加算平均して得られる値であるので、取得期間Pの第2画像信号値平均を、取得期間Pに含まれるフレーム数の個数の複数の第2画像信号について、すべてを加算して平均した値を、それぞれ、AveSr、AveSg、AveSbとすると、これらは以下の式(22)~(24)により得られる。
Figure JPOXMLDOC01-appb-M000005
 
 ここで、例えば、取得期間Pの補正係数Wについて、赤色信号のゲイン係数の補正係数をWr、緑色信号のゲイン係数の補正係数をWg、青色信号のゲイン係数の補正係数をWgとすると、これらの補正係数Wr、Wg、Wbは、取得期間Pの第1演算値であるAveSr、AveSg、AveSbと、取得期間Pの第2演算値であるAveSr、AveSg、AveSbとを用いて算出する。なお、本実施形態では、赤色信号の補正係数Wrを、赤色信号の第1演算値AveSrと赤色信号の第2演算値AveSrとを用いて算出するというように、演算値と補正係数とを同色にする。場合によっては、同色以外の組み合わせにより補正係数を算出してもよい。
 なお、第1画像信号値平均または第2画像信号値平均を算出する場合には、検出部69が、第1画像信号または第2画像信号において、血管または病変であると検出した部分の画像信号を異常画像信号であるとして除いた上で、第1画像信号値平均または第2画像信号値平均を算出することが好ましい。同様に、検出部69が、第1画像信号または第2画像信号において、異常画素であると検出した部分の画像信号を異常画像信号であるとして除いた上で、第1画像信号値平均または第2画像信号値平均を算出することが好ましい。ここで、異常画素とは、暗部、ハレーション等の明部、または、異常フレーム等を含む。
 第1演算値または第2演算値を上記のように算出することにより、第1画像信号及び第2画像信号において、それぞれ画像全体の信号値を用いて補正係数を算出する。したがって、各光の照明により得られる複数の画像を切り替えて表示する場合において、被写体の変化に合わせて、画像全体として、色味、明るさ等が急激に変化することを防止して複数の画像を表示することができるため、複数の画像の違いの認識が容易となる。なお、第1画像信号及び第2画像信号において、それぞれ異常画像信号を除いた画像の信号値を用いて補正係数を算出する場合は、さらに、安定した色調、明るさで複数の画像を表示することができる。
 本実施形態では、第1演算値と第2演算値の比を補正係数とする場合には、以下のようにして、補正係数が得られる。すなわち、取得期間Pの第1ゲイン係数は、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数に、取得期間PN-2における第1演算値と取得期間PN-1における第2演算値との比の値をかけ合わせた値とすることができる。
 例えば、図19に示すように、取得期間Pの補正係数Wr、Wg、Wbは、第1演算値、第2演算値として、AveSr、AveSg、AveSb、AveSr、AveSg、AveSbとを用いることにより、以下の式(25)~(27)とする。
Figure JPOXMLDOC01-appb-M000006
 
 したがって、取得期間Pの各色のゲイン係数をR、G、Bとして補正ゲイン係数である補正第1ゲイン係数AR、AG、及びABを用いる場合、上記式(1)~(3)と式(25)~(27)とにより、以下の式(28)~(30)とすることができる。
Figure JPOXMLDOC01-appb-M000007
 
 式(28)~(30)は、取得期間Pのゲイン係数に関する式であるが、これを一般化すると、以下の式(31)~(33)とすることができる。以下の式(31)~(33)において、hは奇数である。したがって、以下の式(31)~(33)により、第1照明光により得られる取得期間(h+2)における第1画像に対する補正第1ゲイン係数ARh+2、AGh+2、及びABh+2が得られる。
Figure JPOXMLDOC01-appb-M000008
 
 また、図20に示すように、取得期間Pの第1ゲイン係数Rを、複数の取得期間PN-Kの第1ゲイン係数RN-Kに対して、それぞれ重み付け係数をかけて加算した値とする場合は、式(4)と式(31)~(33)とにより、補正第1ゲイン係数は、以下の式(34)とすることができる。ここで、第1ゲイン係数は、取得期間hにおける第1ゲイン係数とする。ここで、Kは2以上の偶数である。
Figure JPOXMLDOC01-appb-M000009
 
 なお、式(34)において、係数αは、上記したとおり、全てを足すと1となるようにし、取得期間hに近い補正第1ゲイン係数ほど大きい係数とする。したがって、例えば、αを0.5とし、αを0.25、αを0.125、と0.5のn乗とする。したがって、αは、数式(5)とすることができる。
Figure JPOXMLDOC01-appb-M000010
 
 以上のように、例えば、第1ゲイン係数を算出するために、前回の第1画像に対するゲイン係数のみならず、前々回の第1画像に対するゲイン係数をも用いるため、急に色味または明るさが変化した被写体であってもゲイン係数が大きくかわることがなく、引き続いて同様の色味または明るさで観察することができる。なお、以上の実施形態では、主に、第1ゲイン係数について説明したが、第2ゲイン係数の算出も同様に行うことができる。
 以上のとおり、補正係数を上記のように、直前の第1演算値と第2演算値とにより算出することにより、ゲイン係数を被写体の変化に合わせて補正できるため、より良く被写体の変化に合わせながら、各画像の色味を揃えつつ、各画像の違いを可視化することができる。
 なお、取得期間Pの第1ゲイン係数R、G、及びBと、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数RN-2、GN-2、及びBN-2との差が、予め設定した閾値以下の場合は、取得期間Pの第1ゲイン係数R、G、及びBの補正を行わないことが好ましい。また、取得期間Pの第1ゲイン係数R、G、及びBと、取得期間PN-2の第1画像信号群に含まれる第1画像信号に対して用いた第1ゲイン係数RN-2、GN-2、及びBN-2との差が、予め設定した閾値以上の場合は、取得期間Pの第1ゲイン係数R、G、及びBの補正を行わないことが好ましい。ここで、予め設定した閾値以下の場合とは、例えば、画像信号に不感帯等の異常画素部分を有している場合等である。ここで、不感帯とは、取得した画像において照明光が届かない部分、レンズ外の部分等である。また、予め設定した閾値以上の場合とは、例えば、画像信号にハレーション等の異常画素部分が含まれる場合である。これらの画像信号の異常画素部分は、検出部69により検出される。
 なお、上記実施形態では、光源制御部21は、予め設定された光量比により、各照明光を発光していたが、第1ゲイン係数または第2ゲイン係数に基づいて、光量比を制御して各照明光を発光してもよい。すなわち、第1照明光は、紫色光、青色光、緑色光、及び赤色光を含み、第2照明光は、紫色光、青色光、緑色光及び赤色光を含み、光源制御部21は、第1照明光と第2照明光とが含む各色のそれぞれの発光量を、第1ゲイン係数または第2ゲイン係数に基づいて制御してもよい。
 光源制御部21は、第1照明光について、紫色光V、青色光B、緑色光G、及び赤色光R間の光強度比がVs1:Bs1:Gs1:Rs1となる第1照明光を発光するように、各LED20a~20dを制御する。その結果、第1画像のR信号値、第1画像のG信号値、第1画像のB信号値が得られるが、例えば、補正第1ゲイン係数が、それぞれAR、AG、ABと算出された場合、ゲイン処理を行わない場合に第1画像信号値にそれぞれ補正第1ゲイン係数AR、AG、ABをかけ合わせた値のR信号値となるように、第1照明光の光強度比を制御してもよい。第1画像のG信号値、第1画像のB信号値についても、同様にして、第1照明光の光強度比を制御することができる。
 なお、光源制御部21は、上記のように補正第1ゲイン係数または補正第2ゲイン係数に基づいて制御された発光量が、特定の閾値以下である場合、予め設定された最低発光量まで発光量を増加させることが好ましい。例えば、光源制御部21は、第1ゲイン係数によりホワイトバランス処理を行った画像信号値が、ホワイトバランス処理を行わなかった場合に同様の画像信号値となる発光量に、発光量を制御するが、この際の発光量を特定の閾値と比較する。
 このように光源制御部21が光量比を調整することにより、ゲイン処理を行うことにより、処理を行った画像にノイズが発生する場合があるが、これにより、ゲイン処理によるノイズの発生を抑えながら、色味、または明るさを整えた画像を得ることができる。
 なお、上記実施形態のように、第1照明光は、紫色光V、青色光B、緑色光G、赤色光Rを含めることに代えて、図21に示すように、中心波長又はピーク波長が560~580nmの第1赤色狭帯域光NR1を第1照明光に含めるようにしてもよい。また、第2照明光には、紫色光V、青色光B、緑色光G、赤色光Rを含めることに代えて、図22に示すように、中心波長又はピーク波長が630~670nmの第2赤色狭帯域光NR2を含めるようにしてもよい。この場合には、第1赤色狭帯域光NR1を観察対象に撮像して得られる第1画像信号のうち特定生体組織に少なくとも対応する特定生体組織の第1赤色信号(第1特定色信号)の信号値と、第2赤色狭帯域光NR2を観察対象に撮像して得られる第2画像信号のうち特定生体組織に少なくとも対応する特定生体組織の第2赤色信号(第2特定色信号)の信号値とが一致するように、特定光量条件(第1赤色狭帯域光NR1の光量条件、第2赤色狭帯域光NR2の光量条件)を定めることが好ましい。なお、第1赤色狭帯域光NR1と第2赤色狭帯域光NR2は、それぞれ撮像センサ48のR画素に感度を有している。
 上記実施形態において、画像取得部52、DSP54、ノイズ除去部58、通常観察画像処理部62、特殊観察画像処理部63、表示制御部64、静止画保存部65、静止画保存制御部66など、プロセッサ装置16に含まれる処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、GPU(Graphical Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ、GPUとCPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 なお、本発明は、上記実施形態のような内視鏡システムに組み込まれるプロセッサ装置の他、カプセル型の内視鏡システムに組み込まれるプロセッサ装置、または各種の医用画像処理装置に対して適用することが可能である。
 本発明は、下記の別形態によっても実施可能である。
 第1照明光と、前記第1照明光とは異なる発光スペクトルを有する第2照明光とを発光する光源部を備える内視鏡システムのプロセッサ装置において、
 第1照明光と前記第2照明光とを自動的に切り替えて発光する制御を行い、第1照明光を発光する発光期間と前記第2照明光を発光する発光期間は、それぞれ少なくとも1フレーム以上の発光期間であり、、
 第1照明光の発光期間において第1照明光により照明された被写体を撮像して得られる第1画像信号を含む第1画像信号群と、第2照明光の発光期間において第2照明光により照明された被写体を撮像して得られる第2画像信号を含む第2画像信号群とを取得し、
 第1画像信号に第1ゲイン係数をかけ合わせ、第2画像信号に第2ゲイン係数をかけ合わせてホワイトバランス処理を行い、
 ホワイトバランス部は、第1ゲイン係数と第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いて、ホワイトバランス処理を行うプロセッサ装置。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13a モード切替SW
13b 静止画取得指示部
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
20a V-LED(Violet Light Emitting Diode)
20b B-LED(Blue Light Emitting Diode)
20c G-LED(Green Light Emitting Diode)
20d R-LED(Red Light Emitting Diode)
21 光源制御部
23 光路結合部
24 発光期間設定部
26a スライドバー
26b スライドバー
27a スライダ
27b スライダ
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
48 撮像センサ
48b Bフィルタ
48g Gフィルタ
48r Rフィルタ
50 CDS/AGC回路
52 画像取得部
54 DSP(Digital Signal Processor)
55 ホワイトバランス部
56 補正係数算定部
58 ノイズ除去部
60 信号切替部
62 通常観察画像処理部
63 特殊観察画像処理部
64 表示制御部
65 静止画保存部
66 静止画保存制御部
67 第1特殊観察画像処理部
68 第2特殊観察画像処理部
69 検出部
L1 第1照明光
L2 第2照明光
PL1 第1期間
PL2 第2期間
SP1 第1特殊観察画像(第1画像)
SP2 第2特殊観察画像(第2画像)
VP 紫色光画像
RP 赤色光画像
VS1 表層血管
VS2 中層血管
BM 背景粘膜
V/B 紫色光及び青色光
G 緑色光
R 赤色光
D 深さ方向

Claims (18)

  1.  第1照明光と、前記第1照明光とは異なる発光スペクトルを有する第2照明光とを発光する光源部と、
     前記第1照明光と前記第2照明光とを自動的に切り替えて発光する制御を行う光源制御部であって、前記第1照明光を発光する発光期間と前記第2照明光を発光する発光期間は、それぞれ少なくとも1フレーム以上の発光期間である光源制御部と、
     前記第1照明光の発光期間において前記第1照明光により照明された被写体を撮像して得られる第1画像信号を含む第1画像信号群と、前記第2照明光の発光期間において前記第2照明光により照明された被写体を撮像して得られる第2画像信号を含む第2画像信号群とを取得する画像取得部と、
     前記第1画像信号に第1ゲイン係数をかけ合わせ、前記第2画像信号に第2ゲイン係数をかけ合わせてホワイトバランス処理を行うホワイトバランス部とを備え、
     前記ホワイトバランス部は、前記第1ゲイン係数と前記第2ゲイン係数の少なくともいずれかを補正した補正ゲイン係数を用いて、ホワイトバランス処理を行う内視鏡システム。
  2.  前記ホワイトバランス部は、補正無しの固定の前記第2ゲイン係数を用いて、前記ホワイトバランス処理を行う請求項1に記載の内視鏡システム。
  3.  前記第1画像信号または前記第2画像信号は、青色信号、赤色信号、及び緑色成分を含み、
     前記第1画像信号の信号値または前記第2画像信号の信号値は、青色信号値、赤色信号値、及び緑色信号値からなる請求項1または2に記載の内視鏡システム。
  4.  前記ホワイトバランス部は、前記第1ゲイン係数または前記第2ゲイン係数を、前記青色信号値、前記赤色信号値、及び前記緑色信号値のそれぞれについて定める請求項3に記載の内視鏡システム。
  5.  前記第1ゲイン係数を補正する場合において、
     取得期間P(Nは整数)の前記第1画像信号群に含まれる前記第1画像信号に対して用いる前記取得期間Pの前記第1ゲイン係数は、前記取得期間Pの直前の取得期間PN-2の前記第1画像信号に対して用いた前記取得期間PN-2の前記第1ゲイン係数を補正した補正第1ゲイン係数である請求項1ないし4のいずれか1項に記載の内視鏡システム。
  6.  前記第1ゲイン係数を補正する場合において、
     取得期間Pよりも前の複数の取得期間PN-K(Kは2以上の偶数)の前記第1画像信号群に含まれる前記第1画像信号に対して用いる複数の前記取得期間PN-Kの前記第1ゲイン係数は、少なくとも一部はそれぞれ補正された前記補正ゲイン係数であり、
     前記取得期間Pの前記第1画像信号群に含まれる前記第1画像信号に対して用いる前記取得期間Pの前記第1ゲイン係数は、複数の前記取得期間PN-Kの前記第1ゲイン係数に対して、それぞれ重み付け係数をかけて加算された値であり、
     前記重み付け係数は、前記取得期間Pに近いほど大きい請求項1ないし4のいずれか1項に記載の内視鏡システム。
  7.  複数の前記取得期間PN-Kの前記第1ゲイン係数は、各前記取得期間PN-Kにおいて前記ホワイトバランス処理で用いられている請求項6に記載の内視鏡システム。
  8.  前記第1ゲイン係数または前記第2ゲイン係数の補正には、前記第1ゲイン係数および前記第2ゲイン係数のうち少なくとも一方を補正するための補正係数が用いられ、
     前記補正係数は、前記第1画像信号群に基づく演算により得られる第1演算値と、前記第2画像信号群に基づく演算により得られる第2演算値とを用いて算出する請求項1ないし7のいずれか1項記載の内視鏡システム。
  9.  前記第1演算値は、前記第1画像信号群に含まれる前記第1画像信号において、前記第1画像信号の信号値を平均して得られる第1画像信号値平均のそれぞれを加算平均して得られ、
     前記第2演算値は、前記第2画像信号群に含まれる前記第2画像信号において、前記第2画像信号の信号値を平均して得られる第2画像信号値平均のそれぞれを加算平均して得られる請求項8に記載の内視鏡システム。
  10.  前記第1画像信号または前記第2画像信号において、血管または病変部分の画像信号を検出して異常画像信号とする検出部を備え、
     前記第1画像信号値平均または前記第2画像信号値平均は、それぞれ前記異常画像信号以外の前記第1画像信号の信号値または前記第2画像信号の信号値を用いることにより得られる請求項9に記載の内視鏡システム。
  11.  前記第1画像信号または前記第2画像信号において、異常画素部分の画像信号を検出して異常画像信号とする検出部を備え、
     前記第1画像信号値平均または前記第2画像信号値平均は、それぞれ前記異常画像信号以外の前記第1画像信号の信号値または前記第2画像信号の信号値を用いることにより得られる請求項9に記載の内視鏡システム。
  12.  前記補正係数は、前記第1演算値と前記第2演算値の比である請求項8ないし11のいずれか1項に記載の内視鏡システム。
  13.  前記取得期間Pの前記第1ゲイン係数は、前記取得期間PN-2の前記第1画像信号群に含まれる前記第1画像信号に対して用いた前記第1ゲイン係数に、前記取得期間PN-2における前記第1演算値と前記取得期間PN-1における前記第2演算値との比の値をかけ合わせた値である請求項8ないし12のいずれか1項に記載の内視鏡システム。
  14.  前記取得期間Pの前記第1ゲイン係数と、前記取得期間PN-2の前記第1画像信号群に含まれる前記第1画像信号に対して用いた前記第1ゲイン係数との差が、予め設定した閾値以下の場合は、前記前記取得期間Pの前記第1ゲイン係数の補正を行わない請求項5に記載の内視鏡システム。
  15.  前記取得期間Pの前記第1ゲイン係数と、前記取得期間PN-2の前記第1画像信号群に含まれる前記第1画像信号に対して用いた前記第1ゲイン係数との差が、予め設定した閾値以上の場合は、前記前記取得期間Pの前記第1ゲイン係数の補正を行わない請求項5に記載の内視鏡システム。
  16.  前記第1照明光は、紫色光、緑色光、及び赤色光を含み、前記第2照明光は、青色光、緑色光及び赤色光を含み、
     前記光源制御部は、前記第1照明光と前記第2照明光とが含む各色のそれぞれの発光量を、前記第1ゲイン係数または前記第2ゲイン係数に基づいて制御する請求項1ないし15のいずれか1項に記載の内視鏡システム。
  17.  前記光源制御部は、前記第1ゲイン係数または前記第2ゲイン係数に基づいて制御された前記発光量が、特定の閾値以下である場合、予め設定された最低発光量まで前記発光量を増加させる請求項16に記載の内視鏡システム。
  18.  前記画像処理部は、前記第1画像信号により第1表示用観察画像を生成し、かつ、前記第2画像信号により第2表示用観察画像を生成し、
     前記第1表示用観察画像は表層血管が強調されており、前記第2表示用観察画像は前記表層血管よりも深い位置にある中深層血管が強調されている請求項1ないし17のいずれか1項記載の内視鏡システム。
PCT/JP2019/047008 2019-01-30 2019-12-02 内視鏡システム WO2020158165A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980090845.5A CN113366366B (zh) 2019-01-30 2019-12-02 内窥镜系统
JP2020569410A JP7136933B2 (ja) 2019-01-30 2019-12-02 内視鏡システム
US17/372,648 US20210338069A1 (en) 2019-01-30 2021-07-12 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-014802 2019-01-30
JP2019014802 2019-01-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/372,648 Continuation US20210338069A1 (en) 2019-01-30 2021-07-12 Endoscope system

Publications (1)

Publication Number Publication Date
WO2020158165A1 true WO2020158165A1 (ja) 2020-08-06

Family

ID=71842114

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/047008 WO2020158165A1 (ja) 2019-01-30 2019-12-02 内視鏡システム

Country Status (4)

Country Link
US (1) US20210338069A1 (ja)
JP (1) JP7136933B2 (ja)
CN (1) CN113366366B (ja)
WO (1) WO2020158165A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007896A1 (ja) * 2021-07-28 2023-02-02 富士フイルム株式会社 内視鏡システム、プロセッサ装置及びその作動方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022117580A1 (de) 2022-07-27 2024-02-01 Karl Storz Se & Co. Kg Medizinische Bildgebungsvorrichtung, medizinisches Bildgebungssystem und Verfahren zum Betrieb einer medizinischen Bildgebungsvorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159957A (ja) * 2014-02-27 2015-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2017113458A (ja) * 2015-12-25 2017-06-29 富士フイルム株式会社 内視鏡用光源装置及びその作動方法、並びに内視鏡システム
JP2019005096A (ja) * 2017-06-23 2019-01-17 富士フイルム株式会社 プロセッサ装置及びその作動方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012152246A (ja) * 2011-01-21 2012-08-16 Hoya Corp ホワイトバランス調整システム、内視鏡プロセッサ、補正とバランス調整キャップ
JP6203088B2 (ja) * 2014-03-13 2017-09-27 オリンパス株式会社 生体観察システム
JP6234350B2 (ja) * 2014-09-30 2017-11-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
CN107072476B (zh) * 2014-11-20 2018-11-06 奥林巴斯株式会社 观察装置
JP6660707B2 (ja) * 2015-10-23 2020-03-11 Hoya株式会社 内視鏡システム
JP6562554B2 (ja) * 2016-05-13 2019-08-21 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの信号処理方法
JP6550420B2 (ja) * 2017-06-02 2019-07-24 富士フイルム株式会社 内視鏡装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015159957A (ja) * 2014-02-27 2015-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2017113458A (ja) * 2015-12-25 2017-06-29 富士フイルム株式会社 内視鏡用光源装置及びその作動方法、並びに内視鏡システム
JP2019005096A (ja) * 2017-06-23 2019-01-17 富士フイルム株式会社 プロセッサ装置及びその作動方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007896A1 (ja) * 2021-07-28 2023-02-02 富士フイルム株式会社 内視鏡システム、プロセッサ装置及びその作動方法

Also Published As

Publication number Publication date
CN113366366B (zh) 2023-04-28
JP7136933B2 (ja) 2022-09-13
US20210338069A1 (en) 2021-11-04
CN113366366A (zh) 2021-09-07
JPWO2020158165A1 (ja) 2021-11-11

Similar Documents

Publication Publication Date Title
EP3756532B1 (en) Endoscope system
US20200260942A1 (en) Endoscope system and method of operating the same
JP6909856B2 (ja) 内視鏡システム
US11311185B2 (en) Endoscope system
US20210338069A1 (en) Endoscope system
US11937788B2 (en) Endoscope system
US11744437B2 (en) Medical image processing system
WO2019093356A1 (ja) 内視鏡システム及びその作動方法
WO2020171012A1 (ja) 内視鏡システム
JP7015384B2 (ja) 医療画像処理システム
CN112584747B (zh) 内窥镜系统
JP7163243B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP7208876B2 (ja) 内視鏡システム及びその作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19913772

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569410

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19913772

Country of ref document: EP

Kind code of ref document: A1