WO2013031701A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2013031701A1
WO2013031701A1 PCT/JP2012/071496 JP2012071496W WO2013031701A1 WO 2013031701 A1 WO2013031701 A1 WO 2013031701A1 JP 2012071496 W JP2012071496 W JP 2012071496W WO 2013031701 A1 WO2013031701 A1 WO 2013031701A1
Authority
WO
WIPO (PCT)
Prior art keywords
brightness
illumination
light
illumination light
band
Prior art date
Application number
PCT/JP2012/071496
Other languages
English (en)
French (fr)
Inventor
橋本 進
和真 金子
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to CN201280013720.0A priority Critical patent/CN103429136B/zh
Priority to JP2013514467A priority patent/JP5326065B2/ja
Priority to EP12827919.7A priority patent/EP2671498B1/en
Publication of WO2013031701A1 publication Critical patent/WO2013031701A1/ja
Priority to US13/856,748 priority patent/US20130286175A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/645Specially adapted constructive features of fluorimeters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/113Fluorescence

Definitions

  • the present invention relates to an endoscope apparatus suitable for narrowband light observation.
  • a medical endoscope requires a light source device that illuminates the inside of the living body because the site to be observed is inside the living body. Illumination light generated by the light source device is irradiated to the observation target tissue from the distal end portion where the imaging unit is located through a light guide inserted through the insertion portion of the endoscope.
  • white light observation As observation with an endoscope, normal light observation using visible light (white light observation: WLI) is widely performed.
  • white light sources are transmitted through a rotary filter to sequentially irradiate tissue in a body cavity with illumination light of three colors R, G, and B. Then, the reflected light images corresponding to the three colors of R, G, and B are acquired in a time division manner, and a color image for performing normal light observation is generated from each reflected light image.
  • WO2010 / 131620 discloses a field sequential imaging device for performing narrowband light observation (NBI) as special light observation.
  • Narrowband light observation focuses on the use of light that is strongly absorbed by blood and strongly reflected / scattered by the mucosal surface layer in order to observe blood vessels with high contrast.
  • the invention of Document 1 is configured such that green narrow band light G and two blue narrow band lights B1 and B2 can be sequentially irradiated.
  • narrowband light observation is performed using a narrowband light observation image created from a reflected light image (narrowband image) corresponding to the narrowband light G, B1, and B2.
  • the composition ratio is determined based on the average brightness of the captured image.
  • the average brightness of the captured image is not necessarily the same as the brightness perceived by humans.
  • dimming control that matches the sense of the operator is not performed.
  • the narrow band lights B1 and B2 are irradiated to the living tissue with a time lag. Therefore, when the images based on the narrow band lights B1 and B2 are synthesized, there is a problem that the synthesized image may be blurred.
  • the endoscope apparatus performs illumination with illumination light of the first band within a predetermined time and performs illumination with illumination light of the second band at least a first number of times. And a second image based on the first captured image based on the illumination of the illumination light in the first band and the illumination based on the illumination light in the second band.
  • An imaging means for outputting a captured image; a first imaging signal based on illumination with illumination light in the first band; and a second imaging signal based on a first predetermined illumination of the first number of times
  • the first brightness is calculated by color conversion matrix processing using the first imaging signal based on illumination with illumination light in the first band, and the first predetermined number of times other than the first predetermined number of times
  • Brightness calculating means for calculating the second brightness, the difference between the first brightness and the target brightness in the first and second imaging signals that are the basis of the second brightness,
  • a synthesizing unit that synthesizes the first and second imaging signals that are the basis of the first brightness after multiplying by a coefficient based on the ratio with the second brightness.
  • FIG. 1 is a block diagram showing an endoscope apparatus according to a first embodiment of the present invention. Explanatory drawing for demonstrating the brightness detection process of the captured image based on each illumination light in the brightness calculation process part 44 in FIG. Explanatory drawing for demonstrating the brightness detection process of the captured image based on each illumination light in the brightness calculation process part 44 in FIG. The graph for demonstrating the weight which changes with modes. The graph for demonstrating the weight which changes with modes.
  • the block diagram which shows the 2nd Embodiment of this invention The block diagram which shows the general circuit which performs white balance adjustment.
  • the timing chart which shows a mode that it converts from interlace to progressive. Explanatory drawing for demonstrating the effect
  • FIG. 1 is a block diagram showing an endoscope apparatus according to a first embodiment of the present invention.
  • an endoscope apparatus 1 includes an endoscope 2 for observing the inside of a living body as a subject, and a light source that emits narrow-band illumination light for observing the inside of the living body.
  • the apparatus 3 and the image processing apparatus 4 which performs signal processing with respect to the imaging signal imaged under the narrow band illumination light are provided.
  • the narrow band image generated by the image processing device 4 is supplied to the monitor 5.
  • the monitor 5 a normal color monitor can be adopted. That is, the monitor 5 has an RGB input terminal (not shown), and R, G, and B image signals are supplied to the RGB input terminal to perform color display.
  • the endoscope 2 has a flexible insertion portion 21 having an outer diameter that can be inserted into a body cavity, and guides light emitted from the light source device 3 inside the insertion portion 21.
  • a light guide fiber 26 made of quartz fiber or the like is inserted.
  • One end of the light guide fiber 26 is connected to a connector 27 that is detachably connected to the light source device 3.
  • the other end of the light guide fiber 26 is disposed in the vicinity of the illumination lens 23 provided at the distal end portion 22 at the distal end of the insertion portion 21.
  • the connector 27 is connected to the light source device 3 and also to the image processing device 4 described later.
  • the illumination light from the light source device 3 is guided to the distal end portion 22 of the insertion portion 21 by the light guide fiber 26, is diffused by the illumination lens 23, and is irradiated onto the subject.
  • an objective lens 24 for connecting an optical image of the subject by return light from the subject, and a CCD (charge coupled device) 25 as an imaging device disposed at the imaging position are provided at the distal end portion 22. Is provided.
  • the CCD 25 constituting the imaging means is driven by a CCD drive circuit (not shown) provided in the image processing device 4 (not shown), images the subject, converts the captured optical image of the subject into a video signal, The image is output to the image processing device 4.
  • the light source device 3 includes a light source 31 constituted by a xenon lamp or the like.
  • the light source 31 emits light in a wavelength band close to white light.
  • a narrow band filter 32, a rotary filter 33 and a diaphragm 34 are disposed on the irradiation light path of the light source 31.
  • the narrow band filter 32 narrows the band of light emitted from the light source 31 and emits it to the rotary filter 33.
  • the rotary filter 33 limits the band of light that has passed through the narrow band filter 32 to a wavelength band necessary for narrow band light observation.
  • the diaphragm 34 adjusts the amount of light by limiting the amount of light that has passed through the rotary filter 33.
  • the aperture amount of the aperture 34 is controlled by a dimming control unit 49 described later.
  • FIG. 2 is an explanatory diagram showing an example of the rotary filter 33.
  • the rotary filter 33 has a disk shape, and three openings are provided at equal angles in the circumferential direction, and filters 33G, 33B1, and 33B2 are attached to the three openings, respectively.
  • the filter 33G has a green (G) wavelength band as a transmission band
  • the filters 33B1 and 33B2 have a blue (B) wavelength band as a transmission band.
  • a narrow band G illumination light of 530-550 nm centered at 540 nm is transmitted from the filter 33G, and for example, 400-430 nm centered at 415 nm is transmitted from the filter 33B1.
  • N-band B illumination light (hereinafter referred to as B1 illumination light) is transmitted, and the filter 33B2 transmits, for example, 400-430 nm narrow-band B illumination light (hereinafter referred to as B2) centered on 415 nm, in the same manner as the filter 33B1.
  • B1 illumination light 400-430 nm narrow-band B illumination light
  • B2 illumination light transmitted through the filters 33B1 and 33B2 have the same wavelength band.
  • the center of the rotary filter 33 is attached to a rotary shaft of a rotary motor (not shown) and is driven to rotate.
  • An encoder (not shown) is attached to the rotation shaft of the rotation motor, and the rotation of the rotation motor, that is, the rotation of the rotary filter 33 can be detected by the encoder.
  • the image processing apparatus 4 to be described later controls the rotation of the rotation motor so that the rotation speed of the rotation filter 33 is constant (not shown).
  • the light source device 3 performs imaging on the subject using narrow-band illumination light. For this reason, the amount of illumination light tends to be insufficient as compared to the case of using broadband illumination light that is normally widely used.
  • the transmission loss on the short wavelength B side tends to be larger due to the optical transmission characteristics of the light guide fiber 26, and the B illumination light is emitted when emitted from the illumination lens 23 of the tip 22 as illumination light. The amount of light tends to be small.
  • two filters 33B1 and 33B2 having the same transmission characteristics are arranged in the circumferential direction of the rotary filter 33, and each time the rotary filter 33 is rotated once by using these two filters 33B1 and 33B2.
  • the same part of the subject to be observed is irradiated with the B illumination light twice, and the imaging is performed twice based on the B illumination light by the return light.
  • the rotation filter 33 is rotated once in a 1.5 frame period, and imaging with B illumination light is performed twice.
  • the brightness of the captured image (B captured image) based on the B illumination light is improved by combining the two captured images.
  • imaging with the G illumination light is performed once and imaging with the B illumination light is performed twice in the 1.5 frame period will be described, but the period and number of imaging with the narrowband light of each color can be set as appropriate. .
  • the B1 captured image based on the return light of the narrow-band B1 illumination light and the B2 captured image based on the return light of the B2 illumination light are temporally shifted images, and the image quality deteriorates by combining these images. There is a fear. Therefore, in the present embodiment, no synthesis is performed when a captured image with sufficient brightness can be obtained by only one of the narrow-band B1 illumination light and B2 illumination light. When a captured image with sufficient brightness cannot be obtained with only one of the narrow-band B1 illumination and B2 illumination light, a captured image based on the other B illumination light is synthesized according to the brightness. Thus, a captured image with sufficient brightness is obtained while suppressing deterioration in image quality.
  • the image processing device 4 obtains the brightness of the captured image by color conversion matrix processing, thereby performing brightness control according to the operator's sense.
  • the image processing apparatus 4 has an analog processing unit 41.
  • the analog processing unit 41 performs predetermined analog signal processing such as amplification processing on the video signal from the endoscope 2 and outputs it to the A / D converter 42.
  • the A / D converter 42 converts the output of the analog processing unit 41 into a digital signal, and then outputs the digital signal to the digital processing unit 43.
  • the CCD 25 of the endoscope 2 outputs a G captured image based on the return light of the G illumination light as a G signal, outputs a B1 captured image based on the return light of the B1 illumination light as a B1 signal, and returns the B2 illumination light return light.
  • the B2 captured image based on is output as a B2 signal.
  • the video signal from the endoscope 2 includes these G signal, B1 signal, and B2 signal.
  • the synchronization control unit 40 stores these G signal, B1 signal, and B2 signal in the synchronization memory 40a that stores the R image, the G image, and the B image. Note that the synchronization memory 40a stores, for example, 30 frames of G signal, B1 signal, and B2 signal, respectively. Then, the G, B1, and B2 signals are read from the synchronization memory 40a so that the color shift is minimized.
  • the brightness calculation processing unit 44 calculates the brightness of the captured image in order every 0.5 frames based on the G signal, the B1 signal, and the B2 signal before recording in the synchronization memory 40a.
  • the same matrix processing as that performed when displaying on the monitor 5 is performed. Find the brightness.
  • the illumination by the G illumination light and the B1 illumination light is used as the master illumination that is always used for imaging, and the illumination by the G illumination light and the B2 illumination light is supplementarily performed when the brightness of the image is dark. Use slave lighting.
  • the brightness calculation processing unit 44 obtains the luminance Y1 by the master illumination using matrix processing by the matrix processing unit 52 based on the G signal and the B1 signal. In addition, in order to obtain the brightness of the captured image by the slave illumination, the brightness calculation processing unit 44 obtains the luminance Y2 by the slave illumination by using the matrix processing by the matrix processing unit 52 based on the G signal and the B2 signal. .
  • FIG. 3 is a block diagram showing a specific configuration of the brightness calculation processing unit 44.
  • the average value calculation unit 50 calculates the / B1 signal, the / G signal, and the / B2 signal that are average values of signals corresponding to the R image, the G image, and the B pixel.
  • the R image brightness calculation unit 51R, the G image brightness calculation unit 51G, and the B image brightness calculation unit 51B obtain brightness by using the / B1 signal, the / G signal, and the / B2 signal, respectively.
  • the B1 signal is used as the R image signal
  • the G signal is used as the G image signal
  • the B2 signal is used as the B image signal.
  • the brightness calculation units 51R, 51G, and 51B hold the / B1 signal, the / G signal, and the / B2 signal, and then output them to the matrix processing unit 52 as Rf, Gf, and Bf.
  • the matrix processing unit 52 performs color conversion of the input R, G, and B image signals by the matrix calculation of the following equation (1).
  • the matrix processing unit 52 performs matrix processing on each of the master illumination and the slave illumination by the matrix calculation of the following equation (1).
  • ⁇ , ⁇ , and ⁇ are matrix coefficients.
  • outputs Rm, Gm, and Bm obtained by matrix processing for master illumination or matrix processing for slave illumination are supplied to the luminance calculation unit 53.
  • the G signal is supplied to the luminance calculation unit 53 as the output Rm, the B signal as the output Gm, and the B signal as the output Bm.
  • is the same as ⁇ in the later-described equation (6).
  • Gt (1 + a) G.
  • the brightness calculation processing unit 44 outputs the obtained luminances Y1, Y2, and ⁇ Y1 to the dimming control unit 49 as brightness information.
  • a matrix processing unit 46 which will be described later, generates RGB image signal components from a G captured image and a B captured image obtained by imaging using narrowband light by matrix processing (color conversion matrix processing).
  • the matrix processing in the matrix processing unit 52 of the brightness calculation processing unit 44 is the same processing as the matrix processing in the matrix processing unit 46. That is, the matrix calculation by the brightness calculation processing unit 44 is for obtaining signals corresponding to the R, G, and B inputs of the monitor 5, and the luminance obtained by the brightness calculation processing unit 44 is displayed on the monitor. This corresponds to the brightness of the image to be displayed, and corresponds to the brightness of the image felt when the surgeon observes the monitor 5.
  • coefficients of the above formulas (2) and (3) in the brightness calculation processing unit 44 can be changed according to the color tone desired for the narrowband light observation image displayed on the monitor 5. .
  • the dimming control unit 49 controls the diaphragm 34 based on the input brightness information so that the target brightness can be obtained. For example, when the brightness of the captured image is equal to or higher than the target value, the dimming control unit 49 outputs a dimming signal for reducing the opening amount of the aperture 34, and when the brightness of the captured image is less than the target value. Outputs a dimming signal for opening the diaphragm 34.
  • the composition processing unit 45 synthesizes the captured image by the master illumination and the captured image by the slave illumination based on the composition ratio a. That is, when the composition ratio a is 0, the composition processing unit 45 outputs the captured image by the master illumination from the digital processing unit 43, that is, a signal using only the G signal and the B1 signal to the matrix processing unit 46. In addition, when the combination ratio a is not 0, the combination processing unit 45 uses a signal based on the image captured by the master illumination as an image captured by the slave illumination, that is, a signal obtained by the G signal and the B2 signal and the combination ratio a. And synthesize.
  • the brightness of the G illumination light is much brighter than that of the B illumination light, so that when the composition ratio a becomes 1, there is no excessive multiplication and the increase in noise can be suppressed.
  • the following equation (5) shows a combined signal by a.
  • Rin, Gin, and Bin in Equation (5) indicate inputs of an R image, a G image, and a B image, respectively, and are B2, G, and B1, respectively, in narrowband light observation in the present embodiment.
  • Rt, Gt, and Bt in the equation (5) indicate the output of the R image, G image, and B image of the composite signal.
  • the output of the R image is B2, but the output of the R image supplied to the monitor 5 by matrix processing described later is substantially zero.
  • the synthesis processing unit 45 obtains a synthesized signal by, for example, the calculation of equation (5) and outputs the obtained synthesized signal to the matrix processing unit 46.
  • the matrix processing unit 46 obtains a signal corresponding to the RGB input of the monitor 5 by matrix processing.
  • the following formula (6) shows an example of matrix processing by the matrix processing unit 46.
  • ⁇ , ⁇ , and ⁇ are matrix coefficients, and Rout, Gout, and Bout indicate the output of the R image, G image, and B image after matrix processing.
  • ⁇ , ⁇ , and ⁇ can be changed according to the color tone desired for narrowband light observation. These are obtained in a range of 0.7 to 1.5, for example, and selected from a plurality of candidates so that they are neither too large nor too small.
  • the D / A converter 47 converts the output of the matrix processing unit 46 into an analog signal and outputs it to the monitor 5. That is, Rout, Gout, and Bout in the expression (6) are given to the monitor 5 as RGB inputs.
  • the monitor 5 displays the captured image in color according to the input RGB input. In this way, narrow-band light observation can be performed on the display screen of the monitor 5.
  • the surgeon When using the endoscope apparatus 1, the surgeon connects the connector 27 of the endoscope 2 to the light source apparatus 3 and the image processing apparatus 4 as shown in FIG. 1. Thereby, the connection state shown in FIG. 1 is obtained.
  • the surgeon operates a power switch (not shown) so that the light source device 3, the image processing device 4, and the monitor 5 are in an operating state, and performs an operation for narrowband light observation.
  • the light emitted from the light source 31 is converted into narrowband G illumination light, B1 illumination light, and B2 illumination light by the narrowband filter 32 and the rotary filter 33, and after adjusting the brightness by the diaphragm 34, Supplied to the mirror 2.
  • Each illumination light is irradiated from the illumination lens 23 to the subject side through the light guide fiber 26 sequentially and substantially continuously, for example, in a period of 1/20 second.
  • the CCD 25 captures an optical image by the return light from the part.
  • the G signal, the B1 signal, and the B2 signal corresponding to the return lights of the G illumination light, the B1 illumination light, and the B2 illumination light are obtained by the photoelectric conversion of the CCD 25.
  • Video signals including the G signal, the B1 signal, and the B2 signal are given from the endoscope 2 to the image processing device 4.
  • the B1 signal and the B2 signal are signals obtained by imaging with the same exposure amount using illumination light in the same wavelength band, and are substantially the same under the same conditions except that there is a short timing shift within one frame. It is obtained by.
  • the video signal input to the image processing device 4 is subjected to predetermined analog processing by the analog processing unit 41 and then converted to a digital signal by the A / D converter 42.
  • the digital video signal from the A / D converter 42 is separated into a G signal, a B1 signal, and a B2 signal in the digital processing unit 43 and stored in the synchronization memory 40a.
  • the brightness calculation processing unit 44 is given the G signal, the B1 signal, and the B2 signal read from the synchronization memory 40a, and performs the matrix processing of the luminance Y1 by the master illumination and the luminance Y2 by the slave illumination by the matrix processing unit 52. Use to calculate.
  • the dimming control unit 49 obtains a difference ⁇ Y1 between the target luminance Ys and the luminance Y1, and obtains a combination ratio a.
  • the luminances Y1 and Y2 are calculated using matrix processing, and show the same brightness as the brightness when displayed on the monitor 5.
  • the composition ratio a is supplied to the composition processing unit 45, and the composition processing unit 45 synthesizes the image captured by the slave illumination with the image captured by the master illumination by a ratio based on the composition ratio a.
  • the synthesis processing unit 45 obtains a synthesized signal using the above equation (5).
  • the expression (5) when the composition ratio a is 0, that is, when the luminance Y1 is equal to or higher than the target luminance Ys, the captured image is not synthesized by the slave illumination. Therefore, in this case, the synthesized image based on the synthesized signal is not blurred and the image quality is not deteriorated.
  • the combination is performed at a ratio corresponding to the combination ratio a, and the minimum combination necessary to obtain the necessary brightness is performed. Degradation of the image quality of the composite image can be suppressed.
  • the composite signal from the composite processing unit 45 is given to the matrix processing unit 46 and subjected to matrix processing, and R, G, and B image signals in the display system are obtained.
  • the output of the matrix processing unit 46 is returned to an analog signal by the D / A converter 47 and then supplied to the monitor 5. In this way, a narrow-band light observation image with sufficient brightness and suppressed image quality deterioration is displayed on the display screen of the monitor 5.
  • the same narrow band illumination light is irradiated and synthesized multiple times on the same site to be observed within a predetermined period such as one frame period, thereby narrowing down.
  • Improves image brightness in band light observation In this case, it is possible to detect the brightness corresponding to the brightness of the image actually displayed on the monitor by obtaining the brightness of the image using matrix processing, and at the brightness desired by the operator. Observation is possible.
  • the composition of the captured image with the same narrowband illumination light is controlled using the composition ratio according to the brightness of the detected image, and the minimum composition processing for obtaining the set brightness is performed. Degradation of image quality can be suppressed.
  • FIG. 4 is a block diagram showing a second embodiment of the present invention.
  • the same components as those of FIG. 4 are identical to those of FIG. 4, the same components as those of FIG. 4, the same components as those of FIG. 4, the same components as those of FIG. 4, the same components as those of FIG.
  • the present invention can be applied not only to narrow band observation but also to special light observation such as fluorescence observation.
  • the composition ratio a is controlled in accordance with various observation modes and the configuration of the light source device for realizing these observation modes. In order to respond to the configuration of the light source device, it is conceivable to make a determination by communicating with the light source device.
  • the endoscope apparatus 100 employs an image processing apparatus 104 including a control unit 105 instead of the image processing apparatus 4, and replaces the light source apparatus 3 with a light source control unit 106 and a rotation filter.
  • adopted the light source device 103 provided with 113 differs from 1st Embodiment.
  • the rotation filter 113 not only the rotation filter 33 of the first embodiment but also a rotation filter for special observation such as fluorescence observation can be adopted.
  • a rotation filter for special observation such as fluorescence observation
  • a rotary filter provided with one or two excitation light filters can be used, and a rotary filter provided with one or two narrowband observation filters is used. Is possible.
  • the light source control unit 106 holds various information related to the light source device 103, for example, information related to the configuration of the rotary filter 113, and transmits / receives the held information to / from the control unit 105. Further, the light source control unit 106 is controlled by the control unit 105 to perform lighting control of the light source 31 and rotation control of the rotation filter 113. For example, when the rotation filter provided with two narrowband observation filters or two excitation light filters is used as the rotation filter 113, the light source control unit 106 performs the same control as in the first embodiment.
  • the transmission of these filters at the timing of capturing the two-channel imaging signal The light source 31 and the rotary filter 113 are controlled so as to emit light.
  • the control unit 105 controls the synthesis processing unit 45 and the dimming control unit 49 based on various information on the light source device 103 and information on the observation mode designated by the operation of the operator.
  • the control unit 105 controls the light source control unit 106 according to the observation mode.
  • the control unit 105 controls each unit so that the same operation as that of the first embodiment is performed.
  • the control unit 105 controls the dimming control unit 49 so that the dimming control unit 49 performs dimming control based on the comparison between the luminance Y1 and the target luminance Ys when the combination ratio a is 0 ⁇ a ⁇ 1. 49 may be controlled.
  • the control unit 105 is based on the configuration of the rotation filter 113 based on information from the light source control unit 106. Control each part. For example, when the rotary filter 113 has two filters for excitation light, the control unit 105 sets the synthesis ratio a of the synthesis processing unit 45 to 1 regardless of the output of the brightness calculation processing unit 44. . In this case, the control unit 105 may control the dimming control unit 49 so that the dimming control unit 49 performs dimming control based on the comparison between the luminance (Y1 + Y2) and the target luminance Ys. .
  • control unit 105 takes into account that sufficient brightness cannot be obtained.
  • Each part of 104 is controlled to stop the operation in the fluorescence observation mode.
  • the control unit 105 may display a message on the monitor 5 indicating that the operation in the designated observation mode is prohibited.
  • control unit 105 sets the synthesis ratio a to zero.
  • control unit 105 sets the combination ratio a to zero.
  • control unit 105 may set the synthesis ratio and dimming control according to the operator's settings.
  • the composition ratio is controlled according to the type of the light source device, the observation mode, etc., and not only the same effects as in the first embodiment can be obtained, Optimal brightness control according to the light source device and the observation mode can be performed.
  • FIG. 5 is a block diagram showing the endoscope apparatus according to the first embodiment of the present invention.
  • the dimming control unit 49 performs dimming control based on the comparison between the luminance Y1 and the target luminance Ys when the synthesis ratio a is 0 ⁇ a ⁇ 1, and when the synthesis ratio a is 1, Dimming control may be performed based on a comparison between the luminance Y1 + Y2 and the target luminance Ys.
  • the composition processing unit 45 synthesizes the captured image by the master illumination and the captured image by the slave illumination based on the composition ratio a and outputs a composite captured image (composite signal). That is, the composition processing unit 45 synthesizes a captured image by slave illumination, that is, a signal obtained by the G signal and the B2 signal and the composition ratio a with a signal based on the captured image by master illumination.
  • the synthesis processing unit 45 outputs a captured image by master illumination from the digital processing unit 43, that is, a signal using only the G signal and the B1 signal to the matrix processing unit 46. become.
  • the endoscope apparatus 1 includes a first mode in which the composition ratio a is 0, for example, a second mode in which the composition ratio a is 1, for example, and a composition ratio a (0 ⁇ a third mode in which a ⁇ 1) is multiplied and combined with the captured image by the master illumination.
  • the combination ratio a is described as being 0 or 1.
  • the combination ratio a may be set to a value other than 0 or 1.
  • three or more fixed synthesis ratios may be set as the synthesis ratio a, and the operation may be performed in four or more modes.
  • the composition ratio a in the first mode is 0 and the composition ratio a in the second mode is 1, and the control of the aperture amount by the dimming control unit 49 is remarkably performed in the first mode and the second mode. It can be different. That is, in this case, the amount of emitted light is significantly different between the first mode and the second mode, and the output level of the CCD 25 is significantly different. Therefore, in the brightness calculation processing unit 244, when the brightness detection processing of the captured image based on each illumination light is the same in the first mode and the second mode, detection that does not correspond to the actual brightness It is conceivable that results will be obtained.
  • the dimming control unit 49 performs dimming control based on the brightness of the captured image, whereas the brightness of the observation image displayed on the monitor 5 is based on the composite signal. For this reason, when it is determined that no halation has occurred in the brightness detection for dimming control, halation may occur in the observation image on the monitor 5. Further, the same problem may occur depending on the gain amount of the AGC circuit 48 that operates independently of the brightness calculation of the brightness calculation processing unit 244.
  • the first threshold value used for the brightness detection processing of the captured image based on each illumination light is used so that the brightness detection can be reliably performed even when the output level of the CCD 25 is significantly different.
  • the mode is changed between the first mode and the second mode.
  • each illumination light can be reliably detected regardless of the composition ratio a or the gain of the AGC circuit 48 so that the brightness detection corresponding to the display can be performed reliably.
  • the threshold value used for the brightness detection processing of the captured image based on the above is changed in accordance with the composition ratio a and the gain value of the AGC circuit 48.
  • FIG. 6 and 7 are explanatory diagrams for explaining brightness detection processing of a captured image based on each illumination light in the brightness calculation processing unit 244 in FIG.
  • the brightness calculation processing unit 244 divides one screen into blocks having a predetermined number of pixels, and obtains the brightness of the screen. Note that the brightness calculation processing unit 244 calculates the brightness of the screen for each imaging signal based on each illumination light.
  • FIG. 6 shows that the effective pixel area 251 is divided into 10 ⁇ 10 blocks 252 by the brightness calculation processing unit 244.
  • Each block 252 includes a predetermined number of pixels in the horizontal and vertical directions.
  • the brightness calculation processing unit 244 calculates the brightness for each block. For example, the brightness calculation processing unit 244 sets the average of the pixel values of the pixels included in each block as the brightness of each block (block brightness). Now, it is assumed that 100 blocks included in one screen are blocks B1 to B100, and the brightness of each block B1 to B100 is Bs1 to Bs100.
  • FIG. 7A shows that the brightness Bs1 to Bs100 of each block B1 to B100 detected by the brightness calculation processing unit 244 is arranged in block order.
  • the brightness calculation processing unit 244 arranges the brightness Bs1 to Bs100 in order of the magnitude of the values.
  • the brightness Bs10 of the block B10 is the brightest, and then the brightness is dark as Bs20, Bs9,...,
  • the block B91 is the block of the darkest brightness Bs91.
  • the brightness calculation processing unit 244 calculates the area surrounded by the thick broken line in FIG. 7C, that is, the 2nd to 5th brightness in the brightness order and the 94th to 97th brightness in the brightness order. select. Then, the brightness calculation processing unit 244 sets the average value of the second to fifth brightnesses in the order of brightness as the representative value (hereinafter referred to as a high-intensity detection value) Ash of the bright area in the screen, and in order of brightness.
  • the average value of the 94th to 97th brightnesses is set as a representative value (hereinafter referred to as a low luminance detection value) Asd of a dark area in the screen.
  • a representative value hereinafter referred to as a low luminance detection value
  • the brightness calculation processing unit 244 obtains the brightness of the screen by adding a weight that varies depending on the mode to at least one of the high luminance detection value and the low luminance detection value.
  • 8 and 9 are graphs for explaining the weights that change depending on the mode.
  • FIG. 8 shows the change in weight, with the ratio on the horizontal axis and the weight on the vertical axis.
  • FIG. 9 shows changes in the threshold value with respect to the mode and the composition ratio, with the mode (composition ratio) on the horizontal axis and the threshold value on the vertical axis. 8 and 9 are for explaining the weight given to the high luminance detection value.
  • the brightness calculation processing unit 244 is also provided with pixel values of all the pixels of each screen.
  • the brightness calculation processing unit 244 obtains a ratio of pixels in which the pixel value is equal to or greater than the threshold among all the pixels. For example, as the threshold value, a value used for halation determination as to whether or not halation has occurred in the pixel is set. In this case, the brightness calculation processing unit 244 calculates the ratio of pixels in which halation has occurred among all the pixels. In the example of FIG. 8, the brightness calculation processing unit 244 increases the weight as the ratio of pixels whose pixel values are equal to or greater than the threshold (hereinafter referred to as high luminance pixels) is higher, as in the case where halation occurs. .
  • the brightness calculation processing unit 244 multiplies the high luminance detection value by the weight based on FIG. 8 and then adds the low luminance detection value to the brightness of the screen. Therefore, as the ratio of high-luminance pixels whose pixel value is equal to or greater than the threshold value as in the case where halation occurs, the detection result indicating that the screen is brighter by multiplying the high-luminance detection value by a larger weight. can get.
  • the threshold value for obtaining the ratio of high luminance pixels is changed according to the mode, the synthesis ratio, and the gain of the AGC circuit 48.
  • the dimming control unit 49 decreases the aperture amount and increases the amount of light emitted from the light source device 3. Therefore, in this case, the output of the CCD 25 is at a high level.
  • the dimming control unit 49 increases the aperture amount and decreases the amount of light emitted from the light source device 3. Therefore, in this case, the output of the CCD 25 is at a relatively low level.
  • the threshold for obtaining the ratio of high-luminance pixels is set lower than that in the first mode, taking into account that the captured images by the B1 and B2 illumination lights are combined.
  • the brightness calculation processing unit 244 can appropriately determine the ratio of the high luminance pixels and perform accurate brightness detection regardless of the mode.
  • the threshold value T ′ is lowered as the composition ratio a increases.
  • the brightness calculation processing unit 244 can appropriately determine the ratio of high luminance pixels and perform accurate brightness detection regardless of the combination ratio a.
  • the threshold value T ′ decreases as the gain g of the AGC circuit 48 increases.
  • the brightness calculation processing unit 244 obtains the brightness of the captured image based on each illumination light for each screen in this way, the above-described matrix calculation of the expression (1) and the expressions (2) and (3) Luminances Y1 and Y2 are calculated by the above calculation.
  • the brightness calculation processing unit 244 obtains a ratio of pixels (hereinafter referred to as low luminance pixels) whose pixel value is equal to or less than a threshold value among all the pixels. Then, the brightness calculation processing unit 244 may change the threshold value for obtaining the ratio of the low luminance pixels according to the mode.
  • the surgeon When using the endoscope apparatus 1, the surgeon connects the connector 27 of the endoscope 2 to the light source apparatus 3 and the image processing apparatus 204 as shown in FIG. 5. Thereby, the connection state shown in FIG. 5 is obtained.
  • the surgeon operates a power switch (not shown) to operate the light source device 3, the image processing device 204, and the monitor 5, and performs an operation for narrowband light observation.
  • the light emitted from the light source 31 is converted into narrowband G illumination light, B1 illumination light, and B2 illumination light by the narrowband filter 32 and the rotary filter 33, and after adjusting the brightness by the diaphragm 34, Supplied to the mirror 2.
  • Each illumination light is irradiated from the illumination lens 23 to the subject side through the light guide fiber 26 sequentially and substantially continuously, for example, in a period of 1/20 second.
  • the CCD 25 captures an optical image by the return light from the part.
  • the G signal, the B1 signal, and the B2 signal corresponding to the return lights of the G illumination light, the B1 illumination light, and the B2 illumination light are obtained by the photoelectric conversion of the CCD 25.
  • Video signals including the G signal, the B1 signal, and the B2 signal are given from the endoscope 2 to the image processing device 204.
  • the B1 signal and the B2 signal are signals obtained by imaging with the same exposure amount using illumination light in the same wavelength band, and are substantially the same under the same conditions except that there is a short timing shift within one frame. It is obtained by.
  • the video signal input to the image processing device 204 is subjected to predetermined analog processing by the analog processing unit 41 and then converted to a digital signal by the A / D converter 42.
  • the digital video signal from the A / D converter 42 is separated into a G signal, a B1 signal, and a B2 signal in the digital processing unit 43 and stored in the synchronization memory 40a.
  • the brightness calculation processing unit 244 receives the G signal, the B1 signal, and the B2 signal read from the synchronization memory 40a, and obtains the brightness of the captured image based on each illumination light for each screen.
  • the brightness calculation processing unit 244 calculates the brightness of each block for each screen of the captured image based on each illumination light.
  • the brightness calculation processing unit 244 obtains the average of the block brightness with the relatively bright block brightness and the brightness with the higher block to obtain the high brightness detection value, and the block brightness with the relatively dark block brightness and the lower brightness of the block.
  • the average of the lengths is obtained as a low luminance detection value.
  • the brightness calculation processing unit 244 multiplies at least one of the high-luminance detection value and the low-luminance detection value by the weight obtained according to the mode, the synthesis ratio a, or the gain of the AGC circuit 48 to add each illumination.
  • the brightness of each screen is obtained for the captured image based on light.
  • the brightness calculation processing unit 244 uses a relatively high value as a threshold value for obtaining the ratio of high-luminance pixels. Thereby, a high-intensity pixel can be detected with high accuracy.
  • the brightness calculation processing unit 244 increases the weight by which the high-luminance detection value is multiplied as the ratio of high-luminance pixels increases.
  • the brightness calculation processing unit 244 calculates the brightness of the screen by multiplying the high-luminance detection value by the calculated weight and then adding it to the low-luminance detection value.
  • the brightness calculation processing unit 244 compares, for example, as a threshold value for obtaining the ratio of high luminance pixels. Use a low value. Thereby, a high-intensity pixel can be detected with high accuracy.
  • the brightness calculation processing unit 244 increases the weight by which the high-luminance detection value is multiplied as the ratio of high-luminance pixels increases.
  • the brightness calculation processing unit 244 calculates the brightness of the screen by multiplying the high-luminance detection value by the calculated weight and then adding it to the low-luminance detection value.
  • the threshold value is changed according to the composition ratio a.
  • the brightness calculation processing unit 244 increases the weight by which the high-luminance detection value is multiplied as the ratio of high-luminance pixels increases.
  • the brightness calculation processing unit 244 calculates the brightness of the screen by multiplying the high-luminance detection value by the calculated weight and then adding it to the low-luminance detection value.
  • the brightness calculation processing unit 244 may change the threshold based on the gain of the AGC circuit 48. In this case as well, high luminance pixels can be detected with high accuracy.
  • the brightness calculation processing unit 244 increases the weight by which the high-luminance detection value is multiplied as the ratio of high-luminance pixels increases.
  • the brightness calculation processing unit 244 calculates the brightness of the screen by multiplying the high-luminance detection value by the calculated weight and then adding it to the low-luminance detection value.
  • the threshold value for obtaining the ratio of the high luminance pixels changes according to the mode, the composition ratio a, or the gain of the AGC circuit 48, the brightness of the screen can be obtained with high accuracy regardless of the mode. Can do.
  • the brightness calculation processing unit 244 uses the brightness obtained for each screen for the captured image based on each illumination light, for example, the matrix calculation by the above formula (1) and the master by the above formulas (2) and (3). Luminance Y1 due to illumination and luminance Y2 due to slave illumination are calculated. As described above, the luminances Y1 and Y2 are calculated using matrix processing, and show the same brightness as the brightness when displayed on the monitor 5. Next, the dimming control unit 49 obtains a difference ⁇ Y1 between the target luminance Ys and the luminance Y1, and determines the combination ratio a.
  • the composition ratio a is supplied to the composition processing unit 45, and the composition processing unit 45 synthesizes the image captured by the slave illumination with the image captured by the master illumination by a ratio based on the composition ratio a.
  • the synthesis processing unit 45 obtains a synthesized signal using the above equation (5).
  • the composition ratio a is 0, that is, when the luminance Y1 is equal to or higher than the target luminance Ys, the captured image is not synthesized by the slave illumination. Therefore, in this case, no blur occurs in the composite captured image based on the composite signal, and image quality deterioration does not occur.
  • the composite signal from the composite processing unit 45 is given to the matrix processing unit 46 and subjected to matrix processing, and R, G, and B image signals in the display system are obtained.
  • the output of the matrix processing unit 46 is returned to an analog signal by the D / A converter 47 and then supplied to the monitor 5. In this way, a narrow-band light observation image with sufficient brightness and suppressed image quality deterioration is displayed on the display screen of the monitor 5.
  • the same narrow band illumination light is irradiated and synthesized multiple times on the same site to be observed within a predetermined period such as one frame period, thereby narrowing down.
  • the brightness of the screen is obtained using a threshold value corresponding to the mode, the combination ratio, or the AGC gain, and the brightness of the screen can be obtained with high accuracy.
  • matrix processing it is possible to detect the brightness corresponding to the brightness of the image actually displayed on the monitor. Observation at the desired brightness is possible.
  • the synthesized image is not synthesized with the same narrow-band illumination light, so that deterioration of image quality can be suppressed.
  • the threshold value for obtaining the ratio of the high-luminance pixels is changed according to the mode or the like. You may make it change according to AGC gain.
  • the threshold value used for determining the representative value of the block brightness can be changed according to the mode, the synthesis ratio, or the AGC gain.
  • the threshold relating to the output level of the image sensor i.e., the pixel unit or block unit is high or low.
  • the threshold value may be changed according to the mode, the combination ratio, or the AGC gain.
  • the present invention can be similarly applied to fluorescence observation, and a rotation having two excitation light filters for performing fluorescence observation.
  • a filter is used, the same synthesis process and brightness calculation process as in the above embodiment can be performed.
  • FIG. 10 is a block diagram showing a fourth embodiment of the present invention.
  • the same components as those of FIG. Even in an endoscope apparatus for performing narrow-band light observation, white balance adjustment is necessary so that the color displayed on the monitor is in a desired state, similarly to the endoscope apparatus performing normal light observation. .
  • the aperture amount may change significantly depending on the mode or the combination ratio a. Then, the color of the emitted light from the light source device 3 may change due to the change in the aperture amount. Therefore, white balance adjustment corresponding to the mode and the composition ratio a is necessary.
  • FIG. 11 is a block diagram showing a general circuit for performing white balance adjustment.
  • the R image signal Rch, the G image signal Gch, and the B image signal Bch are respectively supplied to and detected by the R image detection unit 71R, the G image detection unit 71G, and the B image detection unit 71B.
  • B, G, and B signals are used as R, G, and B image signals.
  • the multiplier 72 multiplies the G signal by a predetermined coefficient, for example, 1/2.
  • the B signal from the R image detection unit 71R, the G signal from the multiplier 72, and the B signal from the B image detection unit 71B are supplied to the white balance adjustment unit 73, multiplied by a predetermined gain, and subjected to white balance adjustment. Is done.
  • the white balance adjustment in narrow-band light observation was shown, the same color balance adjustment can be performed also in fluorescence observation using the circuit similar to FIG.
  • G light is irradiated at the timing to obtain the R image signal
  • the first excitation light is irradiated at the timing to obtain the G image signal.
  • the second excitation light is irradiated at the timing of obtaining the B image signal.
  • the color balance adjustment is performed by halving the detection result for the G signal based on the irradiation of the G light and using the detection result as it is for the first and second fluorescence signals based on the first and second excitation lights.
  • the light source device 3 may be used.
  • the amount of G illumination light may be extremely large with respect to the B illumination light emitted from.
  • the gains of the B1 and B2 signals need to be extremely larger than the gain of the G signal. If it does so, the level range effective as B1, B2 signal will become narrow, and a dynamic range will become narrow.
  • the dynamic range is prevented from being narrowed by controlling the amount of emitted light in each band according to the mode.
  • This embodiment is different from the third embodiment in that an image processing device 260 is used instead of the image processing device 204.
  • the image processing apparatus 260 employs a dimming control unit 61 instead of the dimming control unit 49, and has an adjustment value memory 62 and a white balance processing unit 63 added thereto, in the image processing apparatus 204 of the third embodiment. And different.
  • the dimming control unit 61 has the same function as that of the dimming control unit 49 of the third embodiment, and also has a function of controlling the white balance adjustment value acquisition process.
  • the combination ratio a is different between the first mode and the second mode. For example, it is assumed that the composition ratio a in the first mode is 0 and the composition ratio a in the second mode is 1. In this case, in the first mode, a captured image using G illumination light and B1 illumination light is obtained.
  • the dimming control unit 61 obtains the white balance adjustment value corresponding to the first mode, When the light from the light source 31 passes through the filter 33G of the rotary filter 33, the stop amount of the diaphragm 34 is increased, and at the timing when the light from the light source 31 passes through the filter 33B1 of the rotary filter 33, the stop amount of the stop 34 Make it smaller.
  • the dimming control unit 61 obtains the white balance adjustment value corresponding to the second mode.
  • the aperture amount of the aperture 34 is, for example, the same.
  • the white balance processing unit 63 obtains each white balance adjustment value for the first and second modes based on the output of the A / D converter 42 when acquiring the white balance adjustment value, and stores it in the adjustment value memory 62.
  • the dimming control unit 61 corrects the white balance adjustment values for the first and second modes based on the aperture amount when acquiring the white balance adjustment values corresponding to the first and second modes, and adjusts the adjustment values. It is stored in the memory 62.
  • control of the aperture amount when acquiring the white balance adjustment value may be determined based on the level of the captured image based on the G illumination light and the level of the captured image based on the B illumination light.
  • the captured image based on the B illumination light is obtained by combining the captured image based on the B1 illumination light and the captured image based on the B2 illumination light according to the combination ratio a. Accordingly, the aperture amount at the time of obtaining the white balance adjustment value corresponding to the first and second modes may be set based on the combination ratio a in the first and second modes.
  • the light control part 61 adjusted the light quantity by controlling the amount of apertures, you may make it adjust the emitted light quantity of the light source 31.
  • FIG. 1 the light control part 61 adjusted the light quantity by controlling the amount of apertures, you may make it adjust the emitted light quantity of the light source 31.
  • the white balance adjustment value is determined for each mode.
  • the dimming control unit 61 restricts the light amounts of the G illumination light and the B illumination light with the aperture amount based on the combination ratio a set in the first mode.
  • the white balance processing unit 63 calculates a white balance adjustment value and outputs it to the adjustment value memory 62.
  • the dimming control unit 61 reads the white balance adjustment value for the first mode stored in the adjustment value memory 62, corrects it according to the aperture amount, and stores it in the adjustment value memory 62.
  • the dimming control unit 61 uses the aperture amount based on the combination ratio a set in the second mode to change the amounts of G illumination light and B illumination light. Restrict.
  • the white balance processing unit 63 calculates a white balance adjustment value and outputs it to the adjustment value memory 62.
  • the dimming controller 61 reads the white balance adjustment value for the second mode stored in the adjustment value memory 62, corrects it according to the aperture amount, and stores it in the adjustment value memory 62.
  • the white balance processing unit 63 reads the white balance adjustment value for the first or second mode stored in the adjustment value memory 62 according to the mode, and amplifies the imaging signal. Other operations are the same as those of the third embodiment.
  • the white balance adjustment corresponding to each mode is performed, and at the time of obtaining the white balance adjustment value, the amount of illumination light in each band is limited corresponding to the combination ratio of each mode, The white balance adjustment value of each mode can be acquired while ensuring the dynamic range.
  • the white balance adjustment value may be calculated by the above-described method for each synthesis ratio a of the third mode.
  • the endoscope is provided with a custom switch, and photometry, contrast toggle, focus, etc. can be switched with one switch. That is, various operation switches are provided on the front panel, the keyboard, and the like, and there are custom switches that can be assigned arbitrary functions.
  • the scope of the optical magnification function has been optically magnified only by a dedicated operation lever, but by assigning it to a custom switch, the flexibility of the operation method can be improved.
  • the two-focus switching can be assigned to the custom switch.
  • optical expansion and bifocal switching it is good to display what state is after operating.
  • the recognizability can be improved by reversing white and black or using a large font so as to be clearly distinguished from the display of the patient name and the like.
  • each function multiple modes and levels may be toggled.
  • photometry and contrast can be easily switched with a custom switch.
  • a custom switch there are three modes for metering: average, peak, and auto. If you set peak and auto in the menu in advance, you can switch between peak and auto at any time with a custom switch.
  • the function to be realized and the image processing may be changed in one custom switch or one function switch.
  • the function switch called “color” the operation is to change the color enhancement level in the normal observation mode and the color tone mode in the NBI observation mode.
  • the NBI color mode can be changed from 3 to 1 or changed from 1 to 2 by a variable switch.
  • the NBI tone mode can be set to 1 in the esophagus and can be changed to 2 in the stomach. It can meet the user's preference.
  • the NBI color tone mode set in advance by the user may be used without setting the NBI color tone mode based on the scope ID. For example, after the user sets the NBI color tone mode to 2, the system is turned off, and when it is turned on again, the last used 2 may be called. Whether to use the scope ID may be set in the menu.
  • the processor can be combined with multiple types of light sources.
  • the observation modes that can be handled vary depending on the light source.
  • the processor may have a communication unit corresponding to each light source.
  • the processor may correspond to two communication units with one connector. More specifically, it is preferable to use a plurality of pins in the connector properly, and it is even better to include pins that can be shared.
  • the communication standard of the processor may be changed corresponding to the light source, and the signal standard may be changed.
  • the synchronization signal may be a composite synchronization signal or a vertical synchronization signal.
  • the rotation position of the color filter shown here can be said to be the exposure timing for the CCD in a broad sense. That is, if the aperture adjuster combined with the color filter makes the relative position in the rotation direction with the color filter appropriate, the exposure timing with respect to the CCD becomes correct. Therefore, it is important to keep the position including them.
  • the white balance can be operated by pressing a switch provided on the front panel.
  • the holding of the white balance switch has been described depending on the setting, but it may be automatically switched according to the type of endoscope used.
  • the type of endoscope is detected by the scope ID and it is found that the scope is a surgical scope, the operation may be performed so as to turn off the white balance switch holding. This is because, in the field of surgery, when the user who operates the switch is different from the user who holds the endoscope, the operation timing of the switch is shifted, and it may be difficult to hold the switch.
  • the endoscope is equipped with a CCD and a resistance element is also installed to indicate the type of the CCD, the type of the CCD is determined based on the resistance value, and then the white balance switch is set accordingly.
  • the white balance has the effect of absorbing the manufacturing variation of the color filter of the light source device and improving the color reproducibility.
  • the CCD of the endoscope performs 4-line reading, it has an effect of absorbing the variation of each channel and preventing the variation between channels.
  • FIG. 12A shows the case where the input frame rate to the field memory ⁇ the output frame rate
  • FIG. 12B shows the case where the input frame rate to the field memory> the output frame rate.
  • the circled number 1 in FIG. 12 indicates the period of output after combining the A field image and the previous B field image
  • the circled number 2 in FIG. 12 indicates the B field image and the previous A field image.
  • the period during which the image is output after the composition process is shown.
  • the frequency of the progressive output image is higher than the interlace, the images indicated by P5 and P6 are exactly the same. That is, in P2, P6, etc., frequency deviation is absorbed by taking out the same field twice.
  • the frequency of the progressive output image is lower than the interlace, an interlaced image that is not output is provided as between P1 and P2 to absorb the frequency shift.
  • the current input field is output as an output frame for each line as it is.
  • the output frames p1, p3,... The output of the median filter is used. They are to search for signals having the second highest signal level in a0, b0, and a1, and output them as p1.
  • b0 is optimal for p1
  • a0 or a1 is appropriate. This is a method that focuses on these.
  • the median filter is performed for each RGB color and for each pixel. Taking the pixel in the shaded area in FIG. 13 as an example, in the case of an R image, the signal level is the second in three (a1, x), (b1, x), (a2, x) of the R image. Search for a size and get the output.
  • the endoscope is indispensable for the endoscope, and there are various types of endoscopes, and the circuit for driving the CCD includes those provided for the endoscope and those provided for the video processor.
  • the CCD When the CCD is driven by a circuit in the endoscope, what is necessary for the circuit is supplied from the video processor. They are mainly power, clock and ground. There are also various types of CCDs, and those with appropriate power supply voltages and clock frequencies are required.
  • the endoscope is provided with a resistance value, and the voltage is recognized there to realize the CCD discrimination. Such an endoscope requires certain consideration in connection with a video processor.
  • the present invention is not limited to these, and a signal indicating the type of endoscope may be lengthened. As these effects, if the power supply, the clock, and the ground are disconnected at the same time when the endoscope is removed, it is possible to stabilize the CCD driver circuit and the circuits such as A / D and AFE that require them simultaneously. If the power source and the resistance unit are connected simultaneously when connecting the endoscope, an appropriate clock frequency can be prepared and sent to the endoscope.
  • ⁇ Characters can be entered in the comment field etc. even while the endoscope image is frozen and a still image is displayed. At this time, the patient ID cannot be input or changed. Further, regardless of whether the image is frozen or not, in order to change the color of the endoscopic image, a GUI may be displayed as a menu on the monitor screen, and a certain amount of red or blue may be changed.

Abstract

 内視鏡装置は、所定の時間内に、第1の帯域の照明光による照明を行うと共に、第2の帯域の照明光による照明を2回以上の第1の回数行う照明手段と、前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの第1の所定回の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの前記第1の所定回以外の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段と、前記第2の明るさの元となる前記第1及び第2の撮像信号に、前記第1の明るさと目標明るさとの差分と前記第2の明るさとの比に基づく係数を乗算した後、前記第1の明るさの元となる前記第1及び第2の撮像信号に合成する合成手段と、を備える。

Description

内視鏡装置
 本発明は、狭帯域光観察に好適な内視鏡装置に関する。
 医療用内視鏡は観察対象部位が生体の内部であるので、体内を照明する光源装置が必要である。光源装置が発生した照明光は、内視鏡の挿入部を挿通したライトガイドを介して撮像部のある先端部から観察対象組織に照射される。
 内視鏡による観察としては、可視光を用いた通常光観察(白色光観察:White Light Imaging:WLI)が広く行われている。面順次式の内視鏡装置では、回転フィルタに白色光の光源を透過させることで、R、G、Bの3色の照明光を体腔内の組織に対して順次照射する。そして、R、G、Bの3色の照明光に対応する反射光画像を時分割に取得して、各反射光画像から通常光観察を行うためのカラー画像を生成する。
 また、従来、照射光の波長特性を利用した種々の特殊光観察も行われている。例えば、WO2010/131620号公報(以下、文献1)には、特殊光観察として、狭帯域光観察(Narrow Band Imaging:NBI)を行うための面順次方式の撮像装置が開示されている。狭帯域光観察では、血管を高いコントラストで観察するために、血液に強く吸収され、かつ粘膜表層で強く反射・散乱される、という特長を併せ持つ光の利用に着目し、青色狭帯域光と緑色狭帯域光とを順次、生体組織に照射することにより、粘膜表層の毛細血管と深部の太い血管とのコントラストを強調表示する。
 文献1の発明では、緑色の狭帯域光Gと青色の2つの狭帯域光B1,B2を順次照射可能に構成されている。文献1の撮像装置では、狭帯域光G,B1,B2に対応する反射光画像(狭帯域画像)から作成した狭帯域光観察画像を用いて狭帯域光観察を行うようになっている。
 しかしながら、文献1の発明では、撮像画像の平均の明るさに基づいて合成比率を決定している。撮像画像の平均の明るさは、人が感じる明るさとは必ずしも同じではなく、文献1の発明では、術者の感覚に合った調光制御が行われないという問題があった。また、狭帯域光B1,B2は時間的にずれて生体組織に照射される。従って、狭帯域光B1,B2に基づく画像を合成すると、合成画像にはぶれが生じることがあるという問題があった。
 本発明は、画質劣化を抑制しつつ、術者の感覚に対応した調光制御を可能にすることができる内視鏡装置を提供することを目的とする。
 本発明の一態様に係る内視鏡装置は、所定の時間内に、第1の帯域の照明光による照明を行うと共に、第2の帯域の照明光による照明を2回以上の第1の回数行う照明手段と、前記照明手段により照明された被写体を撮像し、前記第1の帯域の照明光の照明に基づく第1の撮像画像及び前記第2の帯域の照明光の照明に基づく第2の撮像画像を出力する撮像手段と、前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの第1の所定回の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの前記第1の所定回以外の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段と、前記第2の明るさの元となる前記第1及び第2の撮像信号に、前記第1の明るさと目標明るさとの差分と前記第2の明るさとの比に基づく係数を乗算した後、前記第1の明るさの元となる前記第1及び第2の撮像信号に合成する合成手段と、を備える。
本発明の一実施の形態に係る内視鏡装置を示すブロック図。 回転フィルタ33の一例を示す説明図。 明るさ算出処理部44の具体的な構成を示すブロック図。 本発明の第2の実施の形態を示すブロック図。 本発明の第1の実施の形態に係る内視鏡装置を示すブロック図。 図1中の明るさ算出処理部44における各照明光に基づく撮像画像の明るさ検出処理を説明するための説明図。 図1中の明るさ算出処理部44における各照明光に基づく撮像画像の明るさ検出処理を説明するための説明図。 モードによって変化する重みを説明するためのグラフ。 モードによって変化する重みを説明するためのグラフ。 本発明の第2の実施の形態を示すブロック図。 ホワイトバランス調整を行う一般的な回路を示すブロック図。 インターレースからプログレッシブに変換する様子を示すタイミングチャート。 メディアンフィルタの作用を説明するための説明図。
 以下、図面を参照して本発明の実施の形態について詳細に説明する。
 (第1の実施の形態)
 図1は本発明の第1の実施の形態に係る内視鏡装置を示すブロック図である。 
 図1に示すように、内視鏡装置1は、被検体としての生体の内部を観察するための内視鏡2と、生体の内部の観察を行うために狭帯域の照明光を照射する光源装置3と、狭帯域の照明光の下で撮像された撮像信号に対する信号処理を行う画像処理装置4とを備えている。画像処理装置4により生成された狭帯域画像はモニター5に供給されるようになっている。モニター5としては通常のカラーモニターを採用することができる。即ち、モニター5は、RGB入力端子(図示省略)を備えており、RGB入力端子に、R画像、G画像及びB画像の信号が供給されてカラー表示を行う。
 内視鏡2は、体腔内に挿入できる程度の外径を有する可撓性の挿入部21を有し、挿入部21の内部には、光源装置3から照射される光を導光するための、石英ファイバ等により構成されたライトガイドファイバ26が挿通されている。ライトガイドファイバ26の一端は、光源装置3に対して着脱自在に接続されるコネクタ27に接続される。ライトガイドファイバ26の他端は、挿入部21の先端の先端部22に設けられた照明レンズ23の近傍に配置されている。なお、コネクタ27は光源装置3に接続されると共に後述する画像処理装置4にも接続される。
 光源装置3からの照明光は、ライトガイドファイバ26により挿入部21の先端部22に導かれ、照明レンズ23によって拡散されて被検体に照射される。また、先端部22には、被検体からの戻り光により被検体の光学像を結ぶための対物レンズ24と、その結像位置に配置された撮像素子としてのCCD(電荷結合素子)25とが設けられている。撮像手段を構成するCCD25は、画像処理装置4に設けられた図示しないCCD駆動回路によって駆動され(図示省略)、被検体を撮像し、撮像した被検体の光学像を映像信号に変換して、画像処理装置4に出力する。
 光源装置3は、キセノンランプ等により構成される光源31を備える。光源31は、白色光に近い波長帯域の光を発光する。光源31の照射光路上には、狭帯域フィルタ32、回転フィルタ33及び絞り34が配設されている。
 狭帯域フィルタ32は、光源31から発光される光の帯域を狭帯域にして回転フィルタ33に出射する。回転フィルタ33は狭帯域フィルタ32を通過した光の帯域を、狭帯域光観察に必要な波長帯域に制限する。絞り34は、回転フィルタ33を通過した光の光量を制限することにより、光量を調整する。絞り34は、後述する調光制御部49によって絞り量が制御されるようになっている。
 図2は回転フィルタ33の一例を示す説明図である。 
 回転フィルタ33は、円板形状で、周方向には、3つの開口が等しい角度で設けられており、3つの開口には、夫々フィルタ33G,33B1,33B2が取り付けられている。フィルタ33Gは、緑(G)の波長帯域を透過帯域とし、フィルタ33B1,33B2は、青(B)の波長帯域を透過帯域としている。
 狭帯域フィルタ32及び回転フィルタ33によって、フィルタ33Gからは、例えば、540nmを中心とした530-550nmの狭帯域のG照明光が透過し、フィルタ33B1からは、例えば415nmを中心とした400-430nmの狭帯域のB照明光(以下、B1照明光という)が透過し、フィルタ33B2からは、フィルタ33B1と同様に、例えば415nmを中心とした400-430nmの狭帯域のB照明光(以下、B2照明光という)が透過する。このように、フィルタ33B1,33B2を透過した狭帯域のB1照明光,B2照明光は、同じ波長帯域である。
 この回転フィルタ33は、中心が図示しない回転用モータの回転軸に取り付けられて、回転駆動されるようになっている。回転用モータの回転軸等には、図示しないエンコーダが取り付けられており、エンコーダによって回転用モータの回転、即ち、回転フィルタ33の回転が検出可能である。後述する画像処理装置4は、回転フィルタ33の回転速度が一定となるように、回転用モータの回転を制御するようになっている(図示省略)。
 このように本実施形態においては、光源装置3からは狭帯域の照明光を用いて、被検体に対する撮像を行う。このため、通常広く用いられる広帯域の照明光を用いた場合に比較すると、照明光量が不足しがちになることがある。特に、ライトガイドファイバ26による光学的伝送特性上から、短波長B側での伝送ロスがより大きくなる傾向があり、先端部22の照明レンズ23から照明光として出射する場合におけるB照明光の出射光量は小さくなりやすい。
 そこで、本実施の形態においては、回転フィルタ33の周方向に同一透過特性のフィルタ33B1,33B2を2つ配置し、これらの2つのフィルタ33B1,33B2を用いて回転フィルタ33が1回転される毎に、観察対象となる被検体の同一部位にB照明光を2回照射し、その戻り光によりB照明光に基づく2回の撮像を行う。例えば、1.5フレーム期間に回転フィルタ33を1回転させ、B照明光による撮像を2回行う。そして、2回の撮像を合成することにより、B照明光に基づく撮像画像(B撮像画像)の明るさを向上させるようになっている。
 なお、1.5フレーム期間にG照明光による撮像を1回、B照明光による撮像を2回行う例について説明するが、各色の狭帯域光による撮像を行う周期及び回数は適宜設定可能である。
 しかしながら、狭帯域のB1照明光の戻り光に基づくB1撮像画像とB2照明光の戻り光に基づくB2撮像画像は時間的にずれた画像であり、これらの画像を合成することによって画質が劣化する虞がある。そこで、本実施の形態においては、狭帯域のB1照明光,B2照明光の一方の光のみによって十分な明るさの撮像画像が得られる場合には合成を行わない。また、狭帯域のB1照明,B2照明光の一方の光のみでは十分な明るさの撮像画像が得られない場合には、明るさに応じて他方のB照明光に基づく撮像画像を合成することにより、画質劣化を抑制しながら、十分な明るさの撮像画像を得るようにしている。
 この場合において、本実施の形態においては、画像処理装置4は、色変換マトリクス処理によって撮像画像の明るさを求めることにより、術者の感覚に応じた明るさ制御を行うようになっている。
 画像処理装置4は、アナログ処理部41を有している。アナログ処理部41は、内視鏡2からの映像信号に対して増幅処理等の所定のアナログ信号処理を施してA/D変換器42に出力する。A/D変換器42は、アナログ処理部41の出力をデジタル信号に変換した後、デジタル処理部43に出力する。
 内視鏡2のCCD25は、G照明光の戻り光に基づくG撮像画像をG信号として出力し、B1照明光の戻り光に基づくB1撮像画像をB1信号として出力し、B2照明光の戻り光に基づくB2撮像画像をB2信号として出力する。内視鏡2からの映像信号は、これらのG信号、B1信号及びB2信号を含む。同時化制御部40は、これらのG信号、B1信号及びB2信号を、R画像、G画像及びB画像を記憶する同時化メモリ40aに記憶させる。なお、同時化メモリ40aには、例えば夫々30フレーム分のG信号、B1信号及びB2信号が記憶される。そして、色ズレが最小となるよう、G,B1,B2の信号を同時化メモリ40aから読み出す。
 明るさ算出処理部44は、同時化メモリ40aに記録する前に、G信号、B1信号及びB2信号に基づいて、0.5フレーム毎に順番に撮像画像の明るさを算出する。本実施の形態においては、撮像画像の明るさをモニター5に実際に表示させた場合の明るさで評価するために、モニター5への表示に際して行われるマトリクス処理と同様のマトリクス処理を実施して明るさを求める。更に、本実施の形態においては、G照明光及びB1照明光による照明を、撮像に必ず用いるマスター照明とし、G照明光及びB2照明光による照明を、画像の明るさが暗い場合に補助的に用いるスレーブ照明とする。マスター照明による撮像画像の明るさを求めるために、明るさ算出処理部44は、G信号及びB1信号に基づいて、マトリクス処理部52によるマトリクス処理を利用してマスター照明による輝度Y1を求める。また、スレーブ照明による撮像画像の明るさを求めるために、明るさ算出処理部44は、G信号及びB2信号に基づいて、マトリクス処理部52によりマトリクス処理を利用してスレーブ照明による輝度Y2を求める。
 図3は明るさ算出処理部44の具体的な構成を示すブロック図である。平均値算出部50はR画像、G画像、B画素に相当する信号の平均値である/B1信号、/G信号、/B2信号を算出する。R画像明るさ算出部51R、G画像明るさ算出部51G、B画像明るさ算出部51Bは、/B1信号、/G信号、/B2信号によって、それぞれ明るさを求める。なお、本実施の形態においては、R画像の信号としてB1信号が用いられ、G画像の信号としてG信号が用いられ、B画像の信号としてB2信号が用いられる。明るさ算出部51R,51G,51Bは、/B1信号、/G信号、/B2信号を保持してからRf,Gf,Bfとしてマトリクス処理部52に出力する。
 マトリクス処理部52は、下記(1)式のマトリクス演算によって、入力されたR,G,B画像の信号の色変換を行う。この場合には、マトリクス処理部52は、下記(1)式のマトリクス演算によって、マスター照明及びスレーブ照明の夫々に対してマトリクス処理を行う。なお、(1)式のα,β,γはマトリクス係数である。マトリクス処理部52からは、マスター照明に対するマトリクス処理又はスレーブ照明に対するマトリクス処理によって得られた出力Rm,Gm,Bmが輝度算出部53に供給される。なお、本実施の形態においては、出力RmとしてG信号が、出力GmとてB信号が、出力BmとしてB信号が輝度算出部53に供給される。
Figure JPOXMLDOC01-appb-I000001
 輝度算出部53は、入力された信号Rm(G信号)、信号Gm(B信号)及び信号Bm(B信号)に対する演算によって輝度を求める。即ち、輝度算出部53は、マスター照明による輝度Y1を、例えば、下記(2)式の演算によって得る。Y1=0.3Rm+0.59Gm+0.11Bm
  =0.3(α・/G)+0.59(β・/B1)+0.11(γ・/B1)  …(2)
 また、輝度算出部53は、スレーブ照明による輝度Y2を、輝度算出部53に入力されたB2信号のレベルをB2として、例えば、下記(3)式の演算によって得る。Y2=0.3Rm+0.59Gm+0.11Bm
  =0.3(α・/G)+0.59(β・/B2)+0.11(γ・/B2)  …(3)
 ここで、上記(2)式及び(3)式のGはG=Rm=αGfである。αは後述の(6)式のαと同じである。後述の(5)式によれば、Gt=(1+a)Gとなり、a=1の時には、Gt=2Gとなる。従って、αに1/2を加味しておくことが重要である。 
 明るさ算出処理部44は、求めた輝度Y1,Y2及びΔY1を明るさの情報として調光制御部49に出力する。調光制御部49は、目標とする明るさ(輝度)Ysと、輝度Y1との差(Ys-Y1)=ΔY1を求める。ΔY1≦0の場合には、マスター照明のみによって目標とする明るさが得られているので、調光制御部49は、スレーブ照明による撮像画像の合成比率(係数)aを0とする。また、ΔY1>0の場合には、調光制御部49は、下記(4)式によって合成比率aを求める。調光制御部49は、求めた合成比率aを合成処理部45に出力する。
 ΔY1=Y2×a  a=ΔY1/Y2     …(4)
 狭帯域光観察においては、狭帯域のG照明光及びB照明光の各戻り光に基づく撮像画像を用いる。後述するマトリクス処理部46は、狭帯域光を用いた撮像によって得たG撮像画像及びB撮像画像からRGB画像の信号成分をマトリクス処理(色変換マトリクス処理)によって生成する。
 明るさ算出処理部44のマトリクス処理部52におけるマトリクス処理は、マトリクス処理部46におけるマトリクス処理と同様の処理である。即ち、明るさ算出処理部44によるマトリクス演算は、モニター5のR,G,B入力に対応した信号を得るためのものであり、明るさ算出処理部44によって得られる輝度は、モニター上に表示される画像の輝度に対応したものであって、術者がモニター5を観察した場合に感じられる画像の明るさに対応するものである。
 なお、明るさ算出処理部44における上記(2)式及び(3)式の係数は、モニター5に表示する狭帯域光観察画像として希望する色調に応じて、変更可能であることは明らかである。
 また、調光制御部49は、入力された明るさの情報に基づいて、目標とする明るさが得られるように、絞り34を制御する。例えば、調光制御部49は、撮像画像の明るさが目標値以上の場合には、絞り34の開き量を絞るための調光信号を出力し、撮像画像の明るさが目標値未満の場合には、絞り34を開くための調光信号を出力する。
 本実施の形態においては、合成処理部45は、マスター照明による撮像画像とスレーブ照明による撮像画像とを、合成比率aに基づいて合成する。即ち、合成処理部45は、合成比率aが0の場合には、デジタル処理部43からマスター照明による撮像画像、即ち、G信号及びB1信号のみを用いた信号をマトリクス処理部46に出力する。また、合成処理部45は、合成比率aが0でない場合には、スレーブ照明による撮像画像、即ち、G信号及びB2信号と合成比率aとによって得た信号を、マスター照明による撮像画像に基づく信号と合成する。
 また、例えば、G照明光の明るさがB照明光よりも極めて明るいことで、合成比率aが1になった時に、電気的に余剰な乗算が無くノイズの増加を抑えられる。下記(5)式は、aによる合成信号を示している。なお、(5)式のRin,Gin,Binは、夫々R画像、G画像、B画像の入力を示し、本実施の形態における狭帯域光観察においては、夫々B2、G、B1である。また、(5)式のRt,Gt,Btは、合成信号のR画像、G画像、B画像の出力を示している。なお、(5)式ではR画像の出力はB2であるが、後述するマトリクス処理によってモニター5に供給されるR画像の出力は略0となる。
Figure JPOXMLDOC01-appb-I000002
 合成処理部45は、例えば、(5)式の演算によって合成信号を求め、求めた合成信号をマトリクス処理部46に出力する。マトリクス処理部46は、マトリクス処理によって、モニター5のRGB入力に対応した信号を得る。下記(6)式は、マトリクス処理部46によるマトリクス処理の一例を示している。なお、(6)式のα,β,γはマトリクス係数であり、Rout,Gout,Boutは、マトリクス処理後のR画像、G画像、B画像の出力を示している。 
 α、β、γは、狭帯域光観察として希望する色調に応じて変更できる。これらは、大き過ぎず小さ過ぎないように、例えば、0.7~1.5の範囲で求めておき、複数の候補から選択する。この範囲を超えてしまうと、ノイズが増えたり、飽和しやすくなる。この条件の下で、αだけは上記(5)式の(1+a)を考慮し、0.35~0.75の範囲で決めておく。当然、この考慮があるので、ノイズ増加や飽和増加は無いが、ダイナミックレンジが欠落しないようビット幅の拡張は必要である。
Figure JPOXMLDOC01-appb-I000003
 上記(6)式ではRtに対して0が乗算される。従って上記(5)式でRt=B2と示されているが、Rt=0でも構わない。 
 D/A変換器47は、マトリクス処理部46の出力をアナログ信号に変換してモニター5に出力する。即ち、(6)式のRout,Gout,Boutが、RGB入力としてモニター5に与えられる。モニター5は、入力されたRGB入力に応じて撮像画像をカラー表示する。こうして、モニター5の表示画面上において、狭帯域光観察が可能となる。
 次に、このように構成された実施の形態の動作について説明する。
 術者は、内視鏡装置1を使用する際には、図1に示すように、内視鏡2のコネクタ27を光源装置3及び画像処理装置4に接続する。これにより、図1に示す接続状態が得られる。術者は、図示しない電源スイッチを操作して光源装置3、画像処理装置4、モニター5それぞれを動作状態として、狭帯域光観察のための操作を行う。
 光源31から照射される光は、狭帯域フィルタ32及び回転フィルタ33によって、狭帯域のG照明光、B1照明光及びB2照明光に変換され、絞り34によって明るさが調整された後、内視鏡2に供給される。各照明光は、ライトガイドファイバ26を介して、例えば、1/20秒の周期において順次かつ略連続的に照明レンズ23から被検体側に照射される。
 G照明光、B1照明光及びB2照明光が被検体の同一の部位に対して照射されたそれぞれのタイミングにおいて、CCD25は、その部位からの戻り光による光学像を撮像する。CCD25の光電変換によって、G照明光、B1照明光及びB2照明光の夫々の戻り光に対応したG信号、B1信号及びB2信号が得られる。G信号、B1信号及びB2信号を含む映像信号は、内視鏡2から画像処理装置4に与えられる。
 なお、B1信号、B2信号は、同一波長帯域の照明光を用いて同一の露光量で撮像されて得られる信号であり、1フレーム内で短いタイミングずれがあることを除けば、略同一の条件で得られるものである。
 画像処理装置4に入力された映像信号は、アナログ処理部41によって所定のアナログ処理が施された後、A/D変換器42によってデジタル信号に変換される。A/D変換器42からのデジタル映像信号は、デジタル処理部43において、G信号、B1信号及びB2信号に分離されて同時化メモリ40aに記憶される。
 明るさ算出処理部44は、同時化メモリ40aから読み出されたG信号、B1信号及びB2信号が与えられ、マスター照明による輝度Y1とスレーブ照明による輝度Y2とをマトリクス処理部52のマトリクス処理を利用して算出する。次に、調光制御部49は、目標輝度Ysと輝度Y1との差分ΔY1を求め、合成比率aを求める。上述したように、輝度Y1,Y2は、マトリクス処理を利用して算出されており、モニター5に表示した場合の明るさと同様の明るさを示すものとなっている。
 合成比率aは合成処理部45に供給され、合成処理部45は、マスター照明による撮像画像に、合成比率aに基づく割合だけスレーブ照明による撮像画像を合成する。例えば、合成処理部45は上記(5)式を用いて合成信号を得る。(5)式において合成比率aが0、即ち、輝度Y1が目標輝度Ys以上である場合には、スレーブ照明による撮像画像の合成は行われない。従って、この場合には、合成信号に基づく合成画像にはぶれが生じておらず画質劣化は生じない。また、スレーブ照明による撮像画像を合成する場合でも、合成比率aに応じた割合で合成が行われることになり、必要な明るさを得るために必要な最低限の合成が行われることになり、合成画像の画質の劣化を抑制することができる。
 合成処理部45からの合成信号は、マトリクス処理部46に与えられてマトリクス処理され、表示系におけるR画像、G画像及びB画像の信号が得られる。マトリクス処理部46の出力はD/A変換器47によってアナログ信号に戻された後、モニター5に供給される。こうして、モニター5の表示画面上において、十分な明るさで且つ画質劣化が抑制された狭帯域光観察画像が表示される。
 このように本実施の形態によれば、1フレーム期間等の所定期間内において、観察対象となる同一部位に対して、同一の狭帯域の照明光を複数回照射して合成することにより、狭帯域光観察における画像の明るさを向上させる。この場合において、画像の明るさをマトリクス処理を利用して求めることで、実際にモニターに表示される画像の明るさに対応した明るさ検出が可能であり、術者の希望する明るさでの観察が可能である。また、検出した画像の明るさに応じた合成比率を用いて同一の狭帯域照明光による撮像画像の合成を制御して、設定した明るさを得るための最低限の合成処理を行っており、画質の劣化を抑制することができる。
 なお、上記実施の形態においては、合成処理を合成処理部45により行い、マトリクス処理をマトリクス処理部46により行う例を説明したが、合成処理及びマトリクス処理をまとめて1回のマトリクス処理によって行うことも可能である。また、更に、マトリクス処理を行った後、合成処理を行ってもよい。
 (第2の実施の形態)
 図4は本発明の第2の実施の形態を示すブロック図である。図4において図1と同一の構成要素には同一符号を付して説明を省略する。
 第1の実施の形態においては、狭帯域観察のための回転フィルタ33を採用する例について説明したが、本発明は狭帯域観察だけでなく蛍光観察等の特殊光観察にも適用することができる。本実施の形態は、種々の観察モード及びこれらの観察モードを実現するための光源装置の構成等に応じて、合成比率aを制御するようにしたものである。光源装置の構成に応じるには光源装置との通信によって判断することが考えられる。
 本実施の形態に係る内視鏡装置100は、画像処理装置4に代えて、制御部105を備えた画像処理装置104を採用すると共に、光源装置3に代えて、光源制御部106及び回転フィルタ113を備えた光源装置103を採用した点が第1の実施の形態と異なる。
 回転フィルタ113としては、第1の実施の形態の回転フィルタ33だけでなく、蛍光観察等の特殊観察用の回転フィルタを採用することもできる。例えば、回転フィルタ113として、1つ又は2つの励起光用のフィルタが設けられた回転フィルタが採用可能であり、また、1つ又は2つの狭帯域観察用のフィルタが設けられた回転フィルタが採用可能である。
 光源制御部106は、光源装置103に関する種々の情報、例えば、回転フィルタ113の構成に関する情報を保持すると共に、保持している情報を制御部105との間で送受する。また、光源制御部106は、制御部105に制御されて、光源31の点灯制御及び回転フィルタ113の回転制御を行う。例えば、光源制御部106は、回転フィルタ113として、狭帯域観察用フィルタ又は励起光用フィルタが2つ設けられている回転フィルタが採用された場合には、第1の実施の形態と同様の制御を行い、回転フィルタ113として、狭帯域観察用フィルタ又は励起光用フィルタが1つしか設けられていない回転フィルタが採用された場合には、2チャンネルの撮像信号を取り込むタイミングでこれらのフィルタの透過光を出射させるように、光源31及び回転フィルタ113を制御する。
 制御部105は、光源装置103に関する種々の情報及び操作者の操作によって指定された観察モードに関する情報に基づいて、合成処理部45及び調光制御部49を制御するようになっている。また、制御部105は、観察モードに応じて、光源制御部106を制御するようになっている。
 次に、このように構成された実施の形態の作用について説明する。
 例えば、制御部105は、回転フィルタ113として、第1の実施の形態の回転フィルタ33が採用された場合には、第1の実施の形態と同様の動作が行われるように各部を制御する。なお、制御部105は、合成比率aが0≦a<1の場合には、調光制御部49が輝度Y1と目標輝度Ysとの比較に基づいて調光制御するように、調光制御部49を制御してもよい。
 また、制御部105は、回転フィルタ113として、蛍光観察用の励起光を照射するためのフィルタが採用された場合には、光源制御部106からの情報に基づいて、回転フィルタ113の構成に基づいて各部を制御する。例えば、回転フィルタ113が2つの励起光用のフィルタを有している場合には、制御部105は明るさ算出処理部44の出力に拘わらず、合成処理部45の合成比率aを1とする。また、この場合には、制御部105は、調光制御部49が輝度(Y1+Y2)と目標輝度Ysとの比較に基づいて調光制御するように、調光制御部49を制御してもよい。
 また、例えば、回転フィルタ113として励起光用のフィルタが1つしか設けられていないフィルタを採用した場合には、十分な明るさが得られないことを考慮して、制御部105は画像処理装置104の各部を制御して、蛍光観察モードの動作を停止させる。この場合には、制御部105は、指定された観察モードでの動作を禁止することを示すメッセージをモニター5上に表示させるようにしてもよい。
 また、例えば、回転フィルタ113として狭帯域観察用のフィルタが1つしか設けられていないフィルタを採用した場合には、制御部105は、合成比率aを0とする。同様に、回転フィルタ113として特殊光観察用のフィルタが1つしか設けられていないフィルタを採用した場合には、制御部105は、合成比率aを0とする。
 なお、制御部105は、操作者の設定に応じて、合成比率及び調光制御を設定するようにしてもよい。
 このように本実施の形態においては、光源装置の種類、観察モード等に応じて、合成比率を制御するようになっており、第1の実施の形態と同様の効果が得られるだけでなく、光源装置や観察モードに応じた最適な明るさ制御を行うことができる。
 (第3の実施の形態)
 図5は本発明の第1の実施の形態に係る内視鏡装置を示すブロック図である。図5において図1と同一の構成要素には同一符号を付して説明を省略する。
 本実施の形態は明るさ算出処理部44に代えて明るさ算出処理部244を採用した点が第1の実施の形態と異なる。明るさ算出処理部244は、明るさ算出処理部44と同様に、求めた明るさを調光制御部49に出力する。本実施の形態においても、調光制御部49は、明るさ算出処理部244によって得られた輝度Y1と目標とする明るさ(輝度)Ysとの差(Ys-Y1)=ΔY1を求める。ΔY1≦0の場合には、マスター照明のみによって目標とする明るさが得られているので、調光制御部49は、スレーブ照明による撮像画像の合成比率(係数)aを0とする。また、ΔY1>0の場合には、調光制御部49は、所定の合成比率a(0<a≦1)を決定する。調光制御部49は、合成比率aを合成処理部45に出力する。
 例えば、調光制御部49は、合成比率aが0≦a<1の場合には、輝度Y1と目標輝度Ysとの比較に基づいて調光制御し、合成比率aが1の場合には、輝度Y1+Y2と目標輝度Ysとの比較に基づいて調光制御してもよい。
 本実施の形態においても、合成処理部45は、マスター照明による撮像画像とスレーブ照明による撮像画像とを、合成比率aに基づいて合成して合成撮像画像(合成信号)を出力する。即ち、合成処理部45は、スレーブ照明による撮像画像、即ち、G信号及びB2信号と合成比率aとによって得た信号を、マスター照明による撮像画像に基づく信号と合成する。なお、合成比率aが0の場合には、合成処理部45は、デジタル処理部43からマスター照明による撮像画像、即ち、G信号及びB1信号のみを用いた信号をマトリクス処理部46に出力することになる。
 本実施の形態における内視鏡装置1は、合成比率aが例えば0の第1のモードと、合成比率aが例えば1の第2のモードと、スレーブ照明による撮像画像に合成比率a(0<a<1)を乗算してマスター照明による撮像画像と合成する第3のモードとを有している。なお、第1,第2のモードでは合成比率aが0又は1であるとして説明したが、第1,第2のモードにおいて、合成比率aを0又は1以外の値に設定してもよい。また、第1から第3の3つのモードを有する例について説明するが、合成比率aとして3種類以上の固定の合成比率を設定して、4つ以上のモードで動作させるようにしてもよい。
 ところで、第1のモードにおける合成比率aは0で第2のモードにおける合成比率aは1であり、調光制御部49による絞り量の制御は、第1のモードと第2のモードとで著しく異なることとなることが考えられる。即ち、この場合には、第1のモードと第2のモードとで、出射光量が著しく異なり、CCD25の出力レベルが著しく相違する。このため、明るさ算出処理部244において、第1のモードと第2のモードとで、各照明光に基づく撮像画像の明るさ検出処理が同一の場合には、実際の明るさに対応しない検出結果が得られることが考えられる。
 また、調光制御部49は、撮像画像の明るさに基づいて調光制御を行うのに対し、モニター5に表示される観察画像の明るさは合成信号に基づくものとなる。このため、調光制御のための明るさ検出ではハレーションが生じていないと判定された場合、モニター5上の観察画像にハレーションが生じる可能性もある。また、明るさ算出処理部244の明るさ算出とは無関係に動作するAGC回路48のゲイン量によっては、同様の問題が生じる可能性がある。
 そこで、本実施の形態においては、CCD25の出力レベルが著しく異なる場合でも、明るさ検出を確実に行うことができるように、各照明光に基づく撮像画像の明るさ検出処理に用いる閾値を第1のモードと第2のモードとの間で変化させるようになっている。
 また、本実施の形態においては、合成比率aの大小に拘わらず、或いはAGC回路48の利得の大小に拘わらず、表示に対応した明るさ検出を確実に行うことができるように、各照明光に基づく撮像画像の明るさ検出処理に用いる閾値を、合成比率aやAGC回路48の利得の値に応じて変化させるようになっている。
 図6及び図7は図5中の明るさ算出処理部244における各照明光に基づく撮像画像の明るさ検出処理を説明するための説明図である。明るさ算出処理部244は、例えば、1画面を所定の画素数のブロックに分割して、画面の明るさを求める。なお、明るさ算出処理部244は、各照明光に基づく撮像信号毎に画面の明るさを求める。
 図6は明るさ算出処理部244によって、有効画素領域251が10×10のブロック252に分割されたことを示している。各ブロック252には、水平及び垂直方向に所定の画素数の画素が含まれる。明るさ算出処理部244は、各ブロック毎に明るさを求める。例えば、明るさ算出処理部244は、各ブロックに含まれる画素の画素値の平均を各ブロックの明るさ(ブロック明るさ)とする。いま、1画面に含まれる100個のブロックをブロックB1~B100とし、各ブロックB1~B100の明るさをBs1~Bs100とする。
 図7(a)は明るさ算出処理部244により検出された各ブロックB1~B100の明るさBs1~Bs100をブロック順に配列したことを示している。明るさ算出処理部244は、図7(b)に示すように、明るさBs1~Bs100を値の大きさ順に配列する。図7(b)の例では、ブロックB10の明るさBs10が最も明るく、次いで、Bs20、Bs9、…と明るさが暗くなっており、ブロックB91が最も暗い明るさBs91のブロックである。
 次に、明るさ算出処理部244は、図7(c)の太線破線で囲った領域、即ち、明るさ順で2~5番目の明るさと、明るさ順で94~97番目の明るさを選択する。そして、明るさ算出処理部244は、明るさ順で2~5番目の明るさの平均値を、画面内で明るい領域の代表値(以下、高輝度検波値という)Ashとし、明るさ順で94~97番目の明るさの平均値を、画面内で暗い領域の代表値(以下、低輝度検波値という)Asdとする。なお、高輝度検波値及び低輝度検波値を求めるために、上位及び下位のいずれの明るさを選択するかは適宜設定可能である。
 明るさ算出処理部244は、高輝度検波値及び低輝度検波値の少なくとも一方に、モードによって変化する重みを付して加算することにより、画面の明るさを求めるようになっている。図8及び図9はモードによって変化する重みを説明するためのグラフである。図8は横軸に割合をとり縦軸に重みをとって、重みの変化を示している。また、図9は横軸にモード(合成比率)をとり縦軸に閾値をとって、モード及び合成比率に対する閾値の変化を示している。なお、図8及び図9は高輝度検波値に与える重みを説明するためのものである。
 明るさ算出処理部244には、各画面の全画素の画素値も与えられる。明るさ算出処理部244は、全画素のうち画素値が閾値以上となる画素の割合を求める。例えば閾値として、画素にハレーションが生じているか否かのハレーション判定に用いる値を設定する。この場合には、明るさ算出処理部244は、全画素のうちハレーションが生じている画素の割合を求めることになる。図8の例では、明るさ算出処理部244は、ハレーションが生じている場合のように、画素値が閾値以上となる画素(以下、高輝度画素という)の割合が高い程、重みを大きくする。
 明るさ算出処理部244は、図8に基づく重みを、高輝度検波値に乗算した後、低輝度検波値に加算して得られた値を、画面の明るさとする。従って、ハレーションが生じている場合のように画素値が閾値以上となる高輝度画素の割合が高いほど、大きい重みが高輝度検波値に乗算されて、より明るい画面であることを示す検出結果が得られる。
 本実施の形態においては、高輝度画素の割合を求めるための閾値を、モード、合成比率及びAGC回路48の利得に応じて変化させる。なお、図8ではモード及び合成比率に対する閾値の変化のみを示している。例えば、図8では、合成比率aが0の第1のモード時における閾値をTとすると、合成比率aが1の第2のモード時における閾値をT/2とする。また、合成比率aが0<a<1の第3のモード時における閾値T’は、T’=T/(1+a)とする。
 第1のモードにおいては、例えば、マスター照明による撮像画像しか得られない。このため、調光制御部49は、絞り量を小さくして、光源装置3の出射光量を増大させる。従って、この場合には、CCD25の出力は高レベルとなる。一方、第2のモードにおいては、マスター照明及びスレーブ照明による撮像画像が合成される。このため、比較的明るい(合成)撮像画像が得られるので、調光制御部49は、絞り量を大きくして、光源装置3の出射光量を減少させる。従って、この場合には、CCD25の出力は比較的低レベルとなる。
 従って、第2のモード時には、B1,B2照明光による撮像画像が合成されることを考慮して、高輝度画素の割合を求めるための閾値を第1のモード時よりも低く設定する。これにより、明るさ算出処理部244は、モードに拘わらず、高輝度画素の割合を適正に判定して、正確な明るさ検出を行うことができる。
 また、第3のモード時には、合成比率aが大きくなるほど、閾値T’を低くする。これにより、第3のモード時においても、明るさ算出処理部244は、合成比率aに拘わらず、高輝度画素の割合を適正に判定して、正確な明るさ検出を行うことができる。
 また、第3のモード時には、AGC回路48の利得をgとして、閾値T’をT’=T/gにより制御してもよい。この場合には、AGC回路48の利得gが大きくなるほど、閾値T’が小さくなる。これにより、第3のモード時においても、明るさ算出処理部244は、AGC回路48の利得gに拘わらず、高輝度画素の割合を適正に判定して、正確な明るさ検出を行うことができる。
 明るさ算出処理部244は、このようにして各画面毎に各照明光に基づく撮像画像の明るさを求めた後、上述した、(1)式のマトリクス演算及び(2),(3)式の演算によって、輝度Y1,Y2を算出する。
 なお、高輝度検波値に重みを付す例を説明したが、低輝度検波値に乗算する重みを求めるようにしてもよい。この場合には、例えば、明るさ算出処理部244は、全画素のうち画素値が閾値以下となる画素(以下、低輝度画素という)の割合を求める。そして、明るさ算出処理部244は、モードに応じて、低輝度画素の割合を求めるための閾値を変化させればよい。
 次に、このように構成された実施の形態の動作について説明する。
 術者は、内視鏡装置1を使用する際には、図5に示すように、内視鏡2のコネクタ27を光源装置3及び画像処理装置204に接続する。これにより、図5に示す接続状態が得られる。術者は、図示しない電源スイッチを操作して光源装置3、画像処理装置204、モニター5それぞれを動作状態として、狭帯域光観察のための操作を行う。
 光源31から照射される光は、狭帯域フィルタ32及び回転フィルタ33によって、狭帯域のG照明光、B1照明光及びB2照明光に変換され、絞り34によって明るさが調整された後、内視鏡2に供給される。各照明光は、ライトガイドファイバ26を介して、例えば、1/20秒の周期において順次かつ略連続的に照明レンズ23から被検体側に照射される。
 G照明光、B1照明光及びB2照明光が被検体の同一の部位に対して照射されたそれぞれのタイミングにおいて、CCD25は、その部位からの戻り光による光学像を撮像する。CCD25の光電変換によって、G照明光、B1照明光及びB2照明光の夫々の戻り光に対応したG信号、B1信号及びB2信号が得られる。G信号、B1信号及びB2信号を含む映像信号は、内視鏡2から画像処理装置204に与えられる。
 なお、B1信号、B2信号は、同一波長帯域の照明光を用いて同一の露光量で撮像されて得られる信号であり、1フレーム内で短いタイミングずれがあることを除けば、略同一の条件で得られるものである。
 画像処理装置204に入力された映像信号は、アナログ処理部41によって所定のアナログ処理が施された後、A/D変換器42によってデジタル信号に変換される。A/D変換器42からのデジタル映像信号は、デジタル処理部43において、G信号、B1信号及びB2信号に分離されて同時化メモリ40aに記憶される。
 明るさ算出処理部244は、同時化メモリ40aから読み出されたG信号、B1信号及びB2信号が与えられ、各画面毎に各照明光に基づく撮像画像の明るさを求める。明るさ算出処理部244は、各照明光に基づく撮像画像の各画面について、ブロック毎の明るさを求める。明るさ算出処理部244は、ブロック明るさが比較的明るい、明るさが上位のブロック明るさの平均を求めて高輝度検波値とし、ブロック明るさが比較的暗い、明るさが下位のブロック明るさの平均を求めて低輝度検波値とする。明るさ算出処理部244は、高輝度検波値及び低輝度検波値の少なくとも一方に、モード、合成比率a又はAGC回路48の利得に応じて求めた重みを乗算して加算することで、各照明光に基づく撮像画像について各画面毎の明るさを求める。
 いま、マスター照明による撮像画像のみを用いた第1のモードであるものとする。この場合には、明るさ算出処理部244は、例えば、高輝度画素の割合を求めるための閾値として比較的高い値を用いる。これにより、高輝度画素を高精度に検出することができる。明るさ算出処理部244は、高輝度画素の割合が高いほど、高輝度検波値に乗算する重みを大きくする。明るさ算出処理部244は、高輝度検波値に求めた重みを乗算した後、低輝度検波値と加算して、画面の明るさを求める。
 一方、マスター照明及びスレーブ照明による撮像画像を合成比率a=1で合成する第2のモードの場合には、明るさ算出処理部244は、例えば、高輝度画素の割合を求めるための閾値として比較的低い値を用いる。これにより、高輝度画素を高精度に検出することができる。明るさ算出処理部244は、高輝度画素の割合が高いほど、高輝度検波値に乗算する重みを大きくする。明るさ算出処理部244は、高輝度検波値に求めた重みを乗算した後、低輝度検波値と加算して、画面の明るさを求める。
 また、合成比率aが0<a<1の範囲の第3のモードの場合には、合成比率aに応じて閾値を変化させる。これにより、高輝度画素を高精度に検出することができる。明るさ算出処理部244は、高輝度画素の割合が高いほど、高輝度検波値に乗算する重みを大きくする。明るさ算出処理部244は、高輝度検波値に求めた重みを乗算した後、低輝度検波値と加算して、画面の明るさを求める。
 また、明るさ算出処理部244は、AGC回路48の利得に基づいて閾値を変化させてもよい。この場合にも、高輝度画素を高精度に検出することができる。明るさ算出処理部244は、高輝度画素の割合が高いほど、高輝度検波値に乗算する重みを大きくする。明るさ算出処理部244は、高輝度検波値に求めた重みを乗算した後、低輝度検波値と加算して、画面の明るさを求める。
 このように、高輝度画素の割合を求めるための閾値がモード、合成比率a又はAGC回路48の利得に応じて変化しているので、モードに拘わらず、画面の明るさを高精度に求めることができる。
 明るさ算出処理部244は、各照明光に基づく撮像画像について各画面毎に求めた明るさを用いて、例えば上記(1)式によるマトリクス演算及び上記(2),(3)式により、マスター照明による輝度Y1とスレーブ照明による輝度Y2とを算出する。上述したように、輝度Y1,Y2は、マトリクス処理を利用して算出されており、モニター5に表示した場合の明るさと同様の明るさを示すものとなっている。次に、調光制御部49は、目標輝度Ysと輝度Y1との差分ΔY1を求め、合成比率aを決定する。
 合成比率aは合成処理部45に供給され、合成処理部45は、マスター照明による撮像画像に、合成比率aに基づく割合だけスレーブ照明による撮像画像を合成する。例えば、合成処理部45は上記(5)式を用いて合成信号を得る。(5)式において合成比率aが0、即ち、輝度Y1が目標輝度Ys以上である場合には、スレーブ照明による撮像画像の合成は行われない。従って、この場合には、合成信号に基づく合成撮像画像にはぶれが生じておらず画質劣化は生じない。
 合成処理部45からの合成信号は、マトリクス処理部46に与えられてマトリクス処理され、表示系におけるR画像、G画像及びB画像の信号が得られる。マトリクス処理部46の出力はD/A変換器47によってアナログ信号に戻された後、モニター5に供給される。こうして、モニター5の表示画面上において、十分な明るさで且つ画質劣化が抑制された狭帯域光観察画像が表示される。
 このように本実施の形態によれば、1フレーム期間等の所定期間内において、観察対象となる同一部位に対して、同一の狭帯域の照明光を複数回照射して合成することにより、狭帯域光観察における画像の明るさを向上させる。この場合において、モード、合成比率又はAGC利得に応じた閾値を用いて画面の明るさを求めており、高精度に画面の明るさを求めることができる。更に、各照明光に基づく撮像画像による画像の明るさをマトリクス処理を利用して求めることで、実際にモニターに表示される画像の明るさに対応した明るさ検出が可能であり、術者の希望する明るさでの観察が可能である。また、画像の明るさが十分に明るい場合には、同一の狭帯域照明光による撮像画像の合成を行わないので、画質の劣化を抑制することができる。
 なお、上記実施の形態においては、合成処理を合成処理部45により行い、マトリクス処理をマトリクス処理部46により行う例を説明したが、合成処理及びマトリクス処理をまとめて1回のマトリクス処理によって行うことも可能である。また、更に、マトリクス処理を行った後、合成処理を行ってもよい。
 また、上記実施の形態においては、高輝度画素の割合を求めるための閾値をモード等に応じて変化させる例について説明したが、画面の明るさを求めるための種々の閾値をモード、合成比率又はAGC利得に応じて変化させるようにしてもよい。
 例えば、上記実施の形態においては、画面を複数のブロックに分割し、各ブロック毎に明るさを求め、複数のブロック明るさの代表値に重みを付す場合において、モード等に応じた閾値を用いて重みを算出する例について説明したが、複数のブロック明るさの代表値を求める場合に、モード等に応じた閾値以下の明るさのブロック明るさを除去した複数のブロック明るさについて代表値を求める場合のように、ブロック明るさの代表値の決定に用いる閾値をモード、合成比率又はAGC利得に応じて変化させることも可能である。
 即ち、モード等に応じて撮像素子の出力レベルが変化するので、画面の明るさを求める場合において、撮像素子の出力レベルに関する閾値、即ち、画素単位或いはブロック単位において高輝度であるか低輝度であるかを判別するための閾値を設定する必要があるときには、モード、合成比率又はAGC利得に応じて閾値を変化させるようにすればよい。
 なお、上記実施の形態においては、狭帯域光観察の例について説明したが、本発明は蛍光観察においても同様に適用可能であり、蛍光観察を行うための励起光用のフィルタを2つ有する回転フィルタを用いた場合に、上記実施の形態と同様の合成処理及び明るさ算出処理を行うようにすることができる。
 (第4の実施の形態)
 図10は本発明の第4の実施の形態を示すブロック図である。図10において図5と同一の構成要素には同一符号を付して説明を省略する。 
 狭帯域光観察を行うための内視鏡装置においても、通常光観察を行う内視鏡装置と同様に、モニターに表示される色合いが所望の状態となるように、ホワイトバランス調整が必要である。例えば、上述した第3の実施の形態においては、モードに応じて或いは合成比率aに応じて、絞り量が著しく変化することがある。そうすると、絞り量の変化によって、光源装置3からの出射光の色が変化することがある。従って、モードや合成比率aに対応したホワイトバランス調整が必要である。
 図11はホワイトバランス調整を行う一般的な回路を示すブロック図である。R画像の信号Rch、G画像の信号Gch、B画像の信号Bchは夫々R画像検波部71R、G画像検波部71G、B画像検波部71Bに与えられて検波される。なお、本実施の形態における狭帯域観察には、R,G,B画像の信号として、B信号、G信号、B信号が用いられる。
 図11の回路においては、例えば、G照明光の明るさがB照明光よりも極めて明るい場合を考慮して、乗算器72において、G信号に所定の係数、例えば1/2を乗算する。R画像検波部71RからのB信号、乗算器72からのG信号及びB画像検波部71BからのB信号は、ホワイトバランス調整部73に与えられて、所定のゲインが掛けられて、ホワイトバランス調整される。
 なお、狭帯域光観察におけるホワイトバランス調整を示したが、蛍光観察においても図11と同様の回路を用いて同様の色バランス調整を行うことができる。例えば、励起光用の2つのフィルタを有する回転フィルタを採用した場合には、R画像の信号を得るタイミングでG光を照射し、G画像の信号を得るタイミングで第1の励起光を照射し、B画像の信号を得るタイミングで第2の励起光を照射する。G光の照射に基づくG信号については検波結果を1/2にし、第1,第2の励起光に基づく第1,第2の蛍光信号については検波結果をそのまま用いて色バランス調整を行う。
 しかしながら、図11の回路に対応させてホワイトバランス調整値を各狭帯域照明光に基づく撮像信号に対する信号ゲインの調整のみによって取得する方法を採用すると、狭帯域フィルタ32の特性によっては、光源装置3から出射されるB照明光に対してG照明光の光量が極めて大きいことがある。この場合には、例えば、B1,B2信号のゲインをG信号のゲインに比べて極めて大きくする必要がある。そうすると、B1,B2信号として有効なレベル範囲が狭くなり、ダイナミックレンジが狭くなってしまう。
 そこで、本実施の形態においては、ホワイトバランス調整値の取得に際して、モードに応じて各帯域の出射光量を制御することにより、ダイナミックレンジが狭くなることを防止するようになっている。
 本実施の形態は画像処理装置204に代えて画像処理装置260を採用した点が第3の実施の形態と異なる。画像処理装置260は、調光制御部49に代えて調光制御部61を採用すると共に、調整値メモリ62及びホワイトバランス処理部63を付加した点が第3の実施の形態の画像処理装置204と異なる。
 調光制御部61は、第3の実施の形態の調光制御部49と同様の機能を有すると共に、ホワイトバランス調整値の取得処理を制御する機能を有する。第1のモードと第2のモードとでは合成比率aが異なる。例えば、第1のモードにおける合成比率aを0とし、第2のモードにおける合成比率aが1であるものとする。この場合には、第1のモードでは、G照明光及びB1照明光による撮像画像が得られる。狭帯域フィルタ32の特性等によって、G照明光の光量がB1照明光の光量よりも大きくなりやすい場合には、調光制御部61は、第1のモードに対応したホワイトバランス調整値取得時に、光源31からの光が回転フィルタ33のフィルタ33Gを通過するタイミングにおいて、絞り34の絞り量を大きくし、光源31からの光が回転フィルタ33のフィルタ33B1を通過するタイミングにおいて、絞り34の絞り量を小さくする。
 また、第2のモードでは、G照明光、B1照明光及びB2照明光による撮像画像が合成される。従って、B照明光に基づく撮像画像についてもG撮像画像に対して十分なレベルが得られると考えられるので、調光制御部61は、第2のモードに対応したホワイトバランス調整値取得時において、光源31からの光が回転フィルタ33のフィルタ33Gを通過するタイミング及びフィルタ33B1,B2を通過するタイミングにおいて、絞り34の絞り量を例えば同一とする。
 ホワイトバランス処理部63は、ホワイトバランス調整値取得時において、A/D変換器42の出力に基づいて、第1及び第2のモード用の各ホワイトバランス調整値を求めて、調整値メモリ62に記憶させる。調光制御部61は、第1及び第2のモードに対応したホワイトバランス調整値取得時の絞り量に基づいて、第1及び第2のモード用の各ホワイトバランス調整値を補正して調整値メモリ62に記憶させる。
 なお、ホワイトバランス調整値取得時における絞り量の制御は、G照明光に基づく撮像画像のレベルとB照明光に基づく撮像画像のレベルとに基づいて決定すればよい。B照明光に基づく撮像画像は、B1照明光に基づく撮像画像とB2照明光に基づく撮像画像を合成比率aに応じて合成して得られる。従って、第1及び第2のモードに対応したホワイトバランス調整値取得時の絞り量は、第1及び第2のモード時の合成比率aに基づいて設定すればよい。
 なお、調光制御部61は、絞り量を制御することで光量を調整したが、光源31の出射光量を調整するようにしてもよい。
 このように構成された実施の形態においては、モード毎にホワイトバランス調整値が決定される。第1のモードに対応したホワイトバランス調整値取得時には、調光制御部61は、第1のモードに設定された合成比率aに基づく絞り量で、G照明光及びB照明光の光量を制限する。ホワイトバランス処理部63は、ホワイトバランス調整値を算出して、調整値メモリ62に出力する。調光制御部61は、調整値メモリ62に記憶された第1のモード用のホワイトバランス調整値を読み出し、絞り量に応じて補正した後、調整値メモリ62に記憶させる。
 また、第2のモードに対応したホワイトバランス調整値取得時には、調光制御部61は、第2のモードに設定された合成比率aに基づく絞り量で、G照明光及びB照明光の光量を制限する。ホワイトバランス処理部63は、ホワイトバランス調整値を算出して、調整値メモリ62に出力する。調光制御部61は、調整値メモリ62に記憶された第2のモード用のホワイトバランス調整値を読み出し、絞り量に応じて補正した後、調整値メモリ62に記憶させる。
 実使用時には、ホワイトバランス処理部63は、モードに応じて、調整値メモリ62に記憶された第1又は第2のモード用のホワイトバラス調整値を読み出して、撮像信号を増幅する。他の作用は第3の実施の形態と同様である。
 このように本実施の形態においては、各モードに対応したホワイトバランス調整を行う共に、ホワイトバランス調整値取得時には各モードの合成比率に対応して各帯域の照明光の光量を制限しており、ダイナミックレンジを確保しつつ、各モードのホワイトバランス調整値を取得することができる。
 なお、上記説明では、第1,第2のモードについて説明したが、第3のモードの合成比率a毎に、上述した手法によりホワイトバランス調整値を算出するようにしもよいことは明らかである。
 また、狭帯域光観察の例について説明したが、蛍光観察の色バランス調整においても同様に適用可能であることは明らかである。
 ところで、内視鏡には、カスタムスイッチが設けられており、測光、コントラストのトグル、フォーカス等を1スイッチで切換え可能である。即ち、フロントパネルやキーボードなどには各種操作スイッチが設けられており、任意の機能を割付可能なカスタムスイッチが存在する。従来では光学拡大機能のスコープについて、専用の操作レバーによってのみ光学拡大操作をしていたが、カスタムスイッチに割り付けることで、操作方法の自由度を向上できる。操作レバーを用いない2焦点切替のスコープについても、2焦点切替をカスタムスイッチに割り付けられる。なお、光学拡大や2焦点切替については、操作した後にどの状態になっているか表示するとよい。例えば、2焦点の中から、近接(Near)と通常(Far)を示す為に、画面上にNear又はFarと示すと良い。この時、患者名等の表示と明確に区別するように、白と黒を反転させたり、大きなフォントにしたりすることで、認識性を向上できる。
 また、それぞれの機能において、複数のモードやレベルをトグルで切り替えることもある。その際に、複数のモードやレベルから少なくとも1つ以上を選択しておくことで、測光やコントラストをカスタムスイッチで容易に切り替えることができる。例えば、測光には平均、ピーク、オートの3モードがあり、ピークとオートを事前にメニューで設定しておけば、カスタムスイッチでピークとオートをいつでも切替可能である。同様に、コントラストにはガンマ補正のテーブルから、ノーマル、ハイ、ロー、補正無しといった種類から、ノーマルとハイを設定しておけば、切替が容易になる。また、コントラスト=ノーマルを必ず1つの候補とするように、設定ではハイとローの2者択一としておくことでもよい。このときは、ノーマルとスペシャルの切替操作としておき、スペシャルにはハイとローから設定するようにする。これらは、カスタムスイッチに限定されること無く、機能を操作する測光やコントラストなどの各種機能スイッチにおいて、実施されても良い。その際には、測光の3モードがフロントパネルに示され、切替可能の2モードが順次光ると共に、切替不能のモードは光らない。また、切替可能の2モードが分かるように切替不能のモードとは識別できるよう、光らせ方を工夫してもよい。選択中のモードを強く光らせ選択可能のもう1つのモードを弱く光らせ、切替不可のモードは消しておく。
 また、観察モードに応じて、1つのカスタムスイッチ乃至は1つの機能スイッチにおいて、実現する機能や画像処理を変えても良い。例えば、色彩という機能スイッチについては、通常観察モードであれば色彩強調のレベル、NBI観察モードであれば色調モードを変更する操作になる。
 スコープIDにはスコープの種類やNBI色調モードの番号が記憶されている。スコープの種類が大腸内視鏡であるか、もしくはNBI色調モードが3となっていたら、NBI用のマトリックスからNBI色調モード=3に対応したパラメータを読み出す。スコープIDの通信方式毎にスコープの種類から実施したり、NBI色調モードから実施してもよい。前者の場合は、スコープの種類からNBI色調モードの番号を自動的に対応させることとなる。また、スコープIDが無い場合は、NBI色調モード=2とすることで、大腸にも食道にも適用可能な色調を実現できる。
 また、NBI色調モードを可変スイッチにより、NBI色調モードを3から1にしたり、1から2に変更したりできる。これにより、食道ではNBI色調モードを1とし、胃では2に変更することができる。ユーザーの好みに応じることができる。また、スコープIDによるNBI色調モードの設定をさせず、ユーザーがあらかじめ設定したNBI色調モードを用いることでも良い。例えば、ユーザーがNBI色調モードを2にした後で、システムをOFFし、再びONした時には前回使用した2を呼び出せばよい。スコープIDを用いるか否かをメニューで設定しておけばよい。
 プロセッサには複数種の光源を組み合わせることができる。光源によって対応できる観察モードが異なることが挙げられる。光源の種類によってはプロセッサとの通信部が異なるので、プロセッサには、それぞれの光源に対応した通信部を持つと良い。プロセッサには1つのコネクタで2つの通信部を対応しておけばよい。より具体的には、コネクタ内の複数のピンを使い分けることが良く、共有できるピンも含めるとなお良い。光源に対応してプロセッサの通信部を変えると共に、信号規格を変えればよい。例えば、同期信号を複合同期信号とするか垂直同期信号とすることが挙げられる。
 スコープをプロセッサとケーブルで電気的接続したり、光源を介してからケーブルで電気的接続したりする。その際、プロセッサの電源をONしたままスコープを付け直したり、交換することが有り得る。その場合、スコープ未接続の状態からスコープ接続の状態に推移した際に、光源のカラーフィルターの回転位置が不適切になってから適切になるまで時間がかかることがある。その場合、観察画面が乱れることになる。そこで、スコープ未接続になった場合、未接続になる直前のカラーフィルターの回転位置を保つことで、常に適切な観察が可能となる。ここで示すカラーフィルターの回転位置とは広い意味で、CCDに対する露光タイミングと言える。つまり、カラーフィルターと組み合わせる開口調整器がカラーフィルターとの回転方向における相対位置を適正にすれば、CCDに対する露光タイミングが正しくなるので、それらを含めて位置を保つことが重要である。
 フロントパネルに設けられたスイッチを押すことで、ホワイトバランスを操作することが可能である。ホワイトバランスは、通常観察モードとNBI観察モードのそれぞれに対して実行されなければならず、例えば、スイッチを4秒ほど押し続けることで、順次、通常観察モードとNBI観察モードのそれぞれに対して、ホワイトバランスを取得することができる。しかしながら、スイッチを押し続けることは手間になることもあるので、設定によってスイッチを押し続けなくても良いこととしても良い。具体的には、「ホワイトバランススイッチ保持=ON/OFF」のように設定をさせる。設定をOFFにすれば、スイッチを1秒程度押したところで、通常観察モードのホワイトバランスを取り始め、それを示す報知がなされれば、ユーザーはスイッチの保持をやめてもホワイトバランスを中断することなく、NBI観察モードのホワイトバランスを自動的に取ることができる。設定をONにした場合で、ユーザーがスイッチの保持をすることをホワイトバランスが全て完了する前にやめてしまったら、ホワイトバランスは正しく完了できなかったこととなり、ホワイトバランス値を取得できなかったことになる。
 これまでは設定によって、ホワイトバランススイッチの保持について述べたが、使用する内視鏡の種類に応じて自動的に切り替えても良い。内視鏡の種類をスコープIDによって検知し、外科用のスコープであることが分かった時、ホワイトバランススイッチ保持をOFFするように動作しても良い。外科の分野では、スイッチを操作するユーザーと内視鏡を保持するユーザーが異なる場合、スイッチを操作するタイミングがずれ、保持をすることが困難となる場合があるからである。また、内視鏡にはCCDが搭載され、そのCCDの種類を示すように抵抗素子なども搭載されている場合、抵抗値を元にCCDの種類を判定してから、それに応じてホワイトバランススイッチ保持をOFFするように動作しても良い。また、設定とスコープIDを用いて実現してもよい。それは、スコープIDが外科を示しており、更に設定で「ホワイトバランススイッチ保持=OFF」となっていた場合に、ホワイトバランススイッチ保持をOFFするように動作しても良い。なお、面順次式内視鏡の場合、ホワイトバランスは光源装置の色フィルターの製造バラツキを吸収し、色再現性を良くする作用がある。これに加え、内視鏡のCCDが4線読み出しの際には各チャンネルのバラツキを吸収し、チャンネル間バラツキを防ぐ作用がある。この両者を加味したホワイトバランスでは、RGBの3色と、CCDの4チャンネルに対応するべく、3+4-1=6通りのホワイトバランス係数が挙げられる。これはチャンネルを1から4とした時、R1~R4,G1~G4,B1~B4の係数が必要である。
 映像出力としてSDIやDVI,DV等の多種のコネクタを有している。これら映像出力には決められたフォーマットが有り、それぞれに必要な回路ブロックが存在する。SDIにはインターレース信号を、DVIにはプログレッシブ信号を出力するとした場合、DVI用の回路ブロックとして、IP変換(インターレース-プログレッシブ変換)が必要になる。HD-SDIには水平1920ドット、垂直1080ラインのインターレースのHDTVを出力しながら、これをIP変換し、WUXGAの1920×1200のプログレッシブにしてからDVIに出力する。プログレッシブにしただけでは1080と1200に差があるので、黒のブランクで埋めることとする。また、SXGAの1280×1024に合せて、切り出してもよい。また、IP変換の際にメディアンフィルタを用いることで、文字を表示した際に画質改善を図れる。
 インターレースからプログレッシブに変換する様子を図12のタイミングチャートにて説明する。図12(a)はフィールドメモリへの入力フレームレート<出力フレームレートの場合を示し、図12(b)はフィールドメモリへの入力フレームレート>出力フレームレートの場合を示している。図12の丸数字1はAフィールドの画像と1つ前のBフィールドの画像を合成処理後、出力する期間を示し、図12の丸数字2はBフィールドの画像と1つ前のAフィールドの画像を合成処理後、出力する期間を示している。 
 プログレッシブの出力画像の周波数はインターレースよりも高い時、P5とP6で示される画像は全く同じになる。即ち、P2,P6等においては、同じフィールドを2回だすことで周波数ズレを吸収する。一方、プログレッシブの出力画像の周波数がインターレースよりも低い時、P1,P2間のように出力しないインターレース画像を設けて周波数ズレを吸収する。
 次に、メディアンフィルタの作用を図13の説明図にて説明する。現在の入力フィールドは出力フレームとしてはそのまま1ライン毎に出力される。出力フレームのp1,p3,・・・については、メディアンフィルタの出力を用いる。それらは、a0,b0,a1の3つにおいて、信号レベルが2番目の大きさのものを探し、p1として出力することである。これは、静止している画像であれば、p1としてはb0が最適であり、動いている画像であれば、a0,a1のいづれかが適している。これらに着眼した方法となる。メディアンフィルタは、RGBの色毎に行い、画素毎に行う。それは図13の斜線部の画素を例にとると、R画像ならば、R画像の(a1,x)、(b1,x)、(a2,x)の3つにおいて、信号レベルが2番目の大きさのものを探して、出力を得ることとなる。
 NBI観察では光量の確保が難しかった。そこでランプを駆動する電流を増やして光量を増す案がある。一方で通常光観察では既に十分な光量が確保できている場合が多く、経鼻スコープのように細い内視鏡の場合にのみ光量を増したい場合があった。そこで、スコープIDにフラグを設けることで、光量を増すことを動作させたり、動作させないこととしても良い。このような動作に関して自由度を増やす為に設定を設けて、「電流制限=ON/OFF」のような項目で例えばOFFすると、前記フラグが無効となって光量を増すことになり、ONすると、前記フラグに"1"とあれば光量を増し、"0"とあれば光量を増さないように動作する。
 内視鏡にはCCDが欠かせない中で、内視鏡の種類は様々で、CCDを駆動する回路は、内視鏡に持ったものや、ビデオプロセッサに持たせたものがある。内視鏡内の回路でCCDを駆動する場合はその回路に必要なものをビデオプロセッサから与えることとなる。それらは主に電源とクロックとグランドになる。また、CCDにも種類があって、それら電源の電圧やクロックの周波数は適したものが要求される。CCDの種類をビデオプロセッサに伝える為に、内視鏡には抵抗値を設けて、そこで電圧を認識することでCCD判別を実現する。このような内視鏡はビデオプロセッサとの接続において、一定の配慮が必要である。例えば接続をつかさどる接点ピンの長さについて、電源とクロックとグランド、CCD判別用抵抗部を長くして、その他の信号を短くすると、ビデオプロセッサが通電している間にも、適正な接続がなされることとなる。これらに限られたことではなく、内視鏡の種類が分かる信号を長くしてもよい。これらの効果として、内視鏡を外す時に電源とクロックとグランドが同時に外れると、これらを同時に必要とするCCD用ドライバー回路やA/DやAFEといった回路を安定化させることができる。また、内視鏡を接続する時に電源と抵抗部が同時に繋がると、適正なクロック周波数を準備し、内視鏡へ送ることが出来る。
 内視鏡画像をフリーズして静止画を表示している間でも、コメント欄等へ文字を入力できるようにしている。このとき、患者IDは入力したり変更したりできないようにしている。また、フリーズしているしていないに関わらず、内視鏡画像の色を変えるために、モニター画面にメニューとしてGUIを表示させ、赤色や青色を一定量変更するようにしてもよい。

 本出願は、2011年8月26日に日本国に出願された特願2011-185127号及び特願2011-185128号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (10)

  1.  所定の時間内に、第1の帯域の照明光による照明を行うと共に、第2の帯域の照明光による照明を2回以上の第1の回数行う照明手段と、
     前記照明手段により照明された被写体を撮像し、前記第1の帯域の照明光の照明に基づく第1の撮像画像及び前記第2の帯域の照明光の照明に基づく第2の撮像画像を出力する撮像手段と、
     前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの第1の所定回の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第1の明るさを算出し、前記第1の帯域の照明光による照明に基づく第1の撮像信号と前記第1の回数のうちの前記第1の所定回以外の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって第2の明るさを算出する明るさ算出手段と、
     前記第2の明るさの元となる前記第1及び第2の撮像信号に、前記第1の明るさと目標明るさとの差分と前記第2の明るさとの比に基づく係数を乗算した後、前記第1の明るさの元となる前記第1及び第2の撮像信号に合成する合成手段と、
     を備えたことを特徴とする内視鏡装置。
  2.  前記明るさ算出手段で算出された明るさに基づき前記照明手段を調光制御する調光制御手段を備え、
     前記合成手段は、前記明るさ算出手段により算出した前記第1の明るさと前記第2の明るさとに基づき、前記第2の撮像信号を乗算する係数を第1のモードと第2のモードとで切換え、
     前記明るさ算出及び調光制御手段は、前記撮像手段の出力を画素単位又はブロック単位で閾値と比較することで高輝度であるか低輝度であるかに分類し、分類結果を利用して前記第1及び第2の帯域の照明光に基づく撮像画像の画面毎の明るさを求め、求めた前記画面毎の明るさを用いて前記合成撮像画像の明るさを求めるものであって、前記閾値を前記第1のモードと前記第2のモードとで変化させる
     ことを特徴とする請求項1に記載の内視鏡装置。
  3.  前記明るさ算出及び調光制御手段は、前記撮像手段からの前記第1及び第2の撮像画像が画面毎に入力され、画面内を複数のブロックに分割し、分割したブロック毎に明るさを求め、求めたブロック毎の明るさに基づいて、画面内における高輝度検波値及び低輝度検波値を求め、前記高輝度検波値及び低輝度検波値を重み付け加算することによって、前記画面毎の明るさを求めるものであって、前記重み付け加算に用いる重みを前記分類結果によって取得する
     ことを特徴とする請求項2に記載の内視鏡装置。
  4.  前記明るさ算出及び調光制御手段は、前記閾値として高輝度画素を検出するための値を設定することにより、前記高輝度検波値に乗算する重みを取得する
     ことを特徴とする請求項3に記載の内視鏡装置。
  5.  前記第1の回数は2回であって、
     前記明るさ算出手段は、前記第1の撮像信号と前記第1の回数のうちの1回目の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって前記第1の明るさを算出し、前記第1の撮像信号と前記第1の回数のうちの2回目の照明に基づく第2の撮像信号とを用いた色変換マトリクス処理によって前記第2の明るさを算出する
     ことを特徴とする請求項3に記載の内視鏡装置。
  6.  前記第1及び第2の撮像信号に基づく表示を行う表示系の入力に対応した色変換処理を行うマトリクス処理部を具備し、
     前記合成手段による合成は、前記マトリクス処理部の前段若しくは後段で行われるか又は前記マトリクス処理部の色変換処理と同時に行われる
     ことを特徴とする請求項5に記載の内視鏡装置。
  7.  前記第1の帯域は、緑の帯域であり、前記第2の帯域は、青の帯域である
     ことを特徴とする請求項6に記載の内視鏡装置。
  8.  前記第1のモードに対応する第1の色バランス調整と、前記第2のモードに対応する第2の色バランス調整とを行う色バランス調整手段と、
     前記第1の色バランス調整で用いる第1の色バランス調整値を取得するとき、前記第1のモード時の前記係数に基づき、前記照明手段の前記第1の帯域の照明光の光量と前記第2の帯域の照明光の光量とを調整し、前記第2の色バランス調整で用いる第2の色バランス調整値を取得するとき、前記第2のモード時の前記係数に基づき、前記照明手段の前記第1の帯域の照明光の光量と前記第2の帯域の照明光の光量とを調整する前記色バランス値取得手段と
     を具備したことを特徴とする請求項2に記載の内視鏡装置。
  9.  前記明るさ算出手段で算出された明るさに基づき前記照明手段を調光制御する調光制御手段を備え、
     前記明るさ算出及び調光制御手段は、前記撮像手段の出力を画素単位又はブロック単位で閾値と比較することで高輝度であるか低輝度であるかに分類し、分類結果を利用して前記第1及び第2の帯域の照明光に基づく撮像画像の画面毎の明るさを求め、求めた前記画面毎の明るさを用いて前記合成撮像画像の明るさを求めるものであって、前記閾値を前記合成するための係数に応じて変化させる
     ことを特徴とする請求項1に記載の内視鏡装置。
  10.  前記明るさ算出手段で算出された明るさに基づき前記照明手段を調光制御する調光制御手段と、
     前記撮像手段の出力に基づいて前記第1及び第2の撮像画像に利得を付与するAGC回路とを備え、
     前記明るさ算出及び調光制御手段は、前記撮像手段の出力を画素単位又はブロック単位で閾値と比較することで高輝度であるか低輝度であるかに分類し、分類結果を利用して前記第1及び第2の帯域の照明光に基づく撮像画像の画面毎の明るさを求め、求めた前記画面毎の明るさを用いて前記合成撮像画像の明るさを求めるものであって、前記閾値を前記AGC回路の利得に応じて変化させる
     ことを特徴とする請求項1に記載の内視鏡装置。
PCT/JP2012/071496 2011-08-26 2012-08-24 内視鏡装置 WO2013031701A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280013720.0A CN103429136B (zh) 2011-08-26 2012-08-24 内窥镜装置
JP2013514467A JP5326065B2 (ja) 2011-08-26 2012-08-24 内視鏡装置
EP12827919.7A EP2671498B1 (en) 2011-08-26 2012-08-24 Endoscope device
US13/856,748 US20130286175A1 (en) 2011-08-26 2013-04-04 Endoscope apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-185128 2011-08-26
JP2011-185127 2011-08-26
JP2011185127 2011-08-26
JP2011185128 2011-08-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/856,748 Continuation US20130286175A1 (en) 2011-08-26 2013-04-04 Endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2013031701A1 true WO2013031701A1 (ja) 2013-03-07

Family

ID=47756191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/071496 WO2013031701A1 (ja) 2011-08-26 2012-08-24 内視鏡装置

Country Status (5)

Country Link
US (1) US20130286175A1 (ja)
EP (1) EP2671498B1 (ja)
JP (1) JP5326065B2 (ja)
CN (1) CN103429136B (ja)
WO (1) WO2013031701A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156253A1 (ja) * 2013-03-25 2014-10-02 オリンパスメディカルシステムズ株式会社 内視鏡装置
WO2015186397A1 (ja) * 2014-06-05 2015-12-10 オリンパスメディカルシステムズ株式会社 処理装置、内視鏡システム、内視鏡装置、画像処理方法および画像処理プログラム
JP2017511176A (ja) * 2014-03-17 2017-04-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 非白色光の一般的な照明装置を含む手術システム
JP2018158152A (ja) * 2018-07-05 2018-10-11 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
US10779716B2 (en) 2017-04-27 2020-09-22 Olympus Corporation Light source system, light source control method, first light source apparatus, and endoscope system
JPWO2021095417A1 (ja) * 2019-11-12 2021-05-20

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6008812B2 (ja) * 2013-09-27 2016-10-19 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5932748B2 (ja) * 2013-09-27 2016-06-08 富士フイルム株式会社 内視鏡システム
JP5927348B2 (ja) * 2013-10-30 2016-06-01 オリンパス株式会社 内視鏡装置
WO2015083684A1 (ja) * 2013-12-06 2015-06-11 オリンパス株式会社 撮像装置、撮像装置の作動方法
JP5932173B2 (ja) * 2014-06-13 2016-06-08 オリンパス株式会社 固体撮像装置及び撮像方法
WO2016117036A1 (ja) * 2015-01-20 2016-07-28 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
JP6829926B2 (ja) * 2015-11-11 2021-02-17 Hoya株式会社 内視鏡装置
WO2017110492A1 (ja) 2015-12-24 2017-06-29 オリンパス株式会社 撮像システム及び画像処理装置
JP6342598B1 (ja) * 2016-11-01 2018-06-13 オリンパス株式会社 画像処理装置
WO2019053804A1 (ja) * 2017-09-13 2019-03-21 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7191978B2 (ja) * 2018-11-12 2022-12-19 オリンパス株式会社 内視鏡用光源装置、内視鏡装置及び光量調整方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131620A1 (ja) 2009-05-14 2010-11-18 オリンパスメディカルシステムズ株式会社 撮像装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5408263A (en) * 1992-06-16 1995-04-18 Olympus Optical Co., Ltd. Electronic endoscope apparatus
JP4270634B2 (ja) * 1999-03-18 2009-06-03 オリンパス株式会社 内視鏡装置
US7892169B2 (en) * 2000-07-21 2011-02-22 Olympus Corporation Endoscope apparatus
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices
JP4009626B2 (ja) * 2004-08-30 2007-11-21 オリンパス株式会社 内視鏡用映像信号処理装置
JP5191090B2 (ja) * 2005-07-15 2013-04-24 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP5081720B2 (ja) * 2008-05-22 2012-11-28 富士フイルム株式会社 蛍光内視鏡装置および励起光ユニット
JP5460506B2 (ja) * 2009-09-24 2014-04-02 富士フイルム株式会社 内視鏡装置の作動方法及び内視鏡装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131620A1 (ja) 2009-05-14 2010-11-18 オリンパスメディカルシステムズ株式会社 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2671498A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9545193B2 (en) 2013-03-25 2017-01-17 Olympus Corporation Endoscope apparatus
WO2014156253A1 (ja) * 2013-03-25 2014-10-02 オリンパスメディカルシステムズ株式会社 内視鏡装置
US10932649B2 (en) 2014-03-17 2021-03-02 Intuitive Surgical Operations, Inc. Surgical system including a non-white light general illuminator
JP2017511176A (ja) * 2014-03-17 2017-04-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 非白色光の一般的な照明装置を含む手術システム
US10506914B2 (en) 2014-03-17 2019-12-17 Intuitive Surgical Operations, Inc. Surgical system including a non-white light general illuminator
US11759093B2 (en) 2014-03-17 2023-09-19 Intuitive Surgical Operations, Inc. Surgical system including a non-white light general illuminator
CN106455942A (zh) * 2014-06-05 2017-02-22 奥林巴斯株式会社 处理装置、内窥镜系统、内窥镜装置、图像处理方法以及图像处理程序
US10535134B2 (en) 2014-06-05 2020-01-14 Olympus Corporation Processing apparatus, endoscope system, endoscope apparatus, method for operating image processing apparatus, and computer-readable recording medium
WO2015186397A1 (ja) * 2014-06-05 2015-12-10 オリンパスメディカルシステムズ株式会社 処理装置、内視鏡システム、内視鏡装置、画像処理方法および画像処理プログラム
US10779716B2 (en) 2017-04-27 2020-09-22 Olympus Corporation Light source system, light source control method, first light source apparatus, and endoscope system
JP2018158152A (ja) * 2018-07-05 2018-10-11 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
JPWO2021095417A1 (ja) * 2019-11-12 2021-05-20
WO2021095417A1 (ja) * 2019-11-12 2021-05-20 富士フイルム株式会社 内視鏡システム
JP7273988B2 (ja) 2019-11-12 2023-05-15 富士フイルム株式会社 内視鏡システム

Also Published As

Publication number Publication date
JP5326065B2 (ja) 2013-10-30
CN103429136B (zh) 2015-09-30
EP2671498A4 (en) 2015-01-07
JPWO2013031701A1 (ja) 2015-03-23
EP2671498A1 (en) 2013-12-11
CN103429136A (zh) 2013-12-04
EP2671498B1 (en) 2017-10-18
US20130286175A1 (en) 2013-10-31

Similar Documents

Publication Publication Date Title
JP5326065B2 (ja) 内視鏡装置
JP5259882B2 (ja) 撮像装置
JP6461739B2 (ja) 画像処理装置及び内視鏡システム並びに画像処理装置の作動方法
KR101184841B1 (ko) 내시경 장치 및 그 신호 처리 방법
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP5355846B2 (ja) 内視鏡用画像処理装置
JP5654511B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP5308815B2 (ja) 生体観測システム
JP2007075198A (ja) 電子内視鏡システム
US9414739B2 (en) Imaging apparatus for controlling fluorescence imaging in divided imaging surface
WO2016121556A1 (ja) 内視鏡用のプロセッサ装置、及びその作動方法、並びに制御プログラム
CN110868908B (zh) 医用图像处理装置及内窥镜系统以及医用图像处理装置的工作方法
JP2014061152A (ja) 内視鏡システム及び内視鏡用光源装置並びに内視鏡画像の作成方法
JPWO2019087557A1 (ja) 内視鏡システム
JP5747362B2 (ja) 内視鏡装置
JP2014050594A (ja) 内視鏡システム及び内視鏡画像の取得方法
JP2009066147A (ja) 生体観測装置
JP2012125462A (ja) 画像処理装置
JP6392486B1 (ja) 内視鏡システム
JP5856943B2 (ja) 撮像システム
JP5948191B2 (ja) 内視鏡用プローブ装置及び内視鏡システム
JP2005124755A (ja) 内視鏡用画像処理装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013514467

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12827919

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012827919

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012827919

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE