WO2006101128A1 - 画像処理装置及び内視鏡装置 - Google Patents

画像処理装置及び内視鏡装置 Download PDF

Info

Publication number
WO2006101128A1
WO2006101128A1 PCT/JP2006/305709 JP2006305709W WO2006101128A1 WO 2006101128 A1 WO2006101128 A1 WO 2006101128A1 JP 2006305709 W JP2006305709 W JP 2006305709W WO 2006101128 A1 WO2006101128 A1 WO 2006101128A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
filter
filter processing
image
weighting
Prior art date
Application number
PCT/JP2006/305709
Other languages
English (en)
French (fr)
Inventor
Kenji Yamazaki
Yoshinori Takahashi
Original Assignee
Olympus Corporation
Olympus Medical Systems Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation, Olympus Medical Systems Corp. filed Critical Olympus Corporation
Priority to US11/886,830 priority Critical patent/US8305427B2/en
Priority to CA002602906A priority patent/CA2602906A1/en
Priority to AU2006225662A priority patent/AU2006225662B2/en
Priority to CN2006800083915A priority patent/CN101142592B/zh
Priority to JP2007509302A priority patent/JP4599398B2/ja
Priority to EP06729676.4A priority patent/EP1862967A4/en
Publication of WO2006101128A1 publication Critical patent/WO2006101128A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an image processing apparatus and an endoscope apparatus suitable for suppressing noise with respect to image data captured by an imaging unit of an endoscope.
  • Japanese Patent Application Laid-Open No. 2002-95635 discloses an endoscope apparatus that can obtain a narrow-band light observation image as special light observation! Speak.
  • the image information obtained by the image sensor is directly output to the monitor, it may be darker than the normal light observation image.
  • a dimming signal is generated, and the opening / closing amount of the diaphragm of the light source device is controlled by the dimming signal to increase / decrease the illumination light quantity.
  • the signal picked up by the AGC circuit is also amplified to an appropriate level.
  • the light intensity may be insufficient even when the illumination light intensity due to the aperture is at a maximum due to the decrease in the light intensity due to the narrow-band angle.
  • a signal is electrically amplified by a circuit or the like.
  • the SZN is low, so if it is amplified with an AGC circuit or the like so that the specified brightness is obtained, noise becomes more noticeable.
  • a method for suppressing noise in such a case a method of performing a smoothing process in a frequency space is known. For example, there is a method in which image data is orthogonally transformed by a Fourier basis or the like and inversely transformed after applying a low-pass type frequency filter function. There is also a method for realizing the same effect by processing in real space. A noise suppression method using a local filter such as a median filter is also known. [0004] However, since many of these methods process the entire image uniformly, the contrast of image information other than noise, for example, image information related to living tissue, is also reduced.
  • the present invention has been made in view of the above points, and provides an image processing apparatus and an endoscope apparatus that can effectively suppress noise while reducing a decrease in contrast and obtain an image suitable for diagnosis.
  • the purpose is to do.
  • the present invention provides an image processing apparatus that performs image processing on image data captured by an imaging unit.
  • Filter processing means for performing filter processing on the image data with a plurality of spatial filters
  • Brightness calculation means for calculating brightness in a local region of the image data, and weighting according to the output of the filter processing means and Z or the output of the brightness calculation means for the output of the filter processing means Weighting means;
  • An inverse filter processing means for performing an inverse filter process for generating processed image data on the output of the weighting means
  • FIG. 1 is an overall configuration diagram of an endoscope apparatus provided with Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing the configuration of the rotary filter of FIG.
  • FIG. 3 is a diagram showing spectral characteristics of a first filter set of the rotary filter of FIG. 2.
  • FIG. 4 is a diagram showing spectral characteristics of a second filter set of the rotary filter of FIG.
  • FIG. 5 is a block diagram showing a configuration of a noise suppression circuit.
  • FIG. 6 is a diagram showing an example of characteristics of weighting coefficients with respect to a filter processing result.
  • FIG. 7 is a diagram showing an example of a threshold function that determines the characteristics of the weighting coefficient with respect to the average value of the pixel values in the local region.
  • FIG. 8 is an explanatory view of the action of noise suppression in a locally dark image portion in the present embodiment.
  • FIG. 9 is an explanatory diagram of the action of noise suppression in a locally bright image portion in the present embodiment.
  • FIG. 10 is a flowchart of the operation contents in the present embodiment.
  • FIG. 11 is a block diagram showing the configuration of the periphery of a noise suppression circuit in Embodiment 2 of the present invention.
  • FIG. 12 is a block diagram showing a configuration of a noise suppression circuit in which the value of the weighting coefficient is changed depending on the CCD type or the like.
  • FIG. 13 is an explanatory diagram showing that the weighting coefficient is changed according to the AGC gain value.
  • FIG. 14 is an explanatory diagram for changing the characteristics of the parameter for determining the weighting coefficient in accordance with the change of the noise suppression level.
  • FIG. 15 is an explanatory diagram in the case where the characteristic is different from the case of FIG.
  • FIG. 16 is a block diagram showing the configuration of the periphery of a noise suppression circuit in Embodiment 3 of the present invention.
  • FIG. 17 is a diagram showing a characteristic setting example of a weighting coefficient for performing weighted averaging with respect to an average brightness value in a weighted average unit.
  • FIG. 18 is a flowchart showing the operation content in the third embodiment.
  • FIG. 19 is a diagram showing an example of setting characteristics of a weighting coefficient for weighted averaging in the modification.
  • FIG. 20 is an overall configuration diagram of an endoscope apparatus provided with Example 4 of the present invention.
  • FIG. 21 is a block diagram of a white flaw noise suppression circuit.
  • FIG. 22 is a diagram showing a mask set to include peripheral pixels centering on a pixel to be processed for detecting white spot noise.
  • FIG. 23 is a block diagram of the white-flaw noise suppression circuit in the first modification.
  • FIG. 24 is a configuration diagram of a white flaw noise suppression circuit in a second modification.
  • FIG. 25 is a diagram showing a specific example of pixel values of a processing target pixel and peripheral pixels set for detecting white spot noise.
  • FIG. 26 is a diagram showing a configuration of the rotary filter of FIG.
  • FIG. 27 is an overall configuration diagram of an endoscope apparatus provided with Embodiment 5 of the present invention.
  • FIG. 28 is a diagram showing a configuration of a second electronic endoscope used in Example 5.
  • FIG. 29 is a diagram showing an outline of transmittance characteristics of excitation light cut filters used in the first and second electronic endoscopes, respectively.
  • FIG. 30 is a diagram showing an outline of transmittance characteristics of excitation light cut filters used in the first and second electronic endoscopes in relation to the wavelength region of illumination light used for normal observation.
  • FIG. 31 is a diagram showing a configuration of a white flaw suppression circuit in a modified example.
  • FIGS. 1 to 10 relate to the first embodiment of the present invention
  • FIG. 1 illustrates the overall configuration of the endoscope apparatus including the first embodiment of the present invention
  • FIG. 2 illustrates the configuration of the rotary filter of FIG. 3 shows the spectral characteristics of the first filter set of the rotary filter of FIG. 2
  • FIG. 4 shows the spectral characteristics of the second filter set of the rotary filter of FIG. 2
  • FIG. 5 shows the configuration of the noise suppression circuit. Indicates.
  • Fig. 6 shows an example of the characteristic of the weighting coefficient for the filter processing result
  • Fig. 7 shows an example of a threshold function for determining the characteristic of the weighting coefficient with respect to the average value of the pixel values in the local region.
  • 9 shows an explanatory diagram of the action of noise suppression according to the present embodiment
  • FIG. 10 shows a flowchart of operation contents according to the present embodiment.
  • the present embodiment provides an image processing apparatus including a noise suppression processing unit capable of suppressing noise in a dark image area while reducing reduction in contrast in a locally bright image area and capable of high-speed processing.
  • An object of the present invention is to provide an endoscope apparatus. It is another object of the present invention to provide an endoscope image processing apparatus and an endoscope apparatus that can sufficiently suppress noise even when a plurality of types of electronic endoscopes having different characteristics of imaging devices are connected. To do.
  • an endoscope apparatus 1 including the present embodiment is inserted into a body cavity and supplies illumination light to the electronic endoscope 2 that images the tissue in the body cavity and the electronic endoscope 2
  • Light source device 3 A video processor 4 that drives the imaging means incorporated in the child endoscope 2 and processes the captured imaging signal; an observation monitor 5 that displays the endoscopic image generated by the video processor 4; And a failing device 6 for failing the encoded endoscopic image.
  • the electronic endoscope 2 has an elongated insertion portion 7 to be inserted into a body cavity, and an operation portion 8 is provided at the rear end of the insertion portion 7.
  • a light guide 9 that transmits illumination light is inserted into the insertion portion 7, and the rear end of the light guide 9 is detachably connected to the light source device 3.
  • the light source device 3 includes, for example, a xenon lamp 11 as a lamp that generates illumination light by supplying lighting power from the lamp lighting circuit 10, a heat ray cut filter 12 that blocks white light heat rays, and a heat ray cut filter 12.
  • a diaphragm device 13 that controls the amount of white light emitted, a rotary filter 14 that converts illumination light into surface-sequential light, and a rotary filter 14 on the incident surface of the light guide 9 disposed in the electronic endoscope 2
  • a control circuit 16 for controlling the rotation of the rotary filter 14.
  • the rotary filter 14 is formed in a disk shape and has a double structure with the center as a rotation axis, and the outer circumferential portion having a large diameter is shown in FIG. R1 filter 14rl, G1 filter 1 that constitutes the first filter group to output surface-sequential light with overlapping spectral characteristics (broader than the second filter group) suitable for color reproduction 4gl, B1 filter 14bl is arranged.
  • a second filter set for outputting narrow-band surface-sequential light with discrete spectral characteristics that can extract desired deep yarn and weaving information as shown in Fig. 4 is constructed in the inner circumferential direction part.
  • R2 filter 14r2, G2 filter 14g2, and B2 filter 14b2 are arranged.
  • the rotary filter 14 is rotated at a predetermined speed by controlling the rotation drive of the rotary filter motor 17 by the control circuit 16.
  • the rotary filter 14 is moved together with the rotary filter motor 17 by the moving motor 18 in a direction orthogonal to the optical path as indicated by an arrow A.
  • a rack is provided on the holding plate 17 a that holds the rotary filter motor 17, and this rack is meshed with a pinion gear 18 a provided on the rotating shaft of the moving motor 18. Then, the mode is switched according to the mode switching command signal of the mode switching switch 20 by the user.
  • the first filter set or the second filter set can be arranged on the optical path by rotating the moving motor 18 forward or reverse by the drive signal output from the circuit 21. .
  • FIG. 2 shows the position of the light beam when the first filter set and the second filter set are arranged on the optical path.
  • the first filter set or ⁇ disposed on the optical path (corresponding to the normal mode) or the second filter set (corresponding to the NBI mode) passes through the second filter set and is collected by the condenser lens 15.
  • the light is transmitted by the light guide 9 and irradiates the tissue in the body cavity as illumination light through the illumination lens 23 attached to the illumination window of the distal end portion 22 of the insertion portion 7.
  • An objective lens 24 is attached to an observation window provided adjacent to the illumination window, and a charge-coupled device (abbreviated as CCD) 25 is disposed as an imaging device at the imaging position. Performs photoelectric conversion on the formed optical image.
  • CCD charge-coupled device
  • the CCD 25 is connected to a CCD driver 29 in the video processor 4 and a preamplifier 30 via a signal line 26.
  • the signal line 26 is actually detachably connected to the video processor 4 via a connector (not shown).
  • the imaging signal photoelectrically converted by the CCD 25 by the application of the CCD drive signal from the CCD driver 29 is amplified by the preamplifier 30, and then subjected to AZD conversion through a process circuit 31 that performs correlated double sampling and noise removal, etc.
  • the signal is input to the circuit 32 and also input to the dimming circuit 33.
  • This AZD conversion circuit 32 converts the analog signal power into digital signal image data, which is then input to the white balance circuit 34 and processed for white balance. Then, an auto gain control circuit (abbreviated as AGC circuit) 35 Is amplified to a predetermined level.
  • AGC circuit auto gain control circuit
  • the dimming operation with the illumination light amount by the diaphragm device 13 of the light source device 3 is preferentially performed, and after the aperture of the diaphragm device 13 reaches the open state, information on the open state is obtained. Based on the information, the AGC circuit 35 performs an operation to amplify the signal level to be insufficient.
  • the dimming circuit 33 generates a dimming signal that adjusts the aperture amount of the aperture device 13 of the light source device 3 to control the illumination light amount to an appropriate amount from the output signal of the process circuit 31.
  • the output data of the AGC circuit 35 is input to the noise suppression circuit 36 and also input to the ⁇ correction circuit 41 via the switching switch 40.
  • the contact a is selected in the normal mode and the contact b is selected in the NBI mode through the mode switching circuit 21 by the operation of the mode switching switch 20. Therefore, in this embodiment, the noise suppression circuit 36 side (from the noise suppression circuit 36 to the frame sequential circuit 39) functions when the NBI mode is selected.
  • the noise suppression circuit 36 receives the timing signal from the timing generator 49, and acquires information to be imaged in a state where the second filter set of the rotary filter 14 is arranged on the optical path.
  • the noise suppression circuit 36 uses the timing signal to generate noise for each of R, G, and B image data (as color component images captured under the illumination of R2, G2, and B2, respectively) by the second filter set. Switches various parameters when performing suppression processing.
  • the output data of the noise suppression circuit 36 is input to the simultaneous signal circuit 37, and simultaneously input, and then input to the color conversion circuit 38, and the color conversion circuit 38 performs color conversion processing.
  • the color conversion circuit 38 performs color conversion on the simultaneously input RGB image information using a 3 ⁇ 3 matrix. This improves the visibility of image information reproduced in the NBI mode.
  • the conversion formula for color conversion from RGB to! ⁇ G ' ⁇ ' in this case is the following formula (1) using a matrix 3 of 3 rows and 3 columns.
  • K is, for example, three real components kl to k3 (the other components are 0), and the weighting of the B color signal in the RGB color signal by the conversion equation (1) ( Ratio) is the largest.
  • the R color signal imaged by the transmitted light of the R2 filter having a long wavelength is suppressed, and the B color signal on the short wavelength side is emphasized and displayed as an RGB color image.
  • color conversion may be performed in which a part of the color signal component of force R shown in the example in which the color signal of R is completely suppressed is left. Also, when the R color signal is completely suppressed as shown in Equation (1), as described in Example 3, R2 is not used as illumination light, and G2 and B2 illumination lights are used. May be used only.
  • the output signal of this color conversion circuit 38 (R ⁇ , G ', ⁇ ', but will be described using R, G, ⁇ for simplicity) is input to the frame sequential circuit 39.
  • the frame sequential circuit 39 is constituted by a frame memory, and is converted into frame sequential image data by sequentially reading out the R, G, and B image data stored simultaneously as color component images.
  • the frame sequential image data R, G, and B are input to the ⁇ correction circuit 41 through the switching switch 40, and after being ⁇ corrected, input to the enlargement circuit 42 and subjected to enlargement interpolation processing, and then the enhancement circuit 43. Is input.
  • the simultaneous circuit 45 is formed by three memories 45a, 45b and 45c.
  • the signal data simultaneously input by the simultaneous input circuit 45 is input to the image processing circuit 46 and subjected to image processing such as color misregistration correction of the moving image, and then the DZA conversion circuits 47a, 47b, 47c. as well as The signal is input to the sign key circuit 48, converted into an analog video signal by the DZA conversion circuits 47a, 47b, and 47c, and then input to the observation monitor 5.
  • the observation monitor 5 displays an endoscopic image corresponding to the input video signal. Further, the endoscope image signal compressed by the sign key circuit 48 is input to the failing device 6 and recorded. In addition, a timing generator 49 is provided in the video processor 4, and a synchronization signal synchronized with the rotation of the rotary filter 14 is input from the control circuit 16 of the light source device 3, and various timing signals synchronized with the synchronization signal are input. Output to the above circuits.
  • the electronic endoscope 2 is provided with a scope ID generating circuit 28 that generates endoscope identification information (abbreviated as scope ID) unique to each electronic endoscope 2.
  • scope ID endoscope identification information
  • the information of the CCD 25 in the scope ID is used for signal processing.
  • this scope ID is input to the noise suppression circuit 36, and noise suppression processing can be performed in accordance with the type of CCD 25 actually used.
  • the case where the weighting coefficient of the noise suppression circuit 36 is changed according to the type of the CCD 25, the AGC gain value of the AGC circuit 35, etc. will be described in the second embodiment.
  • the electronic endoscope 2 is provided with a mode switching switch 20 for instructing mode switching, and the output of the mode switching switch 20 is output to the mode switching circuit 21 in the video processor 4. Is done.
  • the mode switching circuit 21 outputs a control signal corresponding to the mode switching instruction signal to the dimming control parameter switching circuit 50 and the moving motor 18 of the light source device 3, and controls the switching of the switching switch 40.
  • the contact a is selected in the normal mode
  • the contact b is selected in the narrow band observation mode (abbreviated as NBI mode).
  • the dimming control parameter switching circuit 50 outputs the dimming control parameters corresponding to the first filter group or the second filter group of the rotary filter 14 to the dimming circuit 33, and the dimming circuit 33 is used to switch the mode. Based on the control signal from the circuit 21 and the dimming control parameter from the dimming control parameter switching circuit 50, the diaphragm device 13 of the light source device 3 is controlled to perform appropriate brightness control.
  • FIG. 5 shows the internal configuration of the noise suppression circuit 36.
  • the noise suppression circuit 36 receives frame sequential R, G, B image data as input image data. Input image data is shown in the figure The image is read as n x n pixel image data while shifting the center pixel by one pixel toward the upper left force and lower right of the image. , A2,..., Ax,..., Ap, and also input to an average pixel value calculation unit 52 that calculates brightness in a small area.
  • the coefficients of the p filters Ax in the filter unit 51 are switched for each of the R, G, and B image data by a timing signal (more specifically, a switching signal) from the timing generator 49 and read from the filter coefficient storage unit 54. Issued and set.
  • the coefficient of the filter Ax is obtained by preparing sample data for each of R, G, and B from a sample endoscopic image (specifically, an endoscopic image captured in the NBI mode) in advance. , Eigenvector of covariance matrix of sample data for each B.
  • the eigenvector is a vector having characteristics orthogonal to each other and a Karhunen-Loeve transform (abbreviated as KL transform) matrix.
  • KL transform Karhunen-Loeve transform
  • eigenvectors and eigenvalues form a pair, and eigenvectors with larger eigenvalues can be obtained by performing orthogonal transformation with the eigenvectors to obtain frequency components corresponding to lower frequencies.
  • p p-dimensional eigenvectors are stored in the filter coefficient storage unit 54 as filters Al, A 2,..., Ap in descending order of eigenvalues.
  • the filters A 1, A 2,..., Ap are an array in which filter coefficients that give conversion coefficients corresponding to low frequency components are sequentially rearranged to filter coefficients corresponding to higher ones.
  • the filter unit 51 performs a filter process for performing direct transform on the input image data using p filter coefficients, and the filter process result (orthogonal transform coefficient) obtained by the filter process is sent to the weighting unit 53. Output.
  • the average pixel value calculation unit 52 calculates an average value of pixel values in n X n pixels in the same input image data used in the filter processing by the filter unit 51, and outputs the calculation result to the LUT 56.
  • the weighting coefficient W weighted by the weighting circuit 53Wx of the weighting unit 53 is stored in advance in the LUT 56, and the weighting coefficient W power corresponding to the average pixel value calculated by the average pixel value calculation unit 52 and the output of the filter Ax It is read from this LUT 56, set in the weighting circuit 53Wx, and weighted by the set weighting coefficient W.
  • the inverse filter unit 55 generates image data in which noise suppression is performed by performing an inverse filter process on the output of the weighting unit 53.
  • the generated image data is a pixel value at the center pixel of the n X n pixels of the input image data.
  • the weighting unit 53 uses the absolute value I Coef I of the filter processing result by the filter unit 51 as a variable, and is a weighting coefficient determined by the characteristics shown in FIG. 6 (A) or FIG. 6 (B). The value of W is multiplied by the filter processing result Coef.
  • the characteristics of the weighting function shown in Fig. 6 (A) or Fig. 6 (B) are determined by the two parameters Cthl and Cth2. More specifically, the parameter Cthl is a threshold value for determining a value at which the weighting coefficient W becomes 1, and the other parameter Cth2 is a threshold value for determining a value at which the weighting coefficient W force O is obtained.
  • Parameters (threshold values) Cthla and Cth2a that determine the characteristics shown in Fig. 6 (A) and Fig. 6 (B), and noramers (threshold values) Cthlb and Cth2b are the cases where the local region of the image is dark and bright Is shown.
  • Cthla, Cth2a, Cthlb, and Cth2b are determined by the calculated value of the average pixel value calculation unit 52 in FIG. 7, that is, the average value Pav of the pixel values in n ⁇ n pixels.
  • the parameters Cthla, Cth2a, Cthlb, and Cth2b in Fig. 6 (A) and Fig. 6 (B) are the same as the average value Pav force in Fig. 7, Pava in the case of Pavb and Pavb in the case of large Each is determined accordingly.
  • the weighting unit 53 outputs the first predetermined weighting coefficient (specifically, regardless of the output of the filter Ax in the case where the output of the filter processing result is larger than the parameter Cthl as the first predetermined value). If the output of the filter processing result is smaller than the first predetermined value, the weighting factor is changed to a smaller value according to the output of the filter Ax. Further, the first predetermined value is changed according to the output of the brightness calculation means.
  • the parameter Cthl that is the first predetermined weighting factor (specifically 1) is set to a large value, and the average value Pav is large ( If it is bright, the parameter Cthl is changed according to the output of the average pixel value calculation unit 52 so that the parameter Cthl is changed to a small value.
  • the parameter Cth2 as the second predetermined value is also changed according to the output of the average pixel value calculation unit 52.
  • This parameter Cth2 sets the weighting coefficient to 0 for the output of the filter processing result, and is set to a level that effectively removes noise contained in the output of the filter processing result.
  • the weighting coefficient changes from 0 to 1 between parameters Cth2 and Cthl.
  • the weighting coefficient according to the absolute value I Coef I of the filter processing result is set for each filter processing result by the filter AX.
  • the inverse filter unit 55 that performs inverse filter processing on the output of the weighting unit 53 performs the processing on the center of the mask (nX n size) of the filter Ax with respect to the p processing results output from the weighting unit 53.
  • a product-sum operation that performs product-sum (inner product) with the filter coefficient, the output result after filtering is returned to the image data at the original pixel of interest, that is, inverse filtering (more specifically, inverse KL Conversion process).
  • the inverse filter processing result by the product-sum operation according to the above equation (2) is used as the pixel value of the processing result by the noise suppression circuit 36 for the central pixel in the small area of n X n pixels as the subsequent circuit (simultaneous in FIG. 1). Output to the circuit 37).
  • the weighting coefficient W is determined by the output of the two parameters Cthl and Cth2 and the filter processing result, and the weighting function calculates the average pixel value as shown in FIG.
  • the average value Pav as the calculated value of the part 52 is determined by two functions Cthl and Cth2 by the functions f and g using the variable Pav as a variable.
  • both functions f and g shown in FIG. 7 have a monotonically decreasing characteristic.
  • the slope of the function f is gentler than the other function g.
  • both functions f and g are set in this way, for example, when the average value Pav of the average pixel value calculation unit 52 is low, the value Pava is high and the value Pavb is, FIG.
  • the weighting function shown in Fig. 6 (B) is different, and the weighting coefficient W weighted by the weighting unit 53 is different.
  • Filter processing is performed when the average value Pav of the average pixel value calculation unit 52 is low (small) Pava so that the comparative force in FIGS. 7 and 6 (A) and 6 (B) is also divided. If the weighting coefficient W is set to a low value for the result Coef, and the average value Pav of the average pixel value calculation unit 52 is high (large,) Pavb, the weighting coefficient for the filter processing result Coef W is set to be a large value.
  • the weighting coefficient W in Fig. 6 (A) becomes 1 for the first time when the filter processing result Coef is greater than or equal to the threshold Cthla, and the threshold Cth2a slightly smaller than that value. If it is less than or equal to the weighting factor W power ⁇ . Therefore, in this case, the filter processing result Coef is suppressed by the weighting coefficient W and output.
  • the weighting coefficient W in the case of FIG. 6 (B) if the filter processing result Coef is greater than 0, the weighting coefficient W in that case is a threshold that is significantly lower than 0.
  • the weighting factor W is 1, and the value of the filter processing result Coef is output as is.
  • the noise suppression circuit 36 effectively reduces noise in dark image areas by reducing the weighting for the same filter processing result as the brightness is darker according to the brightness in the local area.
  • the contrast of the image information in the bright image area is maintained by increasing the weighting to the lighter as the brightness is higher.
  • weighting factor W for the filter processing result of the filter A1 is always 1.0. This maintains the DC component.
  • the electronic endoscope 2 is connected to the light source device 3 and the video processor 4 and the power is turned on.
  • the initial state for example, the normal observation state is set.
  • the mode switching circuit 21 in the video processor 4 controls the control signal so that it is located in the R1 filter 14rl, G1 filter 14gl, and B1 filter 14bl, which is the first filter group of the rotary filter 14, in the optical path of the illumination light.
  • the moving motor 18 is controlled by the above.
  • the R1 filter 14rl, G1 filter 14gl, and B1 filter 14b during normal observation of tissue in the body cavity have overlapping wavelength ranges as shown in FIG. 3, and are imaged by the CCD 25 using the B1 filter 14bl.
  • As the imaging signal a band image having a lot of tissue information in the shallow layer of the biological tissue and having the shallow layer and middle layer tissue information is captured.
  • the image signal picked up by the CCD 25 using the G1 filter 14gl captures a band image having shallow and middle layer tissue information that contains a lot of tissue information in the middle layer of the living tissue, and further, the CCD 25 using the R1 filter 14rl.
  • a band image having middle layer and deep layer tissue information including a lot of tissue information in the deep layer is picked up.
  • the video processor 4 synchronizes these RGB image signals and processes them.
  • an endoscopic image having a desired or natural color reproduction can be obtained as an endoscopic image.
  • the video processor 4 does not process the image data that has passed through the AGC circuit 35 through the switching switch 40 and the ⁇ correction circuit without performing processing by the noise suppression circuit 36 or the like. Input to 41. Then, after ⁇ correction processing, enlargement processing, structure enhancement processing, etc., it is input to the simultaneous input circuit 45 via the selector 44, and after the simultaneous input, further correction of moving image color misregistration, etc. is performed. After that, it is converted into an analog color signal and an endoscopic image is displayed on the display surface of the observation monitor 5.
  • the mode switching switch 20 of the electronic endoscope 2 when the mode switching switch 20 of the electronic endoscope 2 is pressed, the signal is input to the mode switching circuit 21 of the video processor 4.
  • the mode switching circuit 21 outputs a control signal to the moving motor 18 of the light source device 3, thereby moving the first filter set of the rotary filter 14 that was on the optical path during normal observation, and the second filter set. Move the rotary filter 14 so that is placed on the optical path, and set it to ⁇ mode.
  • a band image having tissue information in the shallow layer is captured in the imaging signal captured by the CCD 25 by the B2 filter 14b2, and a tissue in the middle layer is captured in the imaging signal captured by the CCD 25 by the G2 filter 14g2.
  • a band image having information is captured, and a band image having tissue information in the deep layer is captured in the imaging signal captured by the CCD 25 by the R2 filter 14r2.
  • the transmitted light amount by the second filter set is reduced with respect to the transmitted light amount by the first filter set, and the dimming control parameter decreases.
  • the switching circuit 50 outputs a dimming control meter corresponding to the second filter set of the rotary filter 14 to the dimming circuit 33, so that the dimming circuit 33 controls the diaphragm device 13.
  • the amount of illumination light is significantly reduced compared to that in the normal mode, and thus the aperture device 13 is often set to the open state.
  • the aperture device 13 Even if the aperture device 13 is set to the open state, the illumination light is compared with that in the normal mode. The amount may be small. In such a case, the power to electrically correct the image of the lack of brightness due to the small amount of illumination light by amplifying the image simply by increasing the amplification factor by the AGC circuit 35, etc.
  • the noise suppression circuit 36 shown in FIG. 5 is used to reduce the contrast in the bright area while suppressing noise in the dark area as described below. Reduce.
  • the R, G and B image data converted into a digital signal by the AZD conversion circuit 32 and amplified by the AGC circuit 35 are input to the filter unit 51 constituting the noise suppression circuit 36 as shown in FIG. This is input to p filters Al, A2,..., Ap of size n X n constituting 51, and also input to the average pixel value calculation unit 52.
  • the filter unit 51 performs a filtering process on the input image data using a filter coefficient based on a KL transformation matrix obtained in advance from sample image data.
  • the filter processing result is output to the weighting unit 53.
  • the average pixel value calculation unit 52 calculates the average value Pav for the pixel values of the small region (local region) of n X n pixels of the same input image data used by the filter unit 51 for the spatial filter processing. According to the average value Pav and the value of the filter processing result, the weighting factors W1, W2,..., Wp of the weighting unit 53 are set via the LUT 56.
  • the weighting coefficient W is set to the absolute value of the filter processing result Coef after two parameters Cthl and Cth2 are set to determine the characteristic according to the average value Pav as shown in FIG. It depends on the value.
  • the dark image portion is set as shown in FIG. 6A
  • the bright image portion is set as shown in FIG. 6B.
  • 6A and 6B show the case of C thla and Cth2a in the dark case and Cthlb and Cth2b in the bright case.
  • FIG. 8 shows the frequency components after filtering.
  • the value of parameter Cth2 is set to the level of random noise, which effectively suppresses the noise and reduces the reduction in frequency components based on high SZN image information. 8
  • the processing result of (B) can be obtained.
  • the value of the parameter Cthl avoids that the suppression effect is large and the frequency component of relatively high SZN is simultaneously reduced. Accordingly, it is possible to reduce a decrease in contrast of image information based on the mucous membrane in a dark image region.
  • the parameter Cth2 is set to 0 and the other parameter Cthl is also set to a low value, so that the filter processing result Coef input to the weighting unit 53 is The process is almost output as it is.
  • the output of the processing result weighted by each weighting circuit Wx of the weighting unit 53 is input to the inverse filter unit 55, and as described above, the product sum with the center filter coefficient Ax, m in each filter Ax of the filter unit 51 Image data of pixel values that have been subjected to inverse filter processing (more specifically, inverse KL conversion) by operation and suppressed in noise are output to the simultaneous signal circuit 37 in the next stage.
  • the noise suppression circuit 36 is stored in the R frame memory of the simultaneous clock circuit 37 when processing of one frame of R image data is completed, for example. Then, the noise suppression circuit 36 starts processing one frame of the next G image data, and when the processing ends, the processed G image data is stored in the G frame memory of the simultaneous circuit 37. Stored.
  • the timing generator 49 switches the filter coefficient table of the filter coefficient storage unit 54 of the noise suppression circuit 36 and the weight coefficient table of the LUT 56, and similarly performs filter processing or the like with the filter coefficient corresponding to the G image data.
  • processing of one frame of G image data is completed, processing of one frame of B image data is started.
  • the processed B image data is stored in the B frame memory of the synchronization circuit 37.
  • the noise suppression circuit 36 performs the filtering process in the same manner with the filter coefficient corresponding to the B image data.
  • the R, G, and B image data stored in the simultaneous input circuit 37 are simultaneously read out and input to the color conversion circuit 38.
  • the color conversion circuit 38 has a visual characteristic when color display is performed. A display color conversion process is performed to improve the display quality.
  • the RGB image data color-converted by the color conversion circuit 38 is converted into a frame sequential signal by the frame sequential circuit 39.
  • the frame sequential signal is input to the ⁇ correction circuit 41 side through the switching switch 40, and thereafter the same processing as in the normal mode is performed, and then the ⁇ mode ⁇ image is displayed on the observation monitor 5.
  • the overall processing procedure by the noise suppression circuit 36 is as shown in FIG.
  • the presence / absence of processing target image data is determined in step S1.
  • any of the RGB image data is input to the noise suppression circuit 36, and the image data of n X n pixels is sequentially converted toward the head force and the tail of the image while shifting the center pixel by one pixel.
  • the image data to be extracted is used as the processing target image data. It is determined whether or not there is n x n pixel image data to be extracted. If there is no image data, the process is terminated. Proceed to step S2.
  • step S2 n ⁇ n pixel image data is extracted from the processing target image data, and in the next step S3, n ⁇ n pixel image data is filtered by the filters A1 to Ap of the filter unit 51.
  • the processing is performed, and the average value Pav is calculated by the average pixel value calculation unit 52 as shown in step S4.
  • a weighting function is set for the filter output by the average value Pav as shown in step S5.
  • step S6 the AGC gain value, the noise suppression level by the noise suppression unit (NR level adjustment unit), the enhancement level by the enhancement circuit 43, and the weight of the CCD type, which will be described in Example 2 described later, are used. After correcting the function, go to step S7.
  • step S7 a weight is added for each filter output of the filter processing in step S3.
  • the weighting coefficient W corresponding to the value of the filter processing result is obtained with reference to the addition function, that is, the LUT 56, and weighted by multiplying the result of the filter processing.
  • This weighting process effectively suppresses noise particularly in the dark area and avoids a decrease in contrast in the bright area, and proceeds to the next step S8.
  • step S8 the product of the weighting processing result at each frequency component is summed with a predetermined coefficient of each filter Ax to perform the inverse filter processing !, and the pixel value of the center pixel of n X n pixels Return to step S1.
  • step S1 the presence / absence of the pixel data to be processed is determined again. If there is, in the next step S2, the image data of n X n pixels adjacent to the central pixel of the n X n pixels is extracted. This process is repeated.
  • noise that gives a particularly conspicuous impression in a dark part can be obtained by changing the weighting for the filter processing result Coef according to the local brightness in the image and the value of the filter processing result Coef. It is possible to effectively suppress, reduce the contrast reduction of images other than noise, and avoid the contrast reduction in bright areas.
  • an endoscopic image suitable for diagnosis can be obtained even when a dark image portion exists.
  • the filter coefficient and the weighting coefficient W are switched without changing between the R, G, and B images for the R, G, and B images.
  • a configuration modified to reduce the circuit scale may be used.
  • noise suppression is performed on the sample image data using the KL transform base as a filter coefficient.
  • a discrete cosine transform (DCT) base is adopted, Filter processing common to R, G, and B images may be performed.
  • DCT discrete cosine transform
  • the filter coefficients can be made symmetric, so the circuit scale can be reduced and the number of operations required for noise suppression can be reduced. It becomes possible.
  • the weighting unit 53 of the weighting unit 53 applies to the entire filter unit 51.
  • a dedicated LUT 56 may be provided for each filter Ax output.
  • Embodiment 2 of the present invention will be described with reference to FIG.
  • the first embodiment is modified.
  • This embodiment effectively suppresses noise even when an electronic endoscope having a different type of imaging means is connected, or when the contour or the level of structure enhancement is changed.
  • the purpose is to be able to.
  • the noise suppression circuit 36 is a force that is commonly used without depending on the type of the CCD 25, etc.
  • the noise suppression circuit 36 is used when the type of the CCD 25 is set to the operation state (AGC ON). According to the gain value of the AGC circuit 35 and the enhancement level of the enhancement circuit 43, the weighting coefficient by the weighting unit is changed.
  • Other configurations are the same as those in the first embodiment.
  • FIG. 11 shows a circuit configuration of the periphery of the noise suppression circuit 36 in the second embodiment of the present invention. Also in this embodiment, as described in the first embodiment, the output signal of the AGC circuit 35 is input to the noise suppression circuit 36, and after noise suppression, the simultaneous noise circuit 37 shown in FIG. And the like are input to the emphasis circuit 43.
  • the AGC gain information of the AGC circuit 35, the intensity level information by the enhancement circuit 43, and the CCD type detection circuit 28B provided in the electronic endoscope 2 are detected.
  • Information on the type of CCD 25 is input to the noise suppression circuit 36.
  • the CCD type detection by the CCD type detection circuit 28B shown in FIG. 11 may also be performed by the scope ID force by the scope ID generation circuit 28 of FIG. 1, or may be detachably connected to the video processor 4 (not shown).
  • the type of CCD25 can be detected by the connector pin. You may do it.
  • the output of the filter unit 51, the average value (output value) as the output of the average pixel value calculation unit 52, the type of CCD 25, the AGC Each information of the AGC gain value of the circuit 35 and the emphasis level of the emphasis circuit 43 is input, and the weighting coefficient W of the weighting unit 53 is appropriately changed and set by these information (by changing the parameters Cthl and Cth2).
  • the noise level of the CCD 25 may differ depending on the type of the CCD 25.
  • the weighting coefficient corresponding to the noise level is changed according to the noise level that differs depending on the type of the CCD 25.
  • the corresponding weighting coefficient is set in proportion to the noise value.
  • the correction coefficient CI corresponding to that type is multiplied by the parameter Cth (where Cth is a generic term for Cthl and Cth2).
  • Cth is a generic term for Cthl and Cth2.
  • the value of the weighting coefficient is corrected according to the gain value so that the noise suppression effect does not fluctuate due to the gain value by the AGC circuit 25.
  • the average brightness value Pav when the gain value is increased, the average brightness value Pav apparently increases in proportion to the gain value, so it is necessary to change the functions f (Pav) and g (Pav) in Fig. 7. Yes, for example, multiply the scale of Pav on the horizontal axis and Cth on the vertical axis by gain.
  • the weighting coefficient W solid line
  • the values of the parameters Cthl and Ct 2 r in the case of the solid line are shown.
  • the weighting factor W is changed according to the filter processing result Coef that changes depending on the gain, so that it is possible to suppress the noise independent of the gain.
  • the output unit of the average pixel value calculation unit 52 serving as the brightness calculation means is provided with a divider that divides the output of the average pixel value calculation unit 52 by the gain value.
  • a divider for dividing each filter processing result by the gain value is provided at the output section of each filter Ax, and a multiplier for multiplying each weighted result by the gain value is provided at the output section of each weighting circuit Wx. In this case, the weighting coefficient need not be corrected.
  • the parameter Cth is multiplied by the correction coefficient Cj corresponding to the enhancement level so that the weighting coefficient W decreases as the enhancement amount increases according to the enhancement level.
  • the value of the weighting coefficient W for the filter output result corresponding to that frequency may be reduced.
  • the present embodiment having such a configuration, the same effect as in the first embodiment is obtained, and further, when the type of CCD 25, the gain value of the AGC circuit 35, and the enhancement level of the enhancement circuit 43 are changed. Even for this, noise can be suppressed appropriately.
  • an NR level adjustment unit for adjusting a noise suppression level (abbreviated as NR level) is provided on the front panel of the video processor 4 and the NR level in this NR level adjustment unit is variably set. Operate the knob (or switch) When the NR level is changed, the weighting coefficient of the weighting unit 53 may be changed according to the change.
  • the parameter Cth (that is, C thl, Cth2) for determining the weighting coefficient W of the weighting unit 53 is dotted as shown in FIG.
  • the characteristic is shifted from the characteristic indicated by, as indicated by the solid line.
  • the above parameters Cthl and Cth2 are shown as Cth!
  • the parameter Cth is increased with respect to the average brightness value Pav.
  • the Cth value is multiplied by the correction coefficient corresponding to the NR level.
  • the value of the weighting coefficient W for the filter processing result Coef is set to be small, and the noise suppression function is increased.
  • the user can change the NR level so that the noise suppression function is started without changing the brightness, and the noise suppression effect can be obtained in the user's preference, for example, the image that the user thinks appropriate. It can be set freely.
  • the brightness at which the noise suppression function starts is not changed.
  • this brightness is also changed in conjunction with it.
  • the parameter Cth is also changed in accordance with the change, as shown by the characteristic indicated by the solid line in the dotted line in FIG.
  • the brightness at which the noise suppression effect is started can be changed, and the noise suppression effect on the brightness can be changed according to the user's preference.
  • a plurality of characteristics shown in FIG. 15 may be prepared so that the value power can be selected.
  • the weighting coefficient is changed according to the gain of the AGC circuit 35, the type of CCD25, the enhancement level, and the NR level. At least one of these is used to change the weighting coefficient. OK.
  • weighting coefficient is changed by the gain of the AGC circuit 35 may be replaced with the gain of an amplifier that is amplified before being input to the noise suppression circuit 36.
  • Embodiment 3 of the present invention aims to suppress the circuit scale while improving the noise suppression function.
  • FIG. 16 shows a circuit configuration of the periphery of the noise suppression circuit in the third embodiment.
  • a noise suppression circuit 36 ′ using a filter unit 51 ′ in which the filter size in the filter unit 51 is increased is employed. Increasing the filter size increases the frequency resolution and enhances the noise suppression effect, but increases the circuit scale.
  • the filter size r that increases the filter size n x n to improve the noise suppression function and prevents the circuit scale from increasing for that reason is set to the full dimension, that is, M (m is an integer (n X n)) smaller than (n X n).
  • M is an integer (n X n)) smaller than (n X n).
  • the filter processing result (frequency component) obtained with the small eigenvalue filter coefficient Corresponds to a high frequency and may occur in the case of low SZN. Such a frequency component should be reduced.
  • the force eigenvalue is small. If the filter coefficient filter is not used, it is always suppressed. Therefore, the influence on the noise suppression effect due to the reduction in the number of filters can be reduced.
  • the weighted average unit 61 is calculated by, for example, the following equation (3) using a weighting coefficient s that changes according to the average value Pav output from the average pixel value calculation unit 52 as shown in FIG.
  • the value is output as the pixel value Pout at the filter mask center pixel ((n + 1) Z2, (n + 1) / 2). That means
  • Pnr is an input value from the noise suppression circuit 36 '
  • s is a weighting coefficient ( ⁇ 1) in the weighted average unit 61
  • Porg is an input pixel value (original pixel value) at the center of the filter mask.
  • FIG. 18 shows a flowchart of the operation according to the present embodiment.
  • the operation shown in FIG. 18 is performed by performing the process of step S10 after step S8. That is, after the inverse filter process in step S8, the inverse filter as shown in step S10 is performed.
  • the process outputs and the target pixel value (input pixel value at the center of the filter mask) is subjected to a weighted average process using the average brightness value Pav. After this process, the process proceeds to step S1.
  • the other processing operations are the same as those in FIG. 10, and a description thereof will be omitted.
  • FIG. 18 shows the contents of Example 2 in which the weighting by the weighting unit 53 is corrected by the AGC gain value or the like in step S6 as in the case of FIG.
  • the original signal can be output even if the number of filters r of the filter size nXn is reduced to a smaller number m, and noise suppression processing can be realized. Can be reduced. High-speed processing is also possible.
  • this embodiment reduces the circuit scale by performing a weighted average of the output data of the noise suppression circuit with the reduced number of filters and the image data of the target pixel in accordance with the local brightness. In addition, while improving the noise suppression function, it is possible to avoid a reduction in sharpness particularly in bright areas.
  • the weighting coefficient s for weighted averaging is linearly increased from the value of the average brightness value Pav force ⁇ , but as a modification of this embodiment, for example, FIG. 17 (B), As shown in FIG. 17C, the slope of the weighting coefficient s and the intercept with the horizontal axis Pav may be changed by a noise suppression level that can be set and changed by the endoscope operator.
  • FIG. 19 shows the relationship between the function (A) of the weighting factor s in the weighted average unit 61 and the function (B) of the parameter Cthl that determines the characteristics of the weighting function, and the weighting factor in the weighting unit 53 Parameter Cthl with W equal to 1 Average value with a value of 0 Pav — Brightness greater than cs, and the weighting factor s of the weighted average unit 61 is 1.0. As a result, it is possible to reduce the sudden change in the noise suppression effect with respect to changes in brightness.
  • the light source device 3 explained that illumination is performed with light having a narrow band wavelength of R2, G2, and B2, as shown in FIG. Illumination may be performed with light of two narrow-band wavelengths.
  • the image data of G and B obtained under the illumination light of G2 and B2 is subjected to image processing by the noise suppression circuit 36, and then the image of G and B is obtained by the color conversion circuit 38 by the expression (1).
  • R, G and B channel image data may be generated from the data.
  • B image data is used as the R image data used in the white balance circuit 34 of FIG. That is, a frame memory (not shown) is provided between the AZD conversion circuit 32 and the white balance circuit 34, and the B image data stored in the frame memory R is synchronized with the timing signal of the timing generator 49. Is output to the white balance circuit 34 instead of the image data.
  • Noise suppression circuits 36 and 36 ′ are applied, it has been described that they are effective for the NBI mode. However, the endoscope that obtains the fluorescence observation image described in Example 4 below is described. Noise suppression circuits 36 and 3 are also effective for mirror devices.
  • a representative fluorescent image and a reflection image by reflected light are captured in advance to create sample image data, and eigenvalues and eigenvalues are obtained for the image data to perform KL conversion.
  • Base filter coefficients are prepared, and noise suppression processing such as filter processing is performed using the filter coefficients.
  • an endoscope apparatus having a fluorescence mode for performing fluorescence observation is formed, and when the NBI mode is selected, as in the first to third embodiments described above.
  • noise suppression image processing may be performed using a filter coefficient corresponding to the fluorescence mode!
  • the average pixel value calculation unit 52 as the brightness calculation means calculates the average value Pav in the pixel size of n X n to be filtered! /, But the small region to be filtered It is not limited to the one that calculates the brightness of the average value Pav etc. in the same local area as, for example, the local area including the pixel size of n X n, specifically, a is an even number such as 2, 4 This includes the case where the average value is calculated in a local area with a pixel size of (n + a) X (n + a). According to the first to third embodiments described above, there is an effect that noise can be effectively suppressed while reducing a decrease in contrast.
  • the target pixel value is compared with the average value of the surrounding pixels, and if the difference is equal to or greater than a predetermined threshold, the target pixel value is replaced with the average value of the surrounding pixels.
  • a high-sensitivity image sensor with a charge multiplication mechanism provided in the image sensor itself may be used to obtain a bright image in a dark environment where the amount of light incident on the image sensor is small, such as in fluorescence observation.
  • the image information not only the image information but also white scratch noise caused by pixel defects is amplified. For this reason, in the case of a high-sensitivity image sensor, it is desirable to be able to reduce the influence of white noise in particular.
  • the image processing apparatus has the following configurations (a) and (b).
  • the rearrangement unit that arranges the neighboring pixels in order of the pixel value and the one (single or plural) on the side of the maximum pixel value set by the rearrangement unit Mean value calculation means for calculating the average value is provided It is characterized by that.
  • the endoscope apparatus has the following configurations (c) and (d).
  • An endoscope apparatus comprising: an average value calculating means for calculating the average value excluding the one (single or plural) on the side of the maximum pixel value set by the means.
  • FIG. 20 shows the overall configuration of an endoscope apparatus 101 provided with this embodiment.
  • the endoscope device 101 includes an electronic endoscope 102, a light source device 103, a video processor 104, and an observation monitor 5.
  • the endoscope apparatus 101 has a mode for performing normal observation and fluorescence observation. Therefore, the electronic endoscope 102 is, for example, a high-sensitivity CCD25E as a high-sensitivity imaging device having an amplification function (charge multiplication function) inside the CCD element instead of the CCD25 in the electronic endoscope 2 in FIG. Is adopted.
  • an excitation light cut filter 106 that cuts the excitation light is disposed in front of the imaging surface of the high-sensitivity CCD 25E, and the excitation light cut filter 106 is irradiated to the observation target part in the case of fluorescence observation. Cuts reflected light of excitation light and transmits fluorescence wavelength To do.
  • the light source device 103 in the light source device 3 in FIG. 1 uses a fluorescent observation instead of the second filter set disposed inside the first filter set for normal light observation in the rotary filter 14.
  • a rotary filter 14B provided with a third filter set is employed.
  • the video processor 104 applies a CCD drive signal from the CCD driver 29 to the high-sensitivity CCD 25E, and also applies a control voltage for determining the value of the amplification factor of the high-sensitivity CCD 25E from the control voltage generation circuit 107.
  • the output signal of the high-sensitivity CCD25E passes through the process circuit 31 and the AZD conversion circuit 32, and is input to the dimming circuit 33, the control voltage generation circuit 107, and the white spot noise suppression circuit 111 that suppresses white spot noise. .
  • the main part of the white flaw noise suppression circuit 111 is configured as shown in FIG.
  • the dimming circuit 33 and the control voltage generation circuit 107 operate in cooperation so that the image on the observation monitor 5 has appropriate brightness.
  • the light control circuit 33 controls the diaphragm device 13 of the light source device 103, and the control voltage generation circuit 107 applies a control voltage for controlling the amplification factor to the high sensitivity CCD 25E of the electronic endoscope 102.
  • the gain of the high sensitivity CCD25E is determined by the value of the control voltage.
  • the image data output from the AZD conversion circuit 32 is input to the subtractor 112 and the selector 113 constituting the white spot noise suppression circuit 111 via a delay circuit (not shown).
  • the rearrangement unit 114 is activated at the timing when each pixel of the image data is input, and the rearrangement unit 114 includes nine pixel pixels in the 3 ⁇ 3 pixel mask 115 as illustrated in FIG. With the target pixel M22 to be processed in Ml 1 to M33 as the center, rearrangement processing is performed up to the pixel values of the eight peripheral pixels excluding this from the maximum to the minimum.
  • this rearrangement may actually have a function of calculating at least the maximum. Then, seven pixel values excluding the pixel Mmax of the maximum pixel value (in FIG. 21, Ml to M7) are output to the average value calculation unit 116, and the average value calculation unit 116 calculates the calculated average value M> Is output to the subtractor 112 and to the selector 113.
  • the subtractor 112 calculates the average of surrounding pixels (excluding the largest pixel) from the target pixel M22.
  • the subtraction value obtained by subtracting the value ⁇ M> is output to the comparator 117.
  • the comparator 117 compares this subtracted value with a threshold value applied to the other input terminal. Then, switching of the selector 113 is controlled by using the comparison result by the comparator 117 as a select signal.
  • the selector 113 selects the value or average value ⁇ M> of the target pixel M22 according to the select signal, and outputs it to the next-stage synchronization circuit 45 side as an output signal of the white spot noise suppression circuit 111.
  • the target pixel M22 is determined not to be white scratch noise, and the selector 113 outputs the target pixel M22.
  • the selector 113 outputs an average value ⁇ M>. Suppress white noise by replacing with ⁇ M>.
  • the threshold value output to the comparator 117 is output from the threshold value memory 118 that stores the threshold value as shown in FIG.
  • the threshold value memory 118 stores different threshold values corresponding to different addresses.
  • the output of the address generation circuit 119 that generates different address values according to the control voltage level output from the control voltage generation circuit 107 generates a threshold corresponding to the control voltage level, in other words, the amplification factor of the high-sensitivity CCD25E. It is output to the comparator 117.
  • the amplification factor of the high-sensitivity CCD25E increases approximately exponentially according to the level of the control voltage, the difference between the pixel having no white spot noise and the pixel having the white spot noise, that is, the white spot noise. The value increases as the amplification factor increases.
  • a plurality of threshold values corresponding to a plurality of amplification factors are prepared in advance to correspond to the set amplification factor.
  • An address generation circuit 119 and a threshold memory 118 are provided so that the output threshold value can be output, and an appropriate threshold value is selected even when the amplification factor changes.
  • the white-scratch noise suppression circuit 111 operates in the fluorescence mode for performing fluorescence observation and does not operate in the normal mode.
  • the output signal of the AZD conversion circuit 32 is input to the simultaneous circuit 45 via the selector 113. Is done.
  • the first filter set is arranged on the illumination optical path in the same manner as in the first embodiment, and Rl, Gl, Illuminate with the B1 illumination light.
  • a third filter set is arranged on the illumination light path as shown in FIG.
  • the third filter yarns 1R3, G3, and B3 for example, a filter having the transmission characteristics of R2, G2, and B2 shown in FIG. 4 can be used, and B2 is used as excitation light to receive the fluorescence.
  • the other R2 and G2 are used to display the reflected light image superimposed on the fluorescence image. Therefore, only a fluorescent image may be displayed.
  • white spot noise becomes particularly noticeable when the amplification factor of the high-sensitivity CCD 25E is set to be large, so that the white spot noise suppression circuit 111 functions in the fluorescence mode.
  • the operation of the white flaw noise suppression circuit 111 in the fluorescence mode in this embodiment will be described.
  • the operation in the normal mode is the same as the operation in which some functions such as enlargement in the first embodiment are deleted.
  • the third filter set is arranged on the illumination optical path, and in this case, the excitation light is irradiated to the observation target site. Then, the fluorescence generated by the excitation light at the site to be observed is received by the high-sensitivity CCD 25E. In this case, the excitation light reflected at the observation target portion is cut by the excitation light cut filter 106 and is not incident on the high sensitivity CCD 25E.
  • Image data captured by the high sensitivity CCD 25E and AZD converted by the AZD conversion circuit 32 is input to the white spot noise suppression circuit 111 as shown in FIG.
  • the image data of the target pixel M22 sequentially input to the white spot noise suppression circuit 111 is input to the subtractor 112 and the selector 113.
  • the rearrangement unit 114 rearranges the surrounding pixels of the target pixel M22 in descending order of pixel values, and outputs the remaining pixels M1 to M7 excluding the pixel with the maximum pixel value Mmax to the average value calculation unit 116.
  • the average value ⁇ M> is calculated.
  • the subtractor 112 compares the output value obtained by subtracting the average value ⁇ M> from the target pixel M22.
  • the comparator 117 outputs the value to the threshold value.
  • the average value ⁇ M> is an average value excluding the pixel Mmax of the maximum pixel value, even if there is a pixel with white spot noise in the surrounding pixels, the influence is excluded. ing. Therefore, by comparing the output value of the subtractor 112 with the threshold value by the comparator 117, it can be appropriately determined whether or not the target pixel M22 is a pixel having white spot noise.
  • the target pixel M22 that is hardly affected by the white spot noise has white spot noise. It is possible to determine whether it is included or not, and even when white flaw noise is included, it is possible to effectively suppress white flaw noise by replacing with an appropriate value.
  • the rearrangement unit 114 detects the pixel Mmax having the maximum pixel value in the peripheral pixels without rearranging the pixel values, excludes the pixel Mmax having the maximum pixel value, and sorts the pixel values so that the above-described operation force is divided.
  • the remaining pixels may be output to the average value calculation unit 116. For example, if there is a possibility that two pixels with white spot noise exist adjacent to the target pixel M22, the pixel with the second largest pixel value is excluded in addition to the pixel Mmax with the maximum pixel value. Then, the remaining pixels may be output to the average value calculation unit 116 to calculate the average value ⁇ M>.
  • the average value ⁇ M> of the peripheral pixels does not include the effect of white scratch noise. Can properly correct white scratch noise.
  • this embodiment also has a case in which there is a possibility that a pixel having a deficient pixel power and an extremely small pixel value similar to this (hereinafter, a pixel with black flaw noise) exists compared to a normal pixel. The same applies.
  • the average value is calculated by excluding the minimum pixel value in the surrounding pixels, and the value obtained by subtracting the value of the average value target pixel is compared with the threshold value, and the black flaw noise is determined. Depending on the determination result, it may be determined whether or not the target pixel is replaced and output.
  • the case of a high-sensitivity image pickup device having an amplification function inside the device has been described.
  • an image pickup device such as a CCD 25 that does not have an amplification function inside the device may be used as an example.
  • the present invention can be similarly applied to the case where the AGC circuit 35 is provided and amplified.
  • the target pixel value, the peripheral pixel value, and the peripheral pixel average value are compared, and a pixel whose difference is equal to or greater than a predetermined threshold is determined as white scratch noise.
  • the target pixel value was replaced with the peripheral pixel average value.
  • the difference between the target pixel value and the peripheral pixel average value is derived, and compared with a predetermined threshold value, if the threshold value is greater than or equal to the threshold value, the target pixel value is replaced with the peripheral pixel average value.
  • the threshold value is greater than or equal to the threshold value
  • the target pixel value is replaced with the peripheral pixel average value.
  • a format in which a threshold value considering each gain value is set for each color may be added.
  • a configuration may be added in which the threshold value is changed according to the amplification factor of the high-sensitivity image sensor.
  • the image data of the AZD conversion circuit 32 is temporarily stored in the simultaneous circuit 45 as it is and the R image data and G image data read from the simultaneous circuit 45 in the configuration of FIG.
  • the white image noise is suppressed through the white image noise suppression circuit 121 shown in FIG. 23 for the B image data.
  • the R image data Ri, the G image data Gi, and the B image data Bi input from the simultaneous noise circuit 45 to the white spot noise suppression circuit 121 are R component determination circuit 122R and G component determination, respectively.
  • the circuit 122G is input to the B component determination circuit 122B.
  • the output signals of the R component determination circuit 122R, the G component determination circuit 122G, and the B component determination circuit 122B are input to the selector 123, and determination is performed to determine whether or not the power of all three colors is equal to or greater than a threshold value. Input to circuit 124.
  • the output signal of the determination circuit 124 is used to switch the selector 123 as a select signal. Control.
  • the selector 123 outputs R output image data Ro, G output image data Go, and B output image data Bo as output signals of the white spot noise suppression circuit 121, respectively.
  • the target pixel M22r of the R image data Ri is input to the subtractor 126 through the delay circuit 125 that constitutes the R component determination circuit 122R and also to the selector 123.
  • the subscript r indicates a pixel of the R component.
  • the calculated average value Mr> is input to the subtractor 126 and also to the selector 123.
  • the subtractor 126 subtracts the average value Mr> from the value of the target pixel M22r, and the reduction calculation power is input to the comparator 128, and the comparator 128 compares it with the R component threshold Thr.
  • the comparison result Dr of the comparator 128 is input to the determination circuit 124.
  • the G component determination circuit 122G to which the G image data Gi is input and the B component determination circuit 122B to which the B image data Bi is input have basically the same configuration as the determination circuit 122R for the R component, and the threshold value Thr is simply The threshold values are changed to Thg and Thb, respectively.
  • the G component determination circuit 122G outputs the output of the target pixel M22g and the average value Mg> to the selector 123, and outputs the comparison result Dg to the determination circuit 124.
  • the B component determination circuit 122B outputs the output of the target pixel M22b and the average value Mb> to the selector 123, and outputs the comparison result Db to the determination circuit 124.
  • the decision circuit 124 switches the selector 123 to output the average values Mr>, ⁇ Mg>, and ⁇ Mb> only when the comparison results Dr, Dg, and Db are all judged to be greater than or equal to the threshold values Thr, Thg, Thb. In other cases, the target pixels M22r, M22g, and M22b are output.
  • the target pixel M22 is determined to be a pixel of white spot noise, and each pixel is replaced with an average value and output. In other cases, such replacement is not performed.
  • a high-sensitivity image sensor with a charge multiplication mechanism provided in the image sensor itself is used to obtain a bright and dark image in a V environment where the amount of light incident on the image sensor is small, such as in fluorescence observation.
  • the image information not only the image information but also white scratch noise caused by pixel defects is amplified.
  • the white spot noise correcting means the target pixel value is compared with the peripheral pixel value in each RGB color of the frame sequential endoscope, and the difference is equal to or greater than a predetermined threshold value.
  • the pixel is determined to be white scratch noise, and the target pixel value is converted into a peripheral pixel value.
  • the boundary area of the halation is also detected and corrected as white flaw noise, and this correction has the disadvantage of correcting unnecessary pixels and reducing the image.
  • the region determined to be a halation region is excluded from the target of white spot noise correction processing.
  • Judgment is made based on the pixel value of the target pixel. Specifically, it is determined whether or not it is halation based on whether or not it is the maximum pixel value.
  • white scratch noise uses the characteristic that its value is slightly larger than the surroundings but is not the maximum pixel value.
  • the white scratch pixel may have the maximum value (the same as the saturated pixel), and noise correction may not be possible with the method A.
  • noise correction may not be possible with the method A.
  • a single pixel is determined to be a pixel or a pixel, it is determined to be white (noise) (corrected) and is subject to noise correction.
  • FIG. 24 shows the configuration of the white flaw noise suppression circuit 131 provided with means for determining halation as described above.
  • the signal of the target pixel M22 is input to the selector 113.
  • the comparator 132 is input to the comparator 132 and compared with the threshold value Th.
  • the signals of specific peripheral pixels M12, M21, M23, and M32 except for the neighboring pixels M11 to M33 (excluding M22) adjacent to the target pixel M22 in the oblique direction. Is input to the halation presence / absence determination circuit 134, and it is determined whether or not the pixel is in the halation area.
  • the determination result Dh by the halation presence / absence determination circuit 134 is input to the determination circuit 135 together with the comparison result Dm of the comparator 132, and the determination output corresponding to both comparison results controls the switching of the selector 113 as a select signal.
  • the halation presence / absence determination circuit 134 performs determination based on one of the following D to F.
  • the image data of each pixel is 8 bits (0 to 255).
  • center pixel M22 is the maximum pixel value of 255, it is determined as halation.
  • the central pixel M22 has a maximum pixel value of 255, and there are one or more pixels with a maximum pixel value of 255 in the adjacent pixels of the central pixel M22 (horizontal and vertical directions only, diagonally excluded) For example, the center pixel M22 is halationed.
  • center pixel M22 has a maximum pixel value of 255 and the peripheral pixel value is not the maximum pixel value of 255, it is determined that it is not halation.
  • the determination circuit 135 outputs a select signal for the selector 113 to output the center pixel M22 to the selector 113 regardless of the comparison result Dm of the comparator 132. Output. If the determination result Dh by the halation presence / absence determination circuit 134 is determined not to be halation, and the comparison result Dm of the comparator 132 is equal to or greater than the threshold value, the selector 113 outputs the average value ⁇ M>. If the determination result Dh is determined not to be halation and the comparison result Dm is equal to or less than the threshold value, the selector 113 outputs a selector signal for outputting the center pixel M22 to the selector 113. To do.
  • FIG. 25 shows an example of the pixel values of the target pixel and its peripheral pixels input to the white spot noise suppression circuit 131.
  • the central pixel since it corresponds to D or E, the central pixel is determined to be halation, and the selection signal does not switch the selector 113, and the data 255 of the central pixel M22 is output as it is.
  • the determination method may be changed according to the amplification factor for the high sensitivity CCD25E.
  • the determination circuit 135 determines the halation pixel based on the above D or E, and when it is equal to or higher than the threshold, determines based on the above F. Since the halation area is excluded when correcting flaw noise, unnecessary pixels are not blurred and the image can be sharpened.
  • An object of the present invention is to provide an image processing apparatus and an endoscope apparatus capable of correcting pixel defects in an image sensor while avoiding a decrease in SZN.
  • the image processing apparatus has the following configurations (e) and (f).
  • An image processing apparatus comprising:
  • Each of the filters having different transmission wavelength characteristics used for fluorescence observation has a built-in first and second imaging device for capturing a subject image by accumulating charges, and has an accumulation time.
  • the first and second endoscopes having first and second storage means for storing information relating to each of the first and second endoscopes are selectively connected, and the target in the image data captured by the first and second imaging elements
  • Image processing means for deriving a difference between the pixel value and the average value of the peripheral pixel values, comparing the difference with a predetermined threshold value, and replacing the target pixel with the peripheral pixel average value if the difference is equal to or greater than the threshold value;
  • An average value calculating means for calculating the average value by excluding one or a plurality of peripheral pixels having a large forward force
  • An image processing apparatus comprising:
  • the endoscope apparatus has the following configurations (g) to (k).
  • the first and second of the first and second sensors each having a filter with different transmission wavelength characteristics used for fluorescence observation, each incorporating a first image sensor and a second image sensor for capturing a subject image by accumulating charges.
  • First and second storage means provided in the first and second endoscopes, respectively, for storing information relating to accumulation time
  • Illumination means for illuminating a subject with illumination light through the first or second endoscope, and an average value of target pixel values and peripheral pixel values in image data captured by the first and second imaging elements, The difference is derived, and the difference is compared with a predetermined threshold value.
  • An image processing device that replaces the target pixel with the average value of the surrounding pixels if it is above, the image processing device is set by a sorting unit that arranges the neighboring pixels in descending order of the pixel value, and the sorting unit.
  • the average value calculating means for calculating the average value excluding the one on the maximum pixel value side (single or!), And the processing related to the image processing based on the information on the storage time in the storage means
  • An endoscope apparatus comprising: means for changing a parameter;
  • First and second filters each having a filter having different transmission wavelength characteristics used for fluorescence observation, each incorporating a first image sensor and a second image sensor for capturing a subject image by accumulating charges, respectively.
  • First and second storage means provided in the first and second endoscopes, respectively, for storing information relating to accumulation time
  • Illumination means for illuminating a subject with illumination light through the first or second endoscope, and an average value of target pixel values and peripheral pixel values in image data captured by the first and second imaging elements, And an image processing device that compares the difference with a predetermined threshold value and replaces the target pixel with an average value of surrounding pixels if the difference is equal to or greater than the threshold value.
  • Mean value calculating means for calculating the average value by excluding one or a plurality of pixel values from the order, and means for changing processing parameters relating to the image processing based on information on the storage time in the storage means
  • An endoscope apparatus comprising:
  • the processing parameter is the threshold value in the noise suppression unit
  • the first and second storage means respectively store accumulation times accumulated by the first or second imaging device when illuminating at least one illumination light illuminated by the illumination means. To do.
  • the first and second storage units are arranged such that the first and second image sensors when the illumination unit illuminates illumination light for obtaining a reflected light image. Each accumulation time is stored.
  • FIG. 27 shows a configuration of an endoscope apparatus 101B including the image processing apparatus according to the fifth embodiment.
  • the endoscope apparatus 101B includes an electronic endoscope 102A as a first electronic endoscope, an electronic endoscope 102B as a second electronic endoscope shown in FIG. 28, and a light source device 103B.
  • a video processor 104B as an example image processing apparatus, an observation monitor 5 and power are also configured.
  • the configuration in the present embodiment is similar to the configuration of the fourth embodiment. Therefore, the same components as those described in the fourth embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the electronic endoscope 102A is provided with a scope ID generation circuit 150 for generating unique identification information of the electronic endoscope 102A in the electronic endoscope 102 used in the fourth embodiment shown in FIG. It is a configuration.
  • the second electronic endoscope 102B shown in FIG. 28 is an electronic endoscope provided with imaging means for normal observation in the electronic endoscope 102A shown in FIG.
  • the electronic endoscope 102A shown in FIG. 27 is used for both normal observation and fluorescence observation by one CCD25E, whereas the electronic endoscope 102B shown in FIG. For fluorescence observation, use CCD25E.
  • the CCD 25F is for normal observation, the CCD 25F is arranged at the image forming position of the objective lens 24F without the excitation light cut filter 106 interposed.
  • the objective lens 24F may have the same characteristics as the objective lens 24.
  • Output signals from the CCD 25E and the CCD 25F are input to the process circuit 31 of the video processor 104B via the switching switch 151 whose contacts are switched by the mode switching switch 20.
  • the CCD 25E and the CCD 25F are driven by the common CCD driver 29.
  • the excitation light cut filter 106 disposed in front of the imaging surface of the CCD 25E of the electronic endoscope 102A and the excitation light cut filter 106B disposed in front of the imaging surface of the CCD 25E of the electronic endoscope 102B are: As shown in Fig. 29 (A) and Fig. 29 (B), the transmission range is set to have different characteristics.
  • the CCD25E is used exclusively for fluorescence observation, so the excitation light cut filter 106B differs from the excitation light Ex wavelength band as shown in FIG. It is set to a characteristic that transmits the G2 and R2 wavelength ranges used to obtain Specifically, the wavelength band from wavelength ⁇ 2 to wavelength ⁇ 0 longer than wavelength R2 To Penetrate. The second wavelength is set slightly shorter than the G2 wavelength band.
  • the excitation light cut filter 106 arranged in front of the imaging surface of the CCD25E 106 Passes through the wavelength band from ⁇ ⁇ to ⁇ ⁇ as shown in Fig. 29 (A).
  • the wavelength of ⁇ ⁇ ⁇ ⁇ is shorter than the wavelength band of G2, and is set to ⁇ ⁇ ⁇ 2.
  • excitation light ⁇ and the illumination lights G2 and R2 shown in FIG. 29 indicate the wavelength bands of the surface sequential illumination light emitted from the light source device 103B in the fluorescence observation mode.
  • the first fluorescent image lul by the first electronic endoscope 102A is a narrow band of R2 and G2 illumination light whose illumination light intensity is weakened. Are combined with the first reflected light images r 1 and g 1 captured in the video processor 104B and displayed on the observation monitor 5.
  • the second fluorescent image lu2 from the second electronic endoscope 102B was picked up under R2 and G2 illumination light with a narrow band and reduced illumination light intensity.
  • the second reflected light images r2 and g2 are synthesized in the video processor 104B and displayed on the observation monitor 5 as a fluorescence observation image.
  • the first reflected light images rl and r2 are identical because the transmittance of the excitation light cut filter in the wavelength band of the illumination light R2 is the same in the first and second electronic endoscopes. Similarly, when the subject is imaged, the signal levels are the same. Similarly, the first reflected light images gl and g2 have the transmittance of the excitation light cut filter in the wavelength band of the illumination light G2 in the first and second electrons. Since they are the same in the endoscope, the signal levels are the same when the same subject is imaged.
  • the excitation light cut filter 106 is set to transmit part of the broadband B1 illumination light as shown in FIG. A color signal captured under illumination light can be obtained.
  • the excitation light cut filter 106B is set so as not to transmit the illumination light of B1 as shown in FIG. 30 (B) in the case of normal observation. That is, the excitation light cut filter 106 is set to have a wider wavelength range than the excitation light cut filter 106B.
  • processing parameter changing means for adjusting the signal level of the reflected light image to the signal level of the fluorescent image (specifically, In this case, an imaging time or accumulation time changing means) is provided so that a good fluorescence observation image that avoids a decrease in SZN can be generated even when the characteristics of the excitation light cut filter are different.
  • the light source device 103B used in the present endoscope device 101B generates, for example, the excitation light Ex shown in FIG. 29 (A) instead of the B2 filter 14b2 in the rotary filter 14 in the light source device 3 in the first embodiment.
  • a rotating filter 14C provided with a pumping light filter is adopted. That is, in the fluorescence observation mode, the light source device 103B sequentially emits illumination light of R2, G2, and excitation light Ex, and sequentially emits illumination light of Rl, Gl, and B1 in the normal observation mode.
  • the video processor 104B used in the endoscope apparatus 101B has a configuration obtained by changing a part of the video processor 104 of the fourth embodiment shown in FIG.
  • the video processor 104B in the present embodiment has the dedicated observation for the normal observation and the fluorescence observation.
  • image processing is performed to appropriately correct pixel defects such as white scratch noise and generate a good image with little noise.
  • the video processor 104B of the present embodiment is further provided with a control unit 152 in the video processor 104 of FIG. 20, and this control unit 152 stores reflected light and fluorescence written in the scope ID generation circuit 150.
  • the CCD driver 29 and the address generator 119 are controlled.
  • control unit 152 reads information on the accumulated time of reflected light and fluorescence from the scope ID generation circuit 150 when switching to the fluorescence observation mode for the first time (or at the time of activation), for example. Stored in the memory 152a.
  • the control unit 152 stores the memory 152 Reads information on the reflected light image and fluorescent image capture time (more precisely, the accumulation time) from a, and controls the accumulation time as a processing parameter for the CCD driver 29, that is, controls the electronic shirter by CCD25E. I do.
  • each imaging time (when capturing the reflected light image) is controlled to be trl and tgl, and when the excitation light Ex is irradiated (when capturing the fluorescence image), the imaging time is set to tbl. Control.
  • the imaging time during reflected light imaging is set so that the signal level (brightness) of the reflected light image when the reference subject is imaged matches the signal level (brightness) of the fluorescent image. Adjust the signal level (brightness) of each image appropriately by adjusting it (according to information related to the storage time recorded in advance in the scope ID generation circuit 150) according to the characteristics of the (excitation light cut filter). I speak like that.
  • the characteristics of the excitation light cut filters 106 and 106 used in the fluorescence imaging means are different between the electronic endoscopes 102A and 102B.
  • the brightness of the fluorescent images lul and lu2 differs, the brightness of the reflected light images rl, gl; r2, and g2 by irradiation of the red band or the like is the same. For this reason, the brightness balance of each image differs when the fluorescent image and the reflected light image are combined in the same processing state.
  • the imaging time of the image sensor is adjusted according to the characteristics of the endoscope (excitation light cut filter) in the reflected light image capturing.
  • the brightness is adjusted appropriately based on the electronic shirt information stored in the ID generation circuit 150 in advance.
  • the scope ID generation circuit 150 has been written with information related to the accumulated time of reflected light and fluorescence. However, only information related to the accumulated time of reflected light may be written. good. Then, the control unit 152 stores the information related to the accumulated time of the reflected light in the memory 152a, and the information related to the accumulated time of the fluorescence is not limited to the electronic endoscope connected to the video processor 104B. May be stored in the memory 152a in advance.
  • the scope generation circuit 150 generates characteristic information of the excitation light cut filter 106 or 106B, and the control unit 152 stores information on the accumulated time of reflected light and fluorescence corresponding to the characteristic information in the memory 152a. It can be configured to be stored in etc.!
  • the scope ID generation circuit 150 simply generates scope HD information, and the control unit 152 stores information on the accumulated time of reflected light and fluorescence used in the case of the scope ID on the video processor 104B side. It may be configured to store in 152a or the like.
  • the conventional image processing for pixel defect correction is not a process that takes into account the pixel value of the defective pixel that changes according to the imaging time, and thus cannot be corrected appropriately.
  • the threshold value as a processing parameter is changed and set appropriately as follows.
  • the control unit 152 in the fluorescence observation mode, provides the address generation circuit 119 with an imaging signal when the reflected light imaging at R2 and G2 and the fluorescence imaging under the excitation light Ex are performed.
  • the signals are inputted to the comparator 117 of the white-flaw noise suppression circuit 111 in the frame order, three threshold values read from the threshold memory 118 and applied to the other input terminal of the comparator 117 are controlled. As shown in Fig.
  • the amplification factor of the CCD 25E is set higher than that in the case of reflected light imaging. Therefore, if there is a white flaw in that case, the signal level due to the white flaw also increases.
  • the corresponding threshold value Thbl is set higher than the threshold values Thrl and Thgl for other signals.
  • the control unit 152 controls as described above.
  • the threshold values input to the comparator 117 are Thr2, Thg2, Thb2.
  • the control unit 152 controls so that Thb2> Thr2, Thb2> Thg2. In this case, it is set in the same manner as in the case of the threshold value Thbl.
  • the control unit 152 sets Thrl> Thr2. Similarly, in response to the setting of tgl> tg2, the control unit 152 sets Thgl> Thg2.
  • the control unit 152 sets the amplification factor and imaging time of the CCD 25E when performing fluorescence imaging to the same value.
  • Set Thbl Thb2.
  • the address generation circuit 119B includes information on the accumulated time of reflected light and fluorescence stored in the memory 152a input from the control unit 152, and the control voltage level output from the control voltage generation circuit 107. In response, the address value is generated, and the threshold value input from the threshold memory 118 to the comparator 117 is switched.
  • the output signal is used to control switching of the illumination light of the light source device 103.
  • the mode switching switch 20 is used.
  • the operation signal is input to the control unit 152.
  • control unit 152 responds to the mode switching to the control circuit 16 of the light source device 103B.
  • a signal for switching the mode is sent, and the control circuit 16 performs control corresponding to this signal.
  • the control unit 152 controls to perform illumination and signal processing in the normal observation mode at startup.
  • the light source device 103B sequentially emits illumination light of Rl, Gl, and B1, and the CCD 25F performs imaging in this illumination light state.
  • the control unit 152 does not operate the control voltage generation circuit 107.
  • the white flaw noise suppression circuit 111 is not operated. Therefore, in this case, the output signal of the A / D conversion circuit 32 in the video processor 104B passes through the white spot noise suppression circuit 111 and is input to the simultaneous signal circuit 45.
  • the operation in this case is the same as the normal observation mode in a normal frame sequential electronic endoscope.
  • the control unit 152 stores information on the accumulation time read from the scope ID generation circuit 150 in the memory 152a and stores the information in the memory 152a. Based on the information on the accumulation time, the electronic shutter time of the CCD 25E, that is, the above-described imaging time tr2, tg2 is controlled.
  • the control unit 152 operates the white flaw noise suppression circuit 111.
  • the control unit 152 sets the threshold value to be applied to the comparator 117 in the white spot noise suppression circuit 111 to the second reflected light image r2, g 2, input to one input terminal of the comparator 117.
  • the threshold applied to the input terminal of the other side of the comparator 117 is Thr2, Thg2, Thb2, and in this case Thb2> Thr2, Thb2> Thg2.
  • the control unit 152 controls so that
  • trl> tr2 etc. are set in the case of the first electronic endoscope 102A and the case of the second electronic endoscope 102B.
  • the color balance with the reflected light images rl, gl or r2, g2 can be maintained appropriately.
  • each set for the electronic endoscope 102A or 102B can be set appropriately, and white spot noise can be effectively suppressed.
  • the amplification factor of the CCD25E when performing fluorescence imaging is different between the first electronic endoscope 102A and the second electronic endoscope 102B, it is set for the fluorescence image according to the amplification factor.
  • the white threshold noise may be suppressed by using a threshold value.
  • White scratch noise suppression may be performed using a threshold value set to a small value.
  • the threshold information in this case may be stored in the scope ID generation circuit 150, for example.
  • white spot noise is suppressed by the white spot noise suppression circuit 111 for the imaging signals input in the field sequential order.
  • the white flaw noise suppression circuit 121 after simultaneous input by the flaw circuit 45.
  • the white spot noise suppression circuit 121 of the modification example shown in FIG. 31 is modified from the white spot noise suppression circuit 111 of FIG. 20 in the fourth embodiment to the white spot noise suppression circuit 121 of the modification example shown in FIG.
  • the configuration is basically the same as that described.
  • the white spot noise suppression circuit 121 of FIG. 31 is different from the white spot noise suppression circuit 121 of FIG. 23 in that the threshold applied to the comparator 128 is controlled by the scope ID of the scope ID generation circuit 150.
  • FIG. 31 shows a state in which the first electronic endoscope 102A is connected. In this case, the threshold value Thrl is applied to the comparator 128 in the R component determination circuit 122R.
  • the comparator 128 in the G component determination circuit 122G has a threshold Th. gl is applied, and the threshold value Thbl is applied to the comparator 128 in the fluorescence component (B component) determination circuit 122B.
  • This modification has substantially the same effect as that of the fifth embodiment.

Abstract

 画像処理装置は、撮像装置により撮像された画像データに対して、複数の空間フィルタによるフィルタ処理を行うフィルタ処理回路と、画像データの局所領域における明るさを算出する明るさ算出回路と、フィルタ処理回路の出力に対して、フィルタ処理回路の出力及び/又は前記明るさ算出回路の出力に応じた重み付けを行う重み付け回路と、重み付け回路の出力に対して、処理画像データを生成するための逆フィルタ処理を行う逆フィルタ処理回路とを備える。

Description

明 細 書
画像処理装置及び内視鏡装置
技術分野
[0001] 本発明は、内視鏡の撮像手段により撮像した画像データに対するノイズを抑制する のに適した画像処理装置及び内視鏡装置に関する。
背景技術
[0002] 近年、撮像手段を備えた電子内視鏡は、通常観察の他に、特殊光観察等におい ても広く採用されるようになった。
例えば、日本国特開 2002— 95635号公報には、特殊光観察として、狭帯域光観 察像が得られる内視鏡装置が開示されて!ヽる。
狭帯域光観察像を得る場合は、狭帯域化による照射光量の低下のため、撮像素子 によって得られた画像情報をそのままモニタに出力すると通常光観察像よりも暗くな る場合がある。
そのため、従来例においては明るさを補う手段として、調光用の信号を生成し、この 調光用の信号により光源装置の絞りの開閉量を制御して照明光量を増減することが 行われる。
[0003] また、従来例にお!、ては、 AGC回路により撮像された信号を適切なレベルまで増 幅することも行われる。狭帯域光観察像を得る場合は、狭帯域ィ匕による照射光量の 低下のため、絞りによる照明光量が最大の状態になっても光量が不足する場合があ り、このような場合には AGC回路等により信号を電気的に増幅することが行われる。 し力しながら、光量が不足している暗い画像では、 SZNが低い状態であるため、所 定の明るさとなるように AGC回路などで増幅するとノイズが目立ちやすくなる。
このような場合におけるノイズを抑制する方法としては、周波数空間における平滑 化処理を行う方法が知られて ヽる。例えば画像データを Fourier基底などにより直交 変換し、低域通過型の周波数フィルター関数の適用後に、逆変換する方法が挙げら れる。同様の効果を実空間の処理で実現する方法もある。また、メディアンフィルタの ような局所的フィルタによるノイズ抑制方法も知られている。 [0004] しかし、それらの手法の多くは画像全体を一様に処理するため、ノイズ以外の画像 情報、例えば生体組織に関する画像情報のコントラストも低下する。
本発明は、上述した点に鑑みてなされたもので、コントラスト低下を軽減しながらノィ ズを有効に抑制して、診断に適した画像を得ることができる画像処理装置及び内視 鏡装置を提供することを目的とする。
発明の開示
課題を解決するための手段
[0005] 本発明は、撮像手段により撮像された画像データに対して画像処理を行う画像処 理装置において、
前記画像データに対して、複数の空間フィルタによるフィルタ処理を行うフィルタ処 理手段と、
前記画像データの局所領域における明るさを算出する明るさ算出手段と、 前記フィルタ処理手段の出力に対して、前記フィルタ処理手段の出力及び Z又は 前記明るさ算出手段の出力に応じた重み付けを行う重み付け手段と、
前記重み付け手段の出力に対して、処理画像データを生成するための逆フィルタ 処理を行う逆フィルタ処理手段と、
を備えたことを特徴とする。
上記構成により、フィルタ処理手段の出力と、局所領域における明るさの出力に応 じてフィルタ処理された出力に対して重み付けの係数を変更することにより、明るい 画像領域におけるコントラスト低下を回避しながら、喑 、画像領域におけるノイズを有 効に抑制できるようにしている。
図面の簡単な説明
[0006] [図 1]図 1は、本発明の実施例 1を備えた内視鏡装置の全体構成図。
[図 2]図 2は、図 1の回転フィルタの構成を示す図。
[図 3]図 3は、図 2の回転フィルタの第 1のフィルタ組の分光特性を示す図。
[図 4]図 4は、図 2の回転フィルタの第 2のフィルタ組の分光特性を示す図。
[図 5]図 5は、ノイズ抑制回路の構成を示すブロック図。
[図 6]図 6は、フィルタ処理結果に対する重み付け係数の特性例を示す図。 [図 7]図 7は、局所領域内の画素値の平均値に対して重み付け係数の特性を決定す る閾値の関数例を示す図。
[図 8]図 8は、本実施例における局所的に暗い画像部分におけるノイズ抑制の作用の 説明図。
[図 9]図 9は、本実施例における局所的に明るい画像部分におけるノイズ抑制の作用 の説明図。
[図 10]図 10は、本実施例における動作内容のフローチャート図。
[図 11]図 11は、本発明の実施例 2におけるノイズ抑制回路周辺部の構成を示すプロ ック図。
[図 12]図 12は、 CCD種別等により重み付け係数の値が変更されるノイズ抑制回路の 構成を示すブロック図。
圆 13]図 13は、 AGCゲイン値に応じて重み付け係数が変更されることの説明図。
[図 14]図 14は、ノイズ抑制レベルの変更に応じて重み付け係数を決定するパラメ一 タの特性を変更する説明図。
[図 15]図 15は、図 14の場合とは異なる特'性にした場合の説明図。
[図 16]図 16は、本発明の実施例 3におけるノイズ抑制回路周辺部の構成を示すプロ ック図。
[図 17]図 17は、加重平均部における明るさの平均値に対する加重平均する重み付 け係数の特性設定例を示す図。
[図 18]図 18は、実施例 3における動作内容を示すフローチャート図。
圆 19]図 19は、変形例における加重平均する重み付け係数の特性設定例を示す図
[図 20]図 20は、本発明の実施例 4を備えた内視鏡装置の全体構成図。
[図 21]図 21は、白傷ノイズ抑制回路の構成図。
[図 22]図 22は、白傷ノイズを検出するための処理対象画素を中心とした周辺画素を 含むように設定されるマスクを示す図。
圆 23]図 23は、第 1変形例における白傷ノイズ抑制回路の構成図。
[図 24]図 24は、第 2変形例における白傷ノイズ抑制回路の構成図。 [図 25]図 25は、白傷ノイズを検出するために設定された処理対象画素及び周辺画 素の画素値の具体例を示す図。
[図 26]図 26は、図 20の回転フィルタの構成を示す図。
[図 27]図 27は、本発明の実施例 5を備えた内視鏡装置の全体構成図。
[図 28]実施例 5に使用される第 2の電子内視鏡の構成を示す図。
[図 29]第 1及び第 2の電子内視鏡にそれぞれ使用される励起光カットフィルタの透過 率特性の概略を示す図。
[図 30]第 1及び第 2の電子内視鏡にそれぞれ使用される励起光カットフィルタの透過 率特性の概略を通常観察に用いられる照明光の波長領域の関係で示す図。
[図 31]変形例における白傷抑制回路の構成を示す図。
発明を実施するための最良の形態
[0007] 以下、図面を参照して本発明の実施例を説明する。
(実施例 1)
図 1から図 10は、本発明の実施例 1に係り、図 1は本発明の実施例 1を備えた内視 鏡装置の全体構成を示し、図 2は図 1の回転フィルタの構成を示し、図 3は図 2の回 転フィルタの第 1のフィルタ組の分光特性を示し、図 4は図 2の回転フィルタの第 2の フィルタ組の分光特性を示し、図 5はノイズ抑制回路の構成を示す。
また、図 6はフィルタ処理結果に対する重み付け係数の特性例を示し、図 7は局所 領域内の画素値の平均値に対して重み付け係数の特性を決定する閾値の関数例を 示し、図 8及び図 9は、本実施例によるノイズ抑制の作用の説明図を示し、図 10は本 実施例による動作内容のフローチャートを示す。
[0008] 本実施例は、局所的に明るい画像領域のコントラスト低下を軽減しながら、暗い画 像領域のノイズを抑制し、かつ高速処理可能なノイズ抑制処理手段を備えた画像処 理装置及び内視鏡装置を提供することを目的とする。また、撮像素子の特性が異な る複数種類の電子内視鏡が接続される場合にも、ノイズ抑制が十分に得られる内視 鏡用画像処理装置及び内視鏡装置を提供することも目的とする。
図 1に示すように、本実施例を備えた内視鏡装置 1は、体腔内に挿入され、体腔内 組織を撮像する電子内視鏡 2と、電子内視鏡 2に照明光を供給する光源装置 3と、電 子内視鏡 2に内蔵された撮像手段を駆動すると共に、撮像された撮像信号を信号処 理するビデオプロセッサ 4と、ビデオプロセッサ 4により生成された内視鏡画像を表示 する観察モニタ 5と、符号化された内視鏡画像をフアイリングするフアイリング装置 6と 、から構成される。
[0009] 電子内視鏡 2は、体腔内に挿入される細長の挿入部 7を有し、この挿入部 7の後端 には操作部 8が設けてある。また、挿入部 7内には照明光を伝送するライトガイド 9が 挿通され、このライトガイド 9の後端は、光源装置 3に着脱自在に接続される。
光源装置 3は、ランプ点灯回路 10からの点灯電力の供給により照明光を発生する ランプとしての例えばキセノンランプ 11と、白色光の熱線を遮断する熱線カットフィル タ 12と、熱線カットフィルタ 12を介した白色光の光量を制御する絞り装置 13と、照明 光を面順次光に変換する回転フィルタ 14と、電子内視鏡 2内に配設されたライトガイ ド 9の入射面に回転フィルタ 14を介した面順次光を集光して供給する集光レンズ 15 と、回転フィルタ 14の回転を制御する制御回路 16とを備えて 、る。
[0010] 回転フィルタ 14は、図 2に示すように、円板状に構成され中心を回転軸とした 2重構 造となっており、径が大きい外側の周方向部分には図 3に示すような色再現に適した オーバーラップした (第 2のフィルタ組の場合に比較すると広帯域の)分光特性の面 順次光を出力するための第 1のフィルタ組を構成する R1フィルタ 14rl, G1フィルタ 1 4gl, B1フィルタ 14blが配置されている。
また、内側の周方向部分には図 4に示すような所望の深層糸且織情報が抽出可能な 離散的な分光特性の狭帯域な面順次光を出力するための第 2のフィルタ組を構成す る R2フィルタ 14r2, G2フィルタ 14g2, B2フィルタ 14b2が配置されている。
そして、回転フィルタ 14は、図 1に示すように、制御回路 16により回転フィルタモー タ 17の回転駆動の制御が行われて所定速度で回転される。また、回転フィルタ 14は 、回転フィルタモータ 17と共に、移動モータ 18により矢印 Aで示すように光路と直交 する方向に移動される。
[0011] 例えば回転フィルタモータ 17を保持している保持板 17aには、ラックが設けてあり、 このラックは、移動モータ 18の回転軸に設けたピ-オンギヤ 18aと嚙合している。 そ して、ユーザによるモード切替スィッチ 20のモード切替指示信号に応じてモード切替 回路 21から出力される駆動信号により、移動モータ 18を正転或いは逆転させること により、観察モードに応じて、第 1のフィルタ組或いは第 2のフィルタ組を光路上に配 置できるようにしている。
第 1のフィルタ組が光路上に配置された場合には、通常の面順次光となり、通常光 観察像が得られる通常モードに相当する。これに対して第 2のフィルタ組が光路上に 配置された場合には、狭帯域の面順次光となり、狭帯域光観察像が得られる狭帯域 モード(NBIモード)〖こ相当する。なお、図 2では第 1のフィルタ組と第 2のフィルタ組 が光路上に配置された場合における光束の位置を示している。
[0012] 光路上に配置された (通常モードに対応する)第 1のフィルタ組或 ヽは (NBIモード に対応する)第 2のフィルタ組を透過し、集光レンズ 15により集光された照明光は、ラ イトガイド 9により伝送され、挿入部 7の先端部 22の照明窓に取り付けられた照明レン ズ 23を経て、体腔内組織側に照明光として照射される。
この照明窓に隣接して設けられた観察窓には対物レンズ 24が取り付けてあり、その 結像位置には、撮像素子として電荷結合素子 (CCDと略記) 25が配置されており、こ の CCD25は、結像された光学像を光電変換する。
この CCD25は信号線 26を介してビデオプロセッサ 4内の CCDドライバ 29と、プリ アンプ 30に接続される。なお、信号線 26は、実際には、図示しないコネクタを介して ビデオプロセッサ 4と着脱自在に接続される。
[0013] CCDドライバ 29からの CCDドライブ信号の印加により CCD25により光電変換され た撮像信号は、プリアンプ 30により増幅された後、相関 2重サンプリング及びノイズ除 去等を行うプロセス回路 31を経て AZD変換回路 32に入力されると共に、調光回路 33に入力される。
この AZD変換回路 32によりアナログ信号力もデジタル信号の画像データに変換さ れた後、ホワイトバランス回路 34に入力され、ホワイトバランスの処理が行われた後、 オートゲインコントロール回路 (AGC回路と略記) 35に入力され、所定レベルまで増 幅される。
なお、 AGC回路 35は、光源装置 3の絞り装置 13による照明光量での調光動作が 優先して行われ、この絞り装置 13の開口が開放状態に達した後、その開放状態の情 報に基づいて、 AGC回路 35により不足する信号レベルが増大するように増幅する動 作を行う。
[0014] また、調光回路 33は、プロセス回路 31の出力信号から、光源装置 3の絞り装置 13 の開口量を調整して適正な照明光量に制御する調光信号を生成する。
上記 AGC回路 35の出力データは、ノイズ抑制回路 36に入力されると共に、切替ス イッチ 40を介して γ補正回路 41に入力される。
切替スィッチ 40は、モード切替スィッチ 20の操作により、モード切替回路 21を介し て通常モード時には、接点 aが選択され、 NBIモード時には接点 bが選択される。従 つて、本実施例においては、ノイズ抑制回路 36側(ノイズ抑制回路 36から面順次回 路 39まで)は、 NBIモードが選択された場合に機能する。
ノイズ抑制回路 36は、タイミングジェネレータ 49からのタイミング信号が送信され、 回転フィルタ 14の第 2のフィルタ組が光路上に配置された状態で撮像される情報を 取得する。そして、ノイズ抑制回路 36は、タイミング信号を用いて、第 2のフィルタ組 による (R2, G2, B2の照明下でそれぞれ撮像した色成分画像としての) R、 G、 Bの 画像データ毎にノイズ抑制の処理を行う場合の各種パラメータを切替える。
[0015] ノイズ抑制回路 36の出力データは、同時ィ匕回路 37に入力され、同時ィ匕された後、 色変換回路 38に入力され、この色変換回路 38により色変換の処理が行われる。この 色変換回路 38は、同時ィ匕された RGB画像情報を 3 X 3のマトリクスにより色変換する 。これにより、 NBIモードで再現される画像情報の視認性を向上する。
この場合における RGBから!^ G' Β' に色変換する変換式は、 3行 3列のマトリク ス Κを用いて、以下の式(1)とする。
[数 1]
Figure imgf000010_0001
Figure imgf000010_0002
[0016] ここで、 Kは、例えば 3個の実数成分 kl〜k3 (その他の成分は 0)力もなり、この式( 1)ような変換式により、 RGBカラー信号における Bの色信号の重み付け (比率)が最 大となっている。換言すると、長波長となる R2フィルタの透過光により画像ィ匕された R の色信号を抑圧し、短波長側の Bの色信号を強調して RGBカラー画像として表示さ れるようにする。
[0017] 上記(1)式では、 Rの色信号を完全に抑圧している例で示している力 Rの色信号 成分を一部残す色変換を行うようにしても良い。また、(1)式のように Rの色信号を完 全に抑圧する場合には、実施例 3で説明して 、るように R2は照明光として用いな ヽ で、 G2, B2の照明光のみ用いるようにして良い。
この色変換回路 38の出力信号 (R^ 、G' , Β' であるが簡単ィ匕のため R、 G、 Βを 用いて説明する)は、面順次回路 39に入力される。面順次回路 39は、フレームメモリ により構成され、同時に格納された R、 G、 Bの画像データを色成分画像として順次読 み出すことにより面順次の画像データに変換される。この面順次の画像データ R, G , Bは、切替スィッチ 40を経て γ補正回路 41に入力され、 γ補正された後、拡大回 路 42に入力されて拡大補間処理された後、強調回路 43に入力される。
この強調回路 43により、構造強調或いは輪郭強調が行われた後、セレクタ 44を経 て同時ィ匕回路 45に入力される。この同時ィ匕回路 45は、 3つのメモリ 45a、 45b、 45c により形成されている。
[0018] 同時ィ匕回路 45により同時ィ匕された信号データは、画像処理回路 46に入力され、動 画の色ずれ補正等の画像処理が施された後、 DZA変換回路 47a、 47b、 47c及び 符号ィ匕回路 48に入力され、これら DZA変換回路 47a、 47b、 47cによりアナログの 映像信号に変換された後、観察モニタ 5に入力される。
観察モニタ 5は、入力される映像信号に対応した内視鏡画像を表示する。また、符 号ィ匕回路 48により圧縮された内視鏡画像信号はフアイリング装置 6に入力されて、記 録される。 また、ビデオプロセッサ 4内には、タイミングジェネレータ 49が設けてあり、 光源装置 3の制御回路 16からの回転フィルタ 14の回転に同期した同期信号が入力 され、この同期信号と同期した各種タイミング信号を上記各回路に出力する。
また、電子内視鏡 2には、各電子内視鏡 2に固有の内視鏡識別情報 (スコープ IDと 略記)を発生するスコープ ID発生回路 28が設けてある。本発明では、このスコープ I Dにおける CCD25の情報を信号処理に利用するようにしている。
つまり、このスコープ IDは、ノイズ抑制回路 36に入力され、実際に使用されている C CD25の種別等に応じたノイズ抑制の処理を行うことができる。なお、 CCD25の種別 、AGC回路 35の AGCゲイン値等によりノイズ抑制回路 36の重み付け係数を変更す る場合の説明は実施例 2で行う。
[0019] また、電子内視鏡 2には、モード切替の指示を行うモード切替スィッチ 20が設けら れており、このモード切替スィッチ 20の出力は、ビデオプロセッサ 4内のモード切替 回路 21に出力される。
モード切替回路 21は、モード切替の指示信号に応じた制御信号を、調光制御パラ メータ切替回路 50及び光源装置 3の移動モータ 18に出力すると共に、切替スィッチ 40の切替を制御する。この切替スィッチ 40は、通常モードの場合には、接点 aが選 択され、狭帯域観察モード (NBIモードと略記)の場合には接点 bが選択されるように なる。調光制御パラメータ切替回路 50は、回転フィルタ 14の第 1のフィルタ組あるい は第 2のフィルタ組に応じた調光制御パラメータを調光回路 33に出力し、調光回路 3 3はモード切替回路 21からの制御信号及び調光制御パラメータ切替回路 50からの 調光制御パラメータに基づき光源装置 3の絞り装置 13を制御し適正な明るさ制御を 行うようになっている。
[0020] 図 5は、ノイズ抑制回路 36の内部構成を示す。ノイズ抑制回路 36には、面順次の R , G, Bの画像データが入力画像データとして入力される。入力画像データは、図示 していないメモリに記憶され、画像の左上力 右下に向かって、中心画素を 1画素ず つずらしながら、 n X n画素の画像データとして読み出され、フィルタ部 51を構成する 複数のフィルタ Al、 A2、 · ··、 Ax、 · ··、 Apに入力されると共に、小領域での明るさを 算出する平均画素値算出部 52に入力される。
フィルタ部 51は、 3 X 3, 5 X 5等、奇数 nとしたフィルタサイズ n X nからなる p ( =n X n)個のフィルタで構成され、各フィルタ Ax(x= l、 2、 · ··、 p)は、入力画像データと畳 み込み処理を行 、、それぞれのフィルタ処理結果を重み付け部 53及び LUT56に 出力する。
フィルタ部 51における p個のフィルタ Axの係数は、 R、 G、 B画像データ毎にタイミン グジェネレータ 49からのタイミング信号 (より具体的には切替信号)により切り替えられ 、フィルタ係数格納部 54から読み出されて設定される。
[0021] フィルタ Axの係数は、予めサンプルの内視鏡画像(具体的には、 NBIモードにより 撮像した内視鏡画像)から R, G, B毎の標本データを作成し、その R, G, B毎の標本 データの共分散行列の固有ベクトルで与える。
この場合の固有ベクトルは、互いに直交する特性のベクトルとなり、 Karhunen-Loev e変換 (KL変換と略記)行列となる。また、固有ベクトルと固有値とは組となっており、 固有値が大きい固有ベクトルほど、その固有ベクトルで直交変換することにより、低い 周波数に相当する周波数成分が求められる。
本実施例では、 p個の p次元の固有ベクトルを固有値の大きい順に、フィルタ Al, A 2、 · ··、 Apとして前記フィルタ係数格納部 54に格納されている。この場合、フィルタ A 1, A2、 · ··、 Apは、低い周波数成分に相当する変換係数を与えるフィルタ係数から 順次高い方に相当するフィルタ係数に並び替えた配列となる。
[0022] そしてフィルタ部 51は、入力画像データに対して、 p個のフィルタ係数を用いて直 交変換するフィルタ処理を行 ヽ、フィルタ処理したフィルタ処理結果 (直交変換係数) を重み付け部 53に出力する。
上記平均画素値算出部 52は、フィルタ部 51でフィルタ処理に用いるのと同じ入力 画像データにおける n X n画素における画素値の平均値を算出して、その算出結果 を LUT56に出力する。 [0023] 重み付け部 53も、 p ( =n X n)個の重み付け回路 Wl、 W2、 · ··、 Wp (図 5では重み 付け Wl、 W2、 · ··、 Wpと略記)からなり、各フィルタ Axによるフィルタ処理結果力 対 応する重み付け回路 Wxに入力される。
また、各重み付け回路 53Wxは、フィルタ Axから出力されるフィルタ処理結果に対 して重み付けする。そして、重み付け回路 53Wxにより重み付けした p ( =n X n)個の 処理結果を、逆フィルタ処理を行う逆フィルタ部 55に出力する。
重み付け部 53の重み付け回路 53Wxにより重み付けする重み付け係数 Wは、 LU T56に予め格納されており、平均画素値算出部 52で算出された平均画素値及びフ ィルタ Axの出力に応じた重み付け係数 W力この LUT56から読み出されて重み付け 回路 53Wxにセットされ、セットされた重み付け係数 Wにより重み付けされる。
[0024] 逆フィルタ部 55は、重み付け部 53の出力に対して、逆フィルタ処理してノイズ抑制 を施した画像データを生成する。生成された画像データは、入力画像データの n X n 画素の中心画素における画素値とされる。
本実施例においては、重み付け部 53は、フィルタ部 51によるフィルタ処理結果の 絶対値 I Coef Iを変数として、図 6 (A)或いは図 6 (B)に示すような特性により決定 される重み付け係数 Wの値がフィルタ処理結果 Coefに乗算される。
図 6 (A)或いは図 6 (B)に示す重み付け関数の特性は、 2つのパラメータ Cthl、 Ct h2により決定される。より具体的には、ノ ラメータ Cthlは、重み付け係数 Wが 1にな る値を決定する閾値であり、また他方のパラメータ Cth2は、重み付け係数 W力 Oにな る値を決定する閾値である。
[0025] また、図 6 (A)及び図 6 (B)の特性を決定するパラメータ(閾値) Cthla、 Cth2aと、 ノラメータ(閾値) Cthlb、 Cth2bは、夫々画像の局所領域の暗い場合と明るい場合 を示している。
これらのパラメータ Cthla、 Cth2a及び Cthlb、 Cth2bは、図 7において、平均画 素値算出部 52の算出値、つまり n X n画素内の画素値の平均値 Pavにより決定され る。
つまり、図 6 (A)及び図 6 (B)のパラメータ Cthla、 Cth2a及び Cthlb、 Cth2bは、 図 7における平均値 Pav力 、さい場合の Pavaと、大きい場合の Pavbとの場合にそれ ぞれ対応して決定される。
そして、重み付け部 53は、フィルタ処理結果の出力が第 1の所定値としてのパラメ ータ Cthlよりも大き 、場合には、フィルタ Axの出力によらず第 1の所定の重み係数( 具体的には 1 )を設定し、これに対してフィルタ処理結果の出力が第 1の所定値よりも 小さい場合には、フィルタ Axの出力に応じて重み係数をより小さな値に変更する。更 に、前記第 1の所定値は、前記明るさ算出手段の出力に応じて変更している。
[0026] 具体的には、平均値 Pavが小さい(暗い)場合には、第 1の所定の重み係数 (具体 的には 1 )となるパラメータ Cthlを大きな値とし、平均値 Pavが大き 、(明るい)場合に は、パラメータ Cthlを小さな値に変更するように、平均画素値算出部 52の出力に応 じて、パラメータ Cthlを変更している。
[0027] また、本実施例では、第 2の所定値としてのパラメータ Cth2も平均画素値算出部 5 2の出力に応じて変更している。このパラメータ Cth2は、フィルタ処理結果の出力に 対して重み付け係数を 0に設定するものであり、フィルタ処理結果の出力に含まれる ノイズを有効に除去するレベルに設定する。
そして、パラメータ Cth2と Cthlとの間は、重み付け係数が 0から 1まで変化すること になる。
このように平均画素値算出部 52の出力に応じて Cthl、Cth2が変化する重み付け 関数に基づき、フィルタ処理結果の絶対値 I Coef I に応じた重み係数がフィルタ A Xによるフィルタ処理結果毎に設定される。
[0028] なお、図 7に示すように、平均値 Pavが十分に大きな値である時には、 Cthl = Cth 2 = 0. 0となり、重み係数 Wは、フィルタ処理結果によらず、値 1となる為、後述する逆 フィルタ処理により元の画像データを出力することができ、鮮鋭度劣化のな 、画像デ ータが得られる。
[0029] 重み付け部 53の出力に対して逆フィルタ処理を行う逆フィルタ部 55は、重み付け 部 53から出力される p個の処理結果に対して、フィルタ Axのマスク(nX nサイズ)中 心のフィルタ係数との積和(内積)を行う積和演算を行うことにより、フィルタ処理後の 出力結果をもとの注目画素における画像データに戻す処理、つまり逆フィルタ処理( より具体的には逆 KL変換処理)を行う。 [0030] 具体的には、フィルタ Axの出力をそれぞれ重み付け回路 Wxにより重み付けした 処理結果を Dx (x= l, 2, · · ·, ρ)とし、フィルタ Axの中心のフィルタ係数を Ax, m (こ こで、 Ax, mは、 Axの m番目の係数(mは、 pを奇数として pZ2を四捨五入した整数 値、換言すると (P + 1) /2) ) )とすると、
∑Dx-Ax, m - - - (2)
となる。ここで、総和記号∑は、 Dx及び Ax, mの積 Dx'Ax, mを、 x= lから pまで 加算することを表している。
そして、上記(2)式による積和演算による逆フィルタ処理結果を、 n X n画素の小領 域での中心画素に対するノイズ抑制回路 36による処理結果の画素値として後段の 回路(図 1の同時化回路 37)側に出力する。
[0031] 上記のように本実施例においては、 2つのパラメータ Cthl、 Cth2及びフィルタ処理 結果の出力により重み付け係数 Wが決定されると共に、重み付け関数は、図 7に示 すように平均画素値算出部 52の算出値としての平均値 Pavを変数とした関数 f、gに より 2つのパラメータ Cthl、 Cth2を介して決定されるようになっている。
この場合、図 7に示す両関数 f、 gは、単調減少の特性を有する。また、関数 fの傾き は、他方の関数 gよりも緩や力となっている。
このように両関数 f、 gが設定されているため、例えば平均画素値算出部 52の平均 値 Pavが低 、値 Pavaの場合と高!、値 Pavbとの場合では、図 6 (A)と図 6 (B)に示す 重み付け関数が異なり、重み付け部 53により重み付けされる重み付け係数 Wが異な ることになる。
[0032] 図 7と図 6 (A)及び図 6 (B)の比較力も分力るように、平均画素値算出部 52の平均 値 Pavが低 、(小さ 、) Pavaであると、フィルタ処理結果 Coefに対して重み付け係数 Wが低い値となるように設定され、逆に平均画素値算出部 52の平均値 Pavが高い( 大き 、) Pavbであると、フィルタ処理結果 Coefに対して重み付け係数 Wが大きな値と なるように設定されるようになる。
つまり、図 6 (A)の場合の重み付け係数 Wの場合には、フィルタ処理結果 Coefが かなり大きな閾値 Cthla以上になった場合に、初めて重み付け係数 Wが 1となり、そ の値より少し小さい閾値 Cth2a以下であると、重み付け係数 W力 ^になってしまう。 従って、この場合には、フィルタ処理結果 Coefが重み付け係数 Wにより抑圧されて 出力されること〖こなる。
[0033] これに対して、図 6 (B)の場合の重み付け係数 Wにお 、ては、フィルタ処理結果 Co efが 0より大きいと、その場合における重み付け係数 Wは 0より大きぐかなり低い閾 値 Cthlb以上になると、重み付け係数 Wが 1となり、フィルタ処理結果 Coefの値がそ のまま出力される。
本実施例におけるノイズ抑制回路 36は、このように局所領域における明るさに応じ て、その明るさが暗い程、同じフィルタ処理結果の値に対する重み付けを小さくする ことにより、暗い画像領域におけるノイズを有効に抑制し、かつ明るさが明るい程、そ れに対する重み付けを大きくすることにより、明るい画像領域の画像情報のコントラス トを維持するようにしている。
なお、フィルタ A1のフィルタ処理結果に対する重み係数 Wは、常に 1. 0とする。こ れにより、 DC成分を保持する。
次に、このように構成された本実施例の内視鏡装置の作用について説明する。 図 1に示すように電子内視鏡 2を光源装置 3やビデオプロセッサ 4に接続して、電源 を投入する。初期状態では、例えば通常観察状態に設定される。
通常観察時には、照明光の光路上に回転フィルタ 14の第 1のフィルタ組である R1 フィルタ 14rl, G1フィルタ 14gl, B1フィルタ 14blに位置するようにビデオプロセッ サ 4内のモード切替回路 21が制御信号により移動モータ 18を制御する。
[0034] 体腔内組織の通常観察時における R1フィルタ 14rl, G1フィルタ 14gl, B1フィル タ 14bは、図 3に示したように各波長域がオーバーラップしており、 B1フィルタ 14bl による CCD25で撮像される撮像信号は、生体組織の浅層での組織情報を多く含む 浅層及び中層組織情報を有するバンド画像が撮像される。また、 G1フィルタ 14glに よる CCD25で撮像される撮像信号には、生体組織の中層での組織情報を多く含む 浅層及び中層組織情報を有するバンド画像が撮像され、さらに R1フィルタ 14rlによ る CCD25で撮像される撮像信号には、深層での組織情報を多く含む中層及び深層 組織情報を有するバンド画像が撮像される。
そしてビデオプロセッサ 4により、これら RGB撮像信号を同時化して信号処理するこ とで、内視鏡画像としては所望あるいは自然な色再現の内視鏡画像を得ることが可 能となる。
[0035] なお、この通常観察の場合には、ビデオプロセッサ 4は、 AGC回路 35を通った画 像データは、ノイズ抑制回路 36等の処理を行わないで、切替スィッチ 40を経て γ補 正回路 41に入力される。そして、 γ補正処理、拡大処理、構造強調処理等が行われ た後、セレクタ 44を介して同時ィ匕回路 45に入力され、同時ィ匕された後、さらに動画 色ずれの補正等が行われた後、アナログの色信号に変換されて観察モニタ 5の表示 面に内視鏡画像が表示される。
一方、電子内視鏡 2のモード切替スィッチ 20が押されると、その信号がビデオプロ セッサ 4のモード切替回路 21に入力される。モード切替回路 21は、光源装置 3の移 動モータ 18に制御信号を出力することで、通常観察時に光路上にあった回転フィル タ 14の第 1のフィルタ組を移動させ、第 2のフィルタ組を光路上に配置するように回転 フィルタ 14を移動し、 ΝΒΙモードにする。
[0036] 第 2のフィルタ組による ΝΒΙモード時における R2フィルタ 14r2, G2フィルタ 14g2, B2フィルタ 14b2は、図 4に示したように離散的で狭帯域の分光特性を有するため、 回転フィルタ 14の回転により、狭帯域な面順次光となる。
この場合、 B2フィルタ 14b2による CCD25で撮像される撮像信号には、浅層での 組織情報を有するバンド画像が撮像され、また、 G2フィルタ 14g2による CCD25で 撮像される撮像信号には中層での組織情報を有するバンド画像が撮像され、さらに R2フィルタ 14r2による CCD25で撮像される撮像信号には深層での組織情報を有 するバンド画像が撮像される。
この時、図 3及び図 4から明らかなように、第 1のフィルタ組による透過光量に対して 第 2のフィルタ組による透過光量は、その帯域が狭くなるため減少するため、調光制 御パラメータ切替回路 50は、回転フィルタ 14の第 2のフィルタ組に応じた調光制御 ノ メータを調光回路 33に出力することで、調光回路 33は絞り装置 13を制御する。
[0037] このように NBIモード時には、照明光量が通常モード時よりも大幅に減少するため、 絞り装置 13は開放状態に設定される場合が多い。
また、絞り装置 13が開放状態に設定されても、通常モード時に比較すると、照明光 量が小さい状態になることがある。その場合には、照明光量が小さいことによる明るさ の不足分を撮像された画像を増幅することで電気的に補正する力 単に AGC回路 3 5による増幅率のアップ等では暗い画像部分でのノイズが目立つ画像になってしまう ので、本実施例では図 5に示したノイズ抑制回路 36を通すことにより、以下に説明す るように暗部領域におけるノイズを抑制しつつ、明部領域のコントラスト低下を軽減す る。
AZD変換回路 32によりデジタル信号に変換され、 AGC回路 35により増幅された R、 G、 Bの画像データは、図 5に示すようにノイズ抑制回路 36を構成するフィルタ部 51に入力され、フィルタ部 51を構成するサイズ n X nの p個のフィルタ Al、 A2、 · ··、 Apに入力されると共に、平均画素値算出部 52に入力される。
[0038] フィルタ部 51は、入力画像データに対して、サンプルの画像データにより予め求め られた KL変換行列に基づくフィルタ係数を用いて、フィルタ処理される。そして、フィ ルタ処理結果は、重み付け部 53に出力される。
また、平均画素値算出部 52は、フィルタ部 51で空間フィルタ処理に用いるのと同じ 入力画像データの n X n画素の小領域 (局所領域)の画素値に対して平均値 Pavを 算出する。その平均値 Pav及びフィルタ処理結果の値に応じて LUT56を介して重み 付け部 53の重み付け回路 Wl、 W2、 · ··、 Wpの重み付け係数 Wを設定する。
本実施例においては、重み付け係数 Wは、図 7に示すように平均値 Pavの値に応 じてその特性を決定する 2つのパラメータ Cthl, Cth2が設定された後、フィルタ処 理結果 Coefの絶対値に応じて決定される。これらのパラメータ Cthl, Cth2により、 例えば暗い画像部分の場合には、図 6 (A)のように設定され、逆に明るい画像部分 の場合には図 6 (B)のように設定される。図 6 (A)及び図 6 (B)では、暗い場合での C thla、 Cth2aと、明るい場合での Cthlb、 Cth2bとの場合で示している。
[0039] 図 6 (A)及び図 6 (B)のように重み付け係数が設定されるため、フィルタ Axによるフ ィルタ処理結果 Coefx (図 6では Coef)の絶対値が小さい場合、つまり、 SZNが低い と考えられる部分では重み付け係数 Wの値が小さく、フィルタ処理結果 Coefxの絶 対値が大きい場合には重み付け係数が大きくされる。
従って、この重み付け部 53により重み付け処理により、平均値 Pavが小さい場合に は図 8 (A)の入力データに対して図 8 (B)のような処理結果となる。なお、図 8は、フィ ルタ処理した各周波数成分で示して ヽる。
図 8 (A)に示すようにパラメータ Cth2の値をランダムノイズの程度に設定することに より、そのノイズを有効に抑制し、かつ高 SZNの画像情報に基づく周波数成分の低 下を軽減した図 8 (B)の処理結果を得ることができる。つまり、ノイズに対しては、その 抑制効果が大きぐかつ相対的に高 SZNの周波数成分が同時に低減されるのをパ ラメータ Cthlの値により回避するようにしている。従って、暗い画像領域での粘膜に 基づく画像情報のコントラストの低下を軽減できることになる。
[0040] 一方、平均値 Pavが大きい場合には、パラメータ Cth2は、 0となり、かつもう 1つの ノ メータ Cthlも低い値に設定されるため、重み付け部 53に入力されるフィルタ処 理結果 Coefは、殆どそのまま出力される処理となる。
従って、重み付け部 53により重み付け処理により、平均値 Pavが大きい場合には図 9 (A)の入力データに対して図 9 (B)のような処理結果となる。この場合には、重み付 け部 53に入力される入力データが殆どそのまま出力されることになる為、明るい画像 領域ではコントラスト低下を回避することができることになる。
重み付け部 53の各重み付け回路 Wxにより重み付け処理された処理結果の出力 は、逆フィルタ部 55に入力され、上記のようにフィルタ部 51の各フィルタ Axにおける 中心のフィルタ係数 Ax, mとの積和演算による逆フィルタ処理 (より具体的には、逆 K L変換)が行われてノイズ抑制された画素値の画像データが次段の同時ィ匕回路 37に 出力される。
[0041] 上記ノイズ抑制回路 36は、例えば Rの画像データの 1フレーム分の処理が終了す ると、同時ィ匕回路 37の R用フレームメモリに格納される。そして、ノイズ抑制回路 36は 、次の Gの画像データの 1フレーム分の処理を開始し、その処理が終了すると、処理 された Gの画像データは、同時ィ匕回路 37の G用フレームメモリに格納される。
この場合、タイミングジェネレータ 49は、ノイズ抑制回路 36のフィルタ係数格納部 5 4のフィルタ係数及び LUT56の重み係数のテーブルを切り替えて、 Gの画像データ に対応したフィルタ係数で、同様にフィルタ処理等を行う。また、 Gの画像データの 1 フレーム分の処理が終了すると、 Bの画像データの 1フレーム分の処理を開始し、そ の処理が終了すると、処理された Bの画像データは、同時化回路 37の B用フレームメ モリに格納される。この場合にも、ノイズ抑制回路 36は、 Bの画像データに対応したフ ィルタ係数で同様にフィルタ処理等を行うことになる。
[0042] 同時ィ匕回路 37に格納された R, G, Bの画像データは、同時に読み出され、色変換 回路 38に入力され、この色変換回路 38は、カラー表示した場合の視認特性を良好 なものとするために表示色を変換する処理を行う。この色変換回路 38により色変換さ れた RGBの画像データは、面順次回路 39により面順次信号に変換される。
面順次信号は、切替スィッチ 40を経て γ補正回路 41側に入力され、以後は通常 モードの場合と同様の処理が行われた後、観察モニタ 5に ΝΒΙモードの ΝΒΙ画像が 表示される。
上記ノイズ抑制回路 36による全体的な処理手順は、図 10に示すようになる。ノイズ 抑制回路 36の動作が開始すると、ステップ S1において処理対象画像データの有無 が判定される。
[0043] 具体的には、 RGB画像データの何れかがノイズ抑制回路 36に入力され、中心画 素を 1画素ずつずらしながら、画像の先頭力 後尾へ向かって順次 n X n画素の画像 データを抽出して処理対象の画像データとするが、抽出すべき n X n画素の画像デ ータがある力否かが判定され、無い場合にはこの処理を終了し、ありと判定されると 次のステップ S2の処理に進む。
ステップ S2にお 、て、処理対象画像データから n X n画素の画像データが抽出さ れ、次のステップ S 3により n X n画素の画像データにフィルタ部 51のフィルタ A 1〜 A pによりフィルタ処理が行われると共に、ステップ S4に示すように平均画素値算出部 5 2により平均値 Pavが算出される。
平均値 Pavが算出されると、ステップ S5に示すようにその平均値 Pavにより、フィル タ出力に対する重み付け関数の設定が行われる。
[0044] さらにステップ S6にお 、て、後述する実施例 2で説明する AGCゲイン値、ノイズ抑 制部(NRレベル調整部)によるノイズ抑制レベル、強調回路 43による強調レベル、 C CD種別により重み付け関数の補正を行った後、ステップ S7に進む。
このステップ S7において、ステップ S3によるフィルタ処理のフィルタ出力毎に、重み 付け関数、即ち LUT56を参照して、フィルタ処理結果の値に応じた重み付け係数 W を求め、フィルタ処理結果と乗算して重み付けを行う。
この重み付けの処理により、特に暗部領域でのノイズを有効に抑圧し、かつ明部領 域でのコントラスト低下を回避して、次のステップ S8に進む。
このステップ S8において、各周波数成分での重み付けの処理結果に対して各フィ ルタ Axの所定係数との積和演算を行って逆フィルタ処理を行!、、 n X n画素の中心 画素の画素値を求めた後、ステップ S1に戻る。ステップ S1は再び処理対象の画素 データの有無を判定し、有ればさらに次のステップ S 2において、上述した n X n画素 の中心画素に隣接する n X n画素の画像データが抽出され、同様の処理が繰り返さ れる。
このようにして、処理対象となる画像データ全てに対して上述した処理が繰り返され 、画像データ全てに対して処理が行われると、この処理を終了する。
本実施例によれば、上述したように、画像における局所的な明るさとフィルタ処理結 果 Coefの値に応じて、フィルタ処理結果 Coefに対する重み付けを変えることにより、 暗部で特に目立つ印象を与えるノイズを有効に抑制し、かつノイズ以外の画像のコン トラスト低下を軽減し、また明部でのコントラスト低下を回避できる。
[0045] 従って、本実施例によれば、特に暗い画像部分が存在する場合にも、診断に適し た内視鏡画像を得ることができる。
なお、本実施例においては、フィルタ係数、重み付け係数 Wを R、 G、 Bの画像毎に 切り替えるようにしていた力 R、 G、 Bの画像で切り替えることなく共通化してノイズ抑 制回路 36の回路規模を低減ィ匕するように変形した構成にしても良い。
また、上述の説明では、サンプルの画像データに対して KL変換基底をフィルタ係 数に用いてノイズ抑制を行っていたが、他の変形例として、離散コサイン変換 (DCT) 基底を採用して、 R, G, Bの画像に共通のフィルタ処理を行うようにしても良い。 この DCTを用いた場合、フィルタ係数に対称性を持たせられることになるので、回 路規模を低減ィ匕できると共に、ノイズ抑制のために必要となる演算数も削減できるた め、高速処理が可能となる。
[0046] また、上述の説明では、フィルタ部 51全体に対して、重み付け部 53の重み付け係 数 Wを設定する、共通の LUT56を用いた力 各フィルタ Axの出力毎に専用の LUT 56を設けるようにしても良 、。
このようにすると、重み付けの自由度があがるため、特に暗い画像情報のコントラス ト低下を抑えつつ、ノイズ抑制効果を向上させることが可能となる。例えば、ランダムノ ィズ以外に内視鏡システムや撮像素子、ある狭帯域光によって得られる画像情報等 にお!/ヽて特異的となるようなノイズが存在する場合、その周波数成分に対応するフィ ルタ処理結果に対する重み付け係数を適切に設定することにより、そのノイズを有効 に抑制することができる。そして、診断に適した画像が得られるようになる。
[0047] (実施例 2)
次に本発明の実施例 2を図 11等を参照して説明する。本実施例は、実施例 1を変 形した構成にしたものである。本実施例は、異なる種別の撮像手段を備えた電子内 視鏡が接続されたような場合や、輪郭或 ヽは構造強調のレベルを変更したりした場 合にも、ノイズ抑制を有効に行うことができるようにすることを目的とする。
実施例 1においては、ノイズ抑制回路 36は、 CCD25の種別等に依存しないで共 通に使用していた力 本実施例では、 CCD25の種別、動作状態 (AGC ON)に設 定された場合の AGC回路 35のゲイン値、強調回路 43の強調レベルに応じて、その 重み付け部による重み付け係数を変更する構成にしている。その他の構成は、実施 例 1と同様である。
図 11は本発明の実施例 2におけるノイズ抑制回路 36の周辺部の回路構成を示す 。本実施例においても、実施例 1で説明したように、 AGC回路 35の出力信号はノィ ズ抑制回路 36に入力され、ノイズ抑制がされた後、図 1では示している同時ィ匕回路 3 7等を経て強調回路 43に入力される。
[0048] また、本実施例では、 AGC回路 35の AGCゲインの情報と、強調回路 43による強 調レベルの情報と、電子内視鏡 2に設けられた CCD種別検知回路 28Bにより検知さ れた CCD25の種別の情報とがノイズ抑制回路 36に入力されるようになっている。な お、図 11に示す CCD種別検知回路 28Bによる CCD種別検知を、図 1のスコープ ID 発生回路 28によるスコープ ID力も行うようにしても良いし、ビデオプロセッサ 4に着脱 自在で接続される図示しないコネクタの接続ピンにより CCD25の種別を検知できる ようにしても良い。
より具体的には、図 12に示すようにノイズ抑制回路 36における LUT56' に、フィ ルタ部 51の出力、平均画素値算出部 52の出力となる平均値(出力値)、 CCD25の 種別、 AGC回路 35の AGCゲイン値、強調回路 43の強調レベルの各情報が入力さ れ、これらの情報により、(パラメータ Cthl、 Cth2を変更し)重み付け部 53の重み付 け係数 Wが適切に変更設定される。
[0049] 例えば、 CCD25は、その CCD25の種別によりノイズレベルが異なる場合があり、 本実施例においては、 CCD25の種別により異なるノイズレベルに応じてそのノイズレ ベルに対応した重み付け係数に変更するようにして 、る。
具体的には CCD25として、例えば種別が異なり、ノイズが少ない方力も 4種の CC D25A、 25B, 25C, 25Dがあるとした場合、対応する重み付け係数もノイズの値に 比例などさせて設定する。例えば、 CCD25I (I=A〜D)の種別を検知した場合、そ の種別に対応した補正係数 CIをパラメータ Cth (ここで、 Cthは Cthl, Cth2を総称 したもの)に乗算する。ここで、 CA< CB< CC< CDである。
[0050] このように設定することにより、ノイズレベルの大きな CCDに対しては、小さな重み 付け係数を与えることができる為、 CCDの種別によらず、適切な抑制効果を得ること が可能になる。
[0051] また、 AGC回路 25によるゲイン値により、ノイズ抑制の効果が変動してしまわないよ うに、そのゲイン値に応じて重み付け係数の値を補正する。
具体的には、ゲイン値が増大されると明るさの平均値 Pavが見かけ上、ゲイン値に 比例して大きくなるため、図 7の関数 f (Pav)、 g (Pav)を変更する必要があり、例えば 図 7の横軸の Pavや縦軸の Cthのスケールをゲイン倍する。
図 13は、例えば点線で示す特性は、ゲインが 1の場合のパラメータ Cthl, Cth2の 値により設定される重み付け係数 Wに対して、ゲイン値を a倍に増大(図 13では a = 2 )にした場合における重み付け係数 W (実線)を示す。ここで、実線で示す場合のパラ メータ Cthl , Ct 2r の値は、
Cthl' =Cthl X a
Cth2' =Cth2 X a となっている。
[0052] このように補正することにより、ゲインによって変化するフィルタ処理結果 Coefに応 じて重み係数 Wを変更するので、ゲインに依存しな ゾィズ抑制を行うことができる。 ゲインの値で重み付け係数を補正する代わりに、明るさ算出手段となる平均画素値 算出部 52の出力部に、この平均画素値算出部 52の出力をゲイン値で除算する除算 器を設け、また各フィルタ Axの出力部に夫々のフィルタ処理結果をゲイン値で除算 する除算器を設けて、更に各重み付け回路 Wxの出力部に夫々の重み付け結果を ゲイン値で乗算する乗算器を設けるようにしても良ぐこの場合には重み付け係数を ネ ΐ正しなくても良い。
また、強調回路 43により構造強調を行う場合には、その強調レベルにより強調量が 増大するにつれ重み付け係数 Wの値が小さくなるように強調レベルに対応した補正 係数 Cjをパラメータ Cthに乗算する。
このようにすることにより、構造強調を増大させた場合、通常はノイズも目立つように なるが、本実施例においては暗い画像領域で、ノイズが目立つことを軽減できるよう になる。
また、構造強調を行う場合、特定の周波数成分を強調する場合には、その周波数 に該当するフィルタ出力結果に対する重み付け係数 Wの値を小さくするようにしても 良い。
[0053] その他は、実施例 1とほぼ同様の構成である。
このような構成による本実施例によれば、実施例 1の場合と同様の効果を有すると 共に、さらに CCD25の種別、 AGC回路 35のゲイン値、強調回路 43の強調レベル が変更された場合に対しても適切にノイズ抑制ができる。
つまり、 CCD25の種別等が変更された場合にも、それらに対応して、特に暗い画 像部分で目立つようになるノイズを有効に抑制し、かつノイズ以外の画像部分のコン トラストが低下することを軽減して、診断し易 、画像を得ることができる。
本実施例の第 1変形例として、例えばビデオプロセッサ 4におけるフロントパネル等 に、ノイズ抑制レベル(NRレベルと略記)を調整する NRレベル調整部を設け、この N Rレベル調整部における NRレベルを可変設定する摘み(或いはスィッチ)を操作し て、 NRレベルを変化すると、その変化に応じて重み付け部 53の重み付け係数も変 更するようにしても良い。
[0054] 具体的には、この摘みを小さい NRレベルから大きな NRレベルに変更した場合、図 14に示すように重み付け部 53の重み付け係数 Wを決定するパラメータ Cth (つまり C thl, Cth2)を点線で示す特性から実線で示す特性のようにシフトさせる。なお、図 1 4では上述のパラメータ Cthl , Cth2をまとめた Cthで示して!/、る。
図 14に示すように、明るさの平均値 Pavに対して、パラメータ Cthの値を大きくする 。例えば NRレベルに対応する補正係数を Cthの値に乗算する。
このようにすることにより、例えば小さい NRレベルから大きな NRレベルに変更した 場合、その変更に伴ってフィルタ処理結果 Coefに対する重み付け係数 Wの値は小 さく設定され、ノイズ抑制の機能が増大する。
なお、 NRレベルを変化させた場合、ノイズ抑制機能が効き始める画像の明るさは 変化させな 、ようにするために、図 14に示すように横軸とクロスする位置は変更しな いようにする。
[0055] 従って、ユーザは、 NRレベルを変化させることにより、ノイズ抑制機能が開始する 明るさを変えないで、ノイズ抑制効果をユーザの好み、例えばユーザが適切と思う画 質が得られる状態に自由に設定することができる。
また、第 1変形例においては、ノイズ抑制機能が開始する明るさを変更しないように していたが、第 2変形例として NRレベルを変化させた場合、それに連動してこの明る さも変更するようにしても良 、。
この第 2変形例においては、例えば小さい NRレベルから大きな NRレベルに変更し た場合、その変更に伴って図 15の点線の特性力も実線で示す特性のようにパラメ一 タ Cthを変更する。
つまり、平均値 Pavに対するパラメータ Cthを決定する特性図において、 Pav軸、 C th軸の切片の値を NRレベルに対応した補正係数で変更し、 NRレベルを大きくした 場合、両切片の値を同時に大きくする。
[0056] このようにすることにより、ノイズ抑制効果が開始される明るさを変更でき、かつ明る さに対するノイズ抑制効果をユーザの好みに応じて変更できる。 なお、図 15における特性をさらに複数用意しておき、その中の値力も選択できるよ うにしても良い。
なお、本実施例では、 AGC回路 35のゲイン、 CCD25の種別、強調レベル、 NRレ ベルにそれぞれ応じて重み付け係数を変更している力 これらの内の少なくとも 1つ で重み付け係数を変更するようにしても良 、。
また、上記 AGC回路 35のゲインにより重み付け係数を変更すると説明したものは、 ノイズ抑制回路 36に入力されるまでに増幅する増幅器のゲインに置換したものでも 良い。
[0057] (実施例 3)
次に本発明の実施例 3を図 16から図 19を参照して説明する。本実施例は、ノイズ 抑制の機能を向上しつつ、回路規模を抑制することを目的とする。
本実施例は、実施例 1或いは実施例 2において、さらに逆フィルタ処理した出力と 原画素値とに対して、明るさの出力値を用いて加重平均を行うようにしたものである。 図 16は、実施例 3におけるノイズ抑制回路周辺部の回路構成を示す。本実施例は 、例えば実施例 1におけるノイズ抑制回路 36において、フィルタ部 51におけるフィル タサイズを大きくしたフィルタ部 51' によるノイズ抑制回路 36^ を採用している。 フィルタサイズを大きくすると、周波数分解能が高くなり、ノイズ抑制効果を高められ るが、回路規模が大きくなつてしまう。
[0058] 例えば、 5 X 5のフィルタサイズでは、十分に明る 、画像領域にお!、てフィルタ処理 逆フィルタ処理により、処理前の画素値を得るには全部で(5 X 5)の 25個のフィル タが必要となり、さらに 7 X 7のフィルタサイズでは全部で 49個のフィルタが必要にな つてしまい、回路規模が大きくなつてしまう。
このため、本実施例では、 n X nのフィルタサイズを大きくしてノイズ抑制の機能を向 上し、かつそのために回路規模が大きくなることを防止すベぐフィルタ数 rをフル次 元、つまり(n X n)より少ない m (mく(n X n)とした整数)にしている。この場合、固有 値が大きいものに対応するフィルタ程優先して用いることで、フィルタ数を削減した影 響を軽減する。
つまり、固有値の小さ ヽフィルタ係数で求められるフィルタ処理結果 (周波数成分) は、高い周波数に相当し、低 SZNの場合となることがあり、このような周波数成分は 低減すべきである力 固有値の小さ 、フィルタ係数のフィルタを用いな 、場合には、 常に抑制される為、フィルタ数削減によるノイズ抑制効果への影響を軽減できる。
[0059] また、逆フィルタ部 55の出力と原画素値とに対して、平均画素値算出部 52による 出力値を用いて、加重平均を行うようにすることで、フィルタ数の削減による影響をさ らに軽減している。
加重平均部 61は、例えば、図 17 (A)に示すように平均画素値算出部 52から出力 される平均値 Pavに応じて変化する重み付け係数 sにより、下の(3)式で算出される 値をフィルタマスク中心画素((n+ l) Z2、 (n+ l) /2)における画素値 Poutとして 出力する。つまり、
Pout=s -Porg+ (1 -s) -Pnr · '· (3)
ここで、 Pnr:ノイズ抑制回路 36' から入力値、 s :加重平均部 61での重み付け係 数(≤1)、 Porg :フィルタマスク中心における入力画素値 (原画素値)である。 これ により、平均画素値が大きく明るい場合には、入力画像値を出力し、暗くなるにつれ 、ノイズ抑制処理した画素値が支配的になるように出力することで、明るい領域での ボケ感を抑え、暗い領域で目立ち易くなるノイズ感を抑制する。
[0060] 図 18は、本実施例による動作のフローチャートを示す。図 18に示す動作内容は、 図 10に示すフローチャートにおいて、ステップ S8の後に、ステップ S 10の処理を行う つまり、ステップ S8において、逆フィルタ処理の後に、ステップ S 10に示すようにこ の逆フィルタ処理の出力と注目画素値 (フィルタマスク中心における入力画素値)とを 明るさの平均値 Pavを用いて加重平均する処理を行い、この処理の後、ステップ S1 の処理に移る。その他は、図 10と同様の処理動作であり、その説明を省略する。なお 、図 18では、図 10の場合と同様にステップ S6において、 AGCゲイン値等により重み 付け部 53による重み付けを補正する実施例 2の内容で示している。
[0061] 本実施例の構成によれば、フィルタサイズ nX nのフィルタ数 rを、より少ない m個に 減らしても原信号出力が可能であり、またノイズ抑制処理も実現できるため、ハード規 模の縮小化が可能となる。また高速処理も可能となる。 このようにして、本実施例は、フィルタ個数を削減したノイズ抑制回路の出力データ と、注目画素の画像データとの加重平均を局所的な明るさに応じて行うことで、回路 規模を低減し、ノイズ抑制の機能を向上しつつ、特に明るい領域での鮮鋭度低下を 回避することができる。
なお、図 17 (A)では加重平均する重み付け係数 sを明るさの平均値 Pav力^の値か らリニアに増大させているが、本実施例の変形例として、例えば図 17 (B)、図 17 (C) に示すように重み付け係数 sの傾きや、横軸 Pavとの切片を、内視鏡操作者が設定変 更可能なノイズ抑制レベルにより変更できるようにしても良い。
[0062] また、図 19は、加重平均部 61における重み係数 sの関数 (A)と、重み付け関数の 特性を決定するパラメータ Cthlの関数 (B)の関係を示し、重み付け部 53での重み 係数 Wが 1となるパラメータ Cthlが値 0となる平均値 Pav— cs以上の明るさで、加重 平均部 61の重み係数 sが 1. 0としている。これにより、明るさ変化に対してノイズ抑制 の効果が急激に変化することを軽減することが可能である。
なお、上述した各実施例等を部分的に組み合わせる等して他の実施例等を構成し ても良い。
また、上述した各実施例において、 NBIモードにおいては、光源装置 3は図 4に示 すように R2, G2, B2の狭帯域の波長の光で照明を行うと説明した力 例えば G2, B 2の 2つの狭帯域の波長の光で照明を行うようにしても良い。
この場合には、 G2, B2の照明光の下で得た G, Bの画像データをノイズ抑制回路 3 6で画像処理した後、色変換回路 38において、式(1)により G, Bの画像データから R, G, Bチャンネルの画像データを生成すれば良い。
[0063] なお、図 1のホワイトバランス回路 34で用いる Rの画像データは、 Bの画像データを 用いることとする。即ち、図示してないフレームメモリを AZD変換回路 32とホワイトバ ランス回路 34の間に設け、タイミングジヱネレータ 49のタイミング信号に同期して、フ レームメモリに記憶させた Bの画像データを Rの画像データの代わりにホワイトバラン ス回路 34に出力する。
[0064] NBIモードにぉ 、ては、粘膜組織の表層付近の血管走行状態等、短波長側の光 により得られる生体情報が有用であるため、このように短波長側の 2つの狭帯域光を 用いた場合には、表層付近の血管走行状態等を鮮明に示す画像を色変換処理によ り構成することが可能となり、診断する場合に有効となる。
なお上述の説明では、ノイズ抑制回路 36、 36' を適用する場合、 NBIモードの場 合に対して有効であると説明したが、以下の実施例 4で説明する蛍光観察画像を得 る内視鏡装置の場合にもノイズ抑制回路 36、 3 は有効である。
また、この場合には、予め代表的な蛍光画像及び反射光による反射画像を撮像し て、標本となる画像データを作成し、その画像データに対して固有値及び固有べタト ルを求めて KL変換基底のフィルタ係数を用意しておき、このフィルタ係数を用いてフ ィルタ処理等のノイズ抑制処理を行う。
[0065] また、通常モードと NBIモードの他に、蛍光観察を行う蛍光モードを備えた内視鏡 装置を形成し、 NBIモードを選択した場合には上述した実施例 1〜実施例 3のように ノイズ抑制の画像処理を行い、蛍光モードを選択した場合には、蛍光モードに対応し たフィルタ係数等を用いてノイズ抑制の画像処理を行うようにしても良!、。
なお、上述の各実施例においては、面順次式の内視鏡装置 1の場合で説明したが 、同時式の内視鏡装置の場合においても、 AZD変換した R, G, Bの画像データをメ モリにー且格納し、これら R, G, Bの画像データを R, G, Bの色成分画像として順次 読み出して面順次の画像データに変換することにより、上述した場合と同様にノイズ 抑制を行うことができることは明らかである。また、色分離した場合には、輝度と色差 信号が得られる場合にも、マトリクス回路等により R. G, Bの画像データに変換すれ ば良い。
[0066] つまり、上述した各実施例は同時式の電子内視鏡や同時式の光源装置及び同時 式のビデオプロセッサの場合にも適用できる。
また、上述の説明では、明るさ算出手段としての平均画素値算出部 52は、フィルタ 処理する n X nの画素サイズにおける平均値 Pavを算出して!/、るが、フィルタ処理す る小領域と同じ局所領域で平均値 Pav等の明るさを算出するものに限定されるもので なぐ例えば n X nの画素サイズを含む局所領域、具体的には aを 2, 4等の偶数とし て、(n+a) X (n+a)の画素サイズの局所領域で平均値を算出するように設定した 場合も含む。 上述した実施例 1から実施例 3によれば、コントラスト低下を軽減しながらノイズを有 効に抑制できる効果を有する。
[0067] (実施例 4)
次に図 20から図 22を参照して、本発明の実施例 4を説明する。まず、本実施例の 背景を説明する。なお、後述する実施例 5も基本的には同じ背景である。
例えば日本国特開平 1— 181168号公報では、対象画素値と、周辺画素の平均値 とを比較して、その差分が所定の閾値以上であれば、対象画素値を周辺画素の平均 値で置換していた。
し力しながら、この方法では、白傷ノイズが隣接画素に存在する場合には、平均値 が高くなり、ノイズ抑制効果が十分に得られないといった問題があった。
また、メディアンフィルタを応用したノイズ抑制方法も提案されている(日本国特開 2 004— 313413号)。この場合にも、同様の欠点がある。
蛍光観察等のように、撮像素子への入射光量の少な ヽ環境下で明る ヽ画像を得る ために、撮像素子自体に電荷増倍機構が設けられた高感度撮像素子が使用される ことがあるが、画像情報のみならず、画素欠陥に起因する白傷ノイズも増幅してしまう 。このため、高感度撮像素子の場合には、特に白傷ノイズによる影響を軽減できるこ とが望ましい。
このため、本実施例は、撮像素子の画素欠陥として知られる白傷ノイズが注目する 画素に隣接して存在する場合にも、白傷ノイズ抑制を適切に、若しくは白傷ノイズ軽 減ができる(内視鏡用)画像処理装置或いは内視鏡装置を提供することを目的とする
[0068] そして、上記目的を達成するために、画像処理装置は、以下の(a)、 (b)の構成に している。
(a)撮像素子により撮像された画像データにおける対象画素値と周辺画素値の平均 値との差分を導出し、前記差分を所定の閾値と比較して、閾値以上であれば対象画 素を周辺画素平均値に置換する画像処理装置において、周辺画素を画素値の大き い順に並べる並べ替え手段と、前記並べ替え手段により設定された最大の画素値側 のもの (単数或いは複数)を除いて前記平均値を算出する平均値算出手段を設けた ことを特徴とする。
(b)撮像素子により撮像された画像データにおける対象画素値と周辺画素値の平均 値との差分を導出し、前記差分を所定の閾値と比較して、閾値以上であれば対象画 素を周辺画素平均値に置換する画像処理装置において、周辺画素を画素値の大き い順から単数或いは複数除外して、前記平均値を算出する平均値算出手段を設け たことを特徴とする。
[0069] また、上記目的を達成するために、内視鏡装置は、以下の(c)、 (d)の構成にして いる。
(c)撮像素子を内蔵した内視鏡と、前記撮像素子により撮像された画像データにお ける対象画素値と周辺画素値の平均値との差分を導出し、前記差分を所定の閾値と 比較して、閾値以上であれば対象画素を周辺画素平均値に置換する画像処理装置 とを有し、前記画像処理装置は、周辺画素を画素値の大きい順に並べる並べ替え手 段と、前記並べ替え手段により設定された最大の画素値側のもの(単数或いは複数) を除いて前記平均値を算出する平均値算出手段とを有する内視鏡装置。
(d)撮像素子を内蔵した内視鏡と、前記撮像素子により撮像された画像データにお ける対象画素値と周辺画素値の平均値との差分を導出し、前記差分を所定の閾値と 比較して、閾値以上であれば対象画素を周辺画素平均値に置換する画像処理装置 とを有し、前記画像処理装置は、周辺画素を画素値の大きい順力 単数或いは複数 除外して、前記平均値を算出する平均値算出手段を有する内視鏡装置。
[0070] 次に本実施例を具体的に説明する。図 20は、本実施例を備えた内視鏡装置 101 の全体構成を示す。この内視鏡装置 101は、電子内視鏡 102と、光源装置 103と、 ビデオプロセッサ 104と、観察モニタ 5とから構成される。
本内視鏡装置 101は、通常観察と蛍光観察を行うモードを備えている。このため、 電子内視鏡 102は、例えば図 1の電子内視鏡 2における CCD25の代わりに CCD素 子内部に増幅機能 (電荷増倍機能)を備えた高感度撮像素子としての高感度 CCD2 5Eを採用している。また、この高感度 CCD25Eの撮像面の前には励起光をカットす る励起光カットフィルタ 106が配置されており、励起光カットフィルタ 106は、蛍光観 察の場合に観察対象部位に照射された励起光の反射光をカットし、蛍光波長を透過 する。
[0071] また、光源装置 103は、図 1の光源装置 3において、回転フィルタ 14における通常 光観察用の第 1のフィルタ組の内側に配置されている第 2のフィルタ組の代わりに蛍 光観察用の第 3のフィルタ組を設けた回転フィルタ 14Bが採用されている。
また、ビデオプロセッサ 104は、 CCDドライバ 29から高感度 CCD25Eに CCD駆動 信号を印加すると共に、制御電圧発生回路 107から高感度 CCD25Eの増幅率の値 を決定する制御電圧を印加する。
また、高感度 CCD25Eの出力信号は、プロセス回路 31、 AZD変換回路 32を経て 調光回路 33と、制御電圧発生回路 107と、白傷ノイズを抑制する白傷ノイズ抑制回 路 111に入力される。この白傷ノイズ抑制回路 111の主要部は、図 21に示すような 構成になっている。
[0072] 調光回路 33と、制御電圧発生回路 107は、観察モニタ 5上での画像が適当な明る さになるように協調して動作する。調光回路 33は光源装置 103の絞り装置 13を制御 し、また制御電圧発生回路 107は、電子内視鏡 102の高感度 CCD25Eに対してそ の増幅率を制御する制御電圧を印加する。高感度 CCD25Eは、制御電圧の値によ り、その増幅率が決定されることになる。
AZD変換回路 32から出力される画像データは、白傷ノイズ抑制回路 111を構成 する減算器 112及びセレクタ 113に図示しな 、遅延回路を介して入力される。
また、この画像データの各画素が入力されるタイミングで、並び替え部 114を起動し 、この並び替え部 114は、図 22に示すように 3 X 3画素のマスク 115における 9個の 画素の画素 Ml 1〜M33における処理の対象となる対象画素 M22を中央として、こ れを除く 8個の周辺画素の画素の値を最大のもの力 最小のものまで並び替えの処 理を行う。
[0073] なお、この並び替えは、実際には、少なくとも最大のものを算出する機能を持てば 良い。そして、最大画素値の画素 Mmaxを除いた 7個の画素値(図 21ではこれを Ml 〜M7)を平均値算出部 116に出力し、平均値算出部 116は、算出した平均値く M >を減算器 112に出力すると共に、セレクタ 113に出力する。
減算器 112は、対象画素 M22から (最大画素のものを除外した)周辺画素の平均 値 < M>を減算した減算値を比較器 117に出力する。比較器 117は、この減算値と 、他方の入力端に印加される閾値とを比較する。そして、比較器 117による比較結果 をセレクト信号としてセレクタ 113の切替を制御する。
セレクタ 113は、セレクト信号により、対象画素 M22の値或いは平均値 < M>をセ レクトして、この白傷ノイズ抑制回路 111の出力信号として、次段の同時化回路 45側 に出力する。
[0074] 具体的には、減算器 112の出力の値が閾値より小さいと、対象画素 M22は、白傷 ノイズでないと判定してセレクタ 113は対象画素 M22を出力する。
一方、減算器 112の出力の値が閾値以上であると、対象画素 M22は、白傷ノイズ であると判定して、セレクタ 113は平均値 < M>を出力し、白傷ノイズをこの平均値 < M>で置換することにより白傷ノイズを抑制する。
上記比較器 117に出力される閾値は、図 20に示すように閾値を格納した閾値メモリ 118から出力される。
この閾値メモリ 118には、異なるアドレスに対応して異なる閾値が格納されている。 そして、制御電圧発生回路 107から出力される制御電圧のレベルに応じて異なる アドレス値を発生するアドレス発生回路 119の出力により、制御電圧のレベル、換言 すると高感度 CCD25Eの増幅率に対応した閾値が比較器 117に出力される。
[0075] 高感度 CCD25Eは、制御電圧のレベルに応じて略指数関数的に増幅率が増大す るため、白傷ノイズの無い画素と、白傷ノイズのある画素との差、すなわち白傷ノイズ 値は、増幅率が大きくなる程大きくなる。
このように高感度 CCD25Eは、制御電圧のレベルに応じて異なる増幅率に設定さ れるため、本実施例では複数の増幅率に対応した複数の閾値を予め用意し、設定さ れる増幅率に対応した閾値を出力できるようにアドレス発生回路 119と閾値メモリ 11 8を設けて、増幅率が変化した場合においても、適切な閾値が選択されるようにして いる。
なお、白傷ノイズ抑制回路 111は、蛍光観察を行う蛍光モード時に動作し、通常モ ード時には動作しないで、 AZD変換回路 32の出力信号は、セレクタ 113を経て同 時ィ匕回路 45に入力される。 [0076] また、モード切替スィッチ 20により、通常モードにした場合には、実施例 1の場合と 同様に照明光路上には第 1のフィルタ組が配置されて、図 3に示す Rl, Gl, B1の照 明光で照明を行う。一方、蛍光モード時には、図 26に示すように照明光路上に第 3 のフィルタ組が配置される。第 3のフィルタ糸 1R3、 G3、 B3は、例えば図 4に示す R2, G2, B2の透過特性を持つフィルタを用いることもでき、 B2を励起光としてその蛍光 を受光する。他の R2, G2は、その反射光像を蛍光画像と重畳して表示するのに用 いる。従って、蛍光画像のみを表示しても良い。
その他の構成は、実施例 1において説明したものと同じ構成要素には、同じ符号を 付け、その説明を省略する。
[0077] 本実施例では、白傷ノイズが、高感度 CCD25Eの増幅率が大きく設定された場合 に、特に顕著になるため、蛍光モード時に白傷ノイズ抑制回路 111が機能する構成 にしている。
次に本実施例における蛍光モード時における白傷ノイズ抑制回路 111の動作を説 明する。なお、通常モード時の動作は、実施例 1における拡大等の一部の機能を削 除した動作と同様である。
蛍光モード時には、第 3のフィルタ組が照明光路上に配置され、この場合には励起 光が観察対象部位に照射される。そして、観察対象部位における励起光により励起 されて発生した蛍光は、高感度 CCD25Eにより受光される。この場合、観察対象部 位で反射された励起光は励起光カットフィルタ 106によりカットされ、高感度 CCD25 Eには入射されない。
[0078] 高感度 CCD25Eにより撮像され、 AZD変換回路 32により AZD変換された画像 データは、図 21に示すように白傷ノイズ抑制回路 111に入力される。白傷ノイズ抑制 回路 111に順次入力される対象画素 M22の画像データは、減算器 112とセレクタ 1 13に入力される。
また、並び替え部 114は、対象画素 M22の周囲画素を画素値の大きい順に並び 替え、最大画素値の画素 Mmaxのものを除外した残りの画素 M1〜M7を平均値算 出部 116に出力し、平均値 < M>が算出される。
そして、減算器 112は、対象画素 M22から平均値 < M>を減算した出力値を比較 器 117に出力し、この比較器 117は、その出力値を閾値と比較する。
[0079] 平均値 < M>は、すでに最大画素値の画素 Mmaxを除外した平均値であるため、 仮に周辺画素に白傷ノイズがある画素が存在してもその影響が除外されたものとなつ ている。 従って、減算器 112の出力値を比較器 117により、閾値と比較することによ り、対象画素 M22が白傷ノイズがある画素であるか否かを適切に判定できる。
つまり、本実施例によれば、対象画素の周辺に隣接して白傷ノイズがある画素が存 在した場合にも、その白傷ノイズの影響を殆ど受けることなぐ対象画素 M22が白傷 ノイズを含むカゝ否かを判定でき、かつ白傷ノイズを含む場合にも適切な値で置換して 白傷ノイズを有効に抑制することができる。
以上の動作力 分力るように上記並び替え部 114は、画素値を並び替えずに周辺 画素における最大画素値の画素 Mmaxを検出して、その最大画素値の画素 Mmax を除外して、その残りの画素からその平均値算出部 116に出力するものでも良い。ま た、対象画素 M22に隣接して例えば 2つの白傷ノイズのある画素が存在する可能性 がある場合には、最大画素値の画素 Mmaxの他に 2番目に大きな画素値のものとを 除外して、その残りの画素を平均値算出部 116に出力して平均値 < M>を算出する ものでも良い。
[0080] このように本実施例によれば、白傷ノイズが隣接して存在する画素の場合にも、周 辺画素の平均値 < M >の中に白傷ノイズの影響が含まれなくなるため、適正に白傷 ノイズを補正することができる。
なお、本実施例は、通常の画素に比べて、欠損画素力、これに類似した極端に小さ な画素値となる画素(以下、黒傷ノイズの画素)が存在する可能性がある場合にも同 様に適用することができる。
この場合には、周辺画素における最小画素値のものを除外して平均値を算出し、 平均値力 対象画素の値を減算したものを閾値と比較して、黒傷ノイズの判定を行 ヽ 、その判定結果に応じて対象画素を置換して出力する力否かを決めるようにしても良 い。
なお、本実施例では、素子内部に増幅機能を備えた高感度撮像素子の場合で説 明したが、素子内部に増幅機能を有しない CCD25等の撮像素子においても、例え ば AGC回路 35を設けて増幅した場合に対しても同様に適用することができる。
[0081] 次に本実施例の第 1変形例を説明する。従来の面順次式内視鏡装置では、 RGB 各色において、対象画素値と、周辺画素値と、周辺画素平均値とを比較して、その 差分が所定の閾値以上である画素を白傷ノイズと判断し、対象画素値を周辺画素平 均値に置換していた。
し力しながら、構造の境界情報や、ランダムノイズのように、 RGB3色のうち、ある色 のみが周辺画素よりも突出して明るければ、その色のその画素は白傷と判断されて 補正されてしまう為、白傷ノイズは補正されるが、白傷ノイズ以外の画素も多数補正さ れてしまうこととなり、画像のボケ感が増すといった問題があった。
このため、本変形例では RGB各色において、対象画素値と周辺画素平均値との差 分を導出し、所定の閾値と比較して、閾値以上であれば対象画素値を周辺画素平均 値に置換する内視鏡装置において、 RGB全色の差分が閾値以上である場合のみ、 白傷ノイズと判断し、その画素のみ周辺画素平均値に置換するようにする。
[0082] また、カラーバランス値のように、 RGBそれぞれに所定のゲインが力かって 、る場 合には、それぞれのゲイン値を考慮した閾値が色毎に設定される形式を追加してよ い。また、閾値は、高感度撮像素子の増幅率に応じて、変化させる構成を追加しても よい。
本変形例は、図 20の構成におて、 AZD変換回路 32の画像データをそのまま同 時ィ匕回路 45に一時格納し、同時ィ匕回路 45から読み出した R画像データ、 G画像デ ータ、 B画像データに対して図 23に示すような白傷ノイズ抑制回路 121を通して、白 傷ノイズを抑制する。
図 23に示すように同時ィ匕回路 45から白傷ノイズ抑制回路 121に入力される R画像 データ Ri、 G画像データ Gi、 B画像データ Biは、それぞれ R成分用判定回路 122R, G成分用判定回路 122G, B成分用判定回路 122Bに入力される。
[0083] これら R成分用判定回路 122R, G成分用判定回路 122G, B成分用判定回路 122 Bの出力信号は、セレクタ 123に入力されると共に、 3色とも閾値以上力否かを判定 する判定回路 124に入力される。
また、この判定回路 124の出力信号は、セレクト信号として、セレクタ 123の切替を 制御する。そして、セレクタ 123からそれぞれ R出力画像データ Ro、 G出力画像デー タ Go、 B出力画像データ Boが白傷ノイズ抑制回路 121の出力信号として出力される
R画像データ Riの対象画素 M22rは、 R成分用判定回路 122Rを構成するディレイ 回路 125を経て減算器 126に入力されると共に、セレクタ 123に入力される。
[0084] また、この対象画素 M22rの周辺画素 Mijr (i, jはそれぞれ 1から 3までの任意の整 数であるが、但し i=j = 2の対象画素 M22の場合のみを除く。また、添え字 rは、 R成 分の画素であることを示す。)は、平均値算出部 127に入力され、平均値く Mr>が 算出される。
算出されたこの平均値く Mr >は、減算器 126に入力されると共に、セレクタ 123に 入力される。減算器 126は、対象画素 M22rの値から平均値く Mr >を減算して、減 算出力は、比較器 128に入力され、この比較器 128により、 R成分用閾値 Thrと比較 される。
この比較器 128の比較結果 Drは、判定回路 124に入力される。
G画像データ Giが入力される G成分用判定回路 122G, B画像データ Biが入力さ れる B成分用判定回路 122Bは、 R成分用判定回路 122Rと基本的に同じ構成であり 、単に閾値 Thrがそれぞれ閾値 Thg, Thbに変更されている。
[0085] そして、 G成分用判定回路 122Gは、セレクタ 123に対象画素 M22gの出力と、平 均値く Mg>とを出力し、判定回路 124には比較結果 Dgを出力する。
また、 B成分用判定回路 122Bは、セレクタ 123に対象画素 M22bの出力と、平均 値く Mb >とを出力し、判定回路 124には比較結果 Dbを出力する。
判定回路 124は、比較結果 Dr, Dg, Db全てが閾値 Thr, Thg, Thb以上であると 判定した場合のみ、セレクタ 123を切り替えて平均値く Mr > , < Mg> , < Mb >を 出力させ、それ以外の場合には、対象画素 M22r、 M22g、 M22bを出力させる。
[0086] つまり、判定回路 124は、
I M22r- < Mr> | ≥Thr
I M22g- < Mg> I ≥Thg
I M22b- < Mb > I ≥Thb を同時に満たす場合のみ、対象画素 M22は、白傷ノイズの画素であると判定し、そ れぉぞれ平均値に置換して出力させるようにする。その他の場合には、このような置 換を行わない。
本変形例の効果として、全色が所定の閾値である箇所のみ抽出できることから、白 傷ノイズのように全色で突出した画素値となることの検出により確実に判定でき、かつ 構造の境界情報やランダムノイズのように単色で突出している画素の補正を制限し、 過剰な補正による画像のボケ感を抑制することができ、結果として、白傷ノイズの検 出及びその補正機能を向上することができる。
[0087] 次に第 2変形例を説明する。蛍光観察等のように、撮像素子への入射光量の少な Vヽ環境下で明る!/ヽ画像を得るために、撮像素子自体に電荷増倍機構が設けられた 高感度撮像素子が使用されているが、画像情報のみならず、画素欠陥に起因する 白傷ノイズも増幅してしまう。
このため、白傷ノイズ補正手段として、従来例では、面順次内視鏡の RGB各色に おいて、対象画素値と、周辺画素値とを比較して、その差分が所定の閾値以上であ る画素を白傷ノイズと判断し、対象画素値を周辺画素値に変換していた。しかしなが ら、この方式ではハレーションの境界領域も白傷ノイズとして検出して補正しまうことと なり、この補正により不要な画素を補正して画像をぼ力してしまう欠点があった。
[0088] このため、本変形例は、ハレーション領域を認識 (判定)することにより、ハレーショ ン領域と判定されたその領域では、白傷ノイズの補正処理の対象外とする。このハレ ーシヨン領域力否かの判定方法としては、
A.対象画素の画素値により判定する。具体的には、ハレーションであるか否かを、 最大画素値であるか否かにより判定する。この場合、白傷ノイズは、周囲よりも若干、 その値が大きくなるものの、最大画素値ではないという特性を利用する。
B.対象画素を含む、隣接した複数の領域にわたって、最大画素値となる画素が存 在する場合には、ハレーション領域と判定する。
[0089] C.増幅率が大きい場合、白傷画素が最大値 (飽和画素と同じ)となる場合があり、 A の方式ではノイズ補正されない可能性がある。それを防止する為、単一画素のみで ノ、レーシヨン画素と判定した場合は、白傷 (ノイズ)と判定し (直し)、ノイズ補正対象と する。 図 24は、このようにハレーション判定する手段を備えた場合の白傷ノイズ抑 制回路 131の構成を示す。
上述した図 22のように対象画素 M22に対してこれを囲む周辺画素を Ml 1〜M33 (M22を除く)としたマスクを設定した場合、対象画素 M22の信号は、セレクタ 113に 入力されると共に、比較器 132に入力され、閾値 Thと比較される。
また、対象画素 M22の周辺画素 Mij (i, jは 1〜3の任意の整数で、 i=j = 2を除く) の信号は、(周辺画素)平均値算出部 133に入力され、周辺画素 Mijの平均値 < M >が算出され、この平均値 < M>は、セレクタ 113に入力される。
[0090] また、本変形例では、対象画素 M22の周辺画素 M11〜M33 (M22を除く)におけ る斜め方向に隣接するものを除いた特定の周辺画素 M12, M21, M23, M32の信 号は、ハレーション有無判定回路 134に入力され、ハレーション領域の画素か否か が判定される。
このハレーション有無判定回路 134による判定結果 Dhは、比較器 132の比較結果 Dmと共に判定回路 135に入力され、両比較結果に応じた判定出力がセレクト信号と してセレクタ 113の切替を制御する。
ハレーション有無判定回路 134は、以下の D〜Fのいずれかによる判定をする。な お、以下では各画素の画像データが 8ビット (0〜255)の場合で説明する。
D.中心画素 M22が最大画素値の 255であれば、ハレーションと判定する。
[0091] E.中心画素 M22が最大画素値 255であって、かつ中心画素 M22の隣接画素(横 、縦方向のみ、斜めは除外)に、最大画素値の 255となる画素が 1画素以上あれば、 中心画素 M22はハレーションとする。
F.中心画素 M22が最大画素値の 255で、周辺画素値は最大画素値の 255でない 場合には、ハレーションでないと判定する。
判定回路 135は、ハレーション有無判定回路 134による判定結果 Dhがハレーショ ンと判定すれば、比較器 132の比較結果 Dmに拘わらず、セレクタ 113が中心画素 M22を出力するためのセレクト信号をセレクタ 113に出力する。ハレーション有無判 定回路 134よる判定結果 Dhがハレーションでないと判定し、かつ比較器 132の比較 結果 Dmが閾値以上であれば、セレクタ 113は、平均値 < M>を出力するためのセ レクト信号をセレクタ 113に出力し、また判定結果 Dhがハレーションでないと判定し、 かつ比較結果 Dmが閾値以下であれば、セレクタ 113は、中心画素 M22を出力する ためのセレクタ信号をセレクタ 113へ出力する。
[0092] 例えば、図 25は白傷ノイズ抑制回路 131に入力される注目画素及びその周辺画 素の画素値の 1例を示す。この場合には、 D或いは Eに該当するので、中心画素は、 ハレーションと判定して、セレクト信号はセレクタ 113の切替を行わないで、中心画素 M22のデータ 255がそのまま出力されることになる。
更に、高感度 CCD25Eに対する増幅率に応じて判定方法を変更する構成にして も良い。つまり、増幅率が所定の閾値以下である場合、判定回路 135は上記 D或い は Eによりハレーション画素を判定し、閾値以上である場合には上記 Fにより判定する 本変形例によれば、白傷ノイズ補正時に、ハレーション領域は除外する為、不要な 画素をぼかすことが無くなり、画像を鮮明化することができる。
[0093] (第 5実施例)
次に図 27から図 31を参照して、本発明の第 5実施例を説明する。本実施例は、一 組の光源装置及び画像処理装置 (具体的にはビデオプロセッサ)に対して、特性の 異なる複数の、蛍光観察可能な内視鏡が接続された場合でも、蛍光観察画像の SZ N低下を回避しつつ、撮像素子における画素欠陥を補正することが可能な画像処理 装置及び内視鏡装置を提供することを目的とする。
[0094] そして、上記目的を達成するために、画像処理装置は、以下の(e)、 (f)の構成にし ている。
(e)蛍光観察に用いられる透過波長特性が異なるフィルタをそれぞれ有し、電荷を蓄 積する事によって被写体像を撮像する第 1及び第 2の撮像素子をそれぞれ内蔵する と共に、蓄積時間に関する情報をそれぞれ記憶する第 1及び第 2の記憶手段を内蔵 した第 1及び第 2の内視鏡が選択的に接続され、前記第 1及び第 2の撮像素子により 撮像された画像データにおける対象画素値と周辺画素値の平均値との差分を導出 し、前記差分を所定の閾値と比較して、閾値以上であれば対象画素を周辺画素平均 値に置換する画像処理手段と、 周辺画素を画素値の大き 、順に並べる並べ替え手段と、前記並べ替え手段により 設定された最大の画素値側のもの(単数或いは複数)を除 、て前記平均値を算出す る平均値算出手段と、
前記記憶手段における蓄積時間に関する情報に基づき、前記画像処理に関する 処理パラメータを変更する手段と、
を備えたことを特徴とする画像処理装置。
[0095] (f)蛍光観察に用いられる透過波長特性が異なるフィルタをそれぞれ有し、電荷を蓄 積する事によって被写体像を撮像する第 1及び第 2の撮像素子をそれぞれ内蔵する と共に、蓄積時間に関する情報をそれぞれ記憶する第 1及び第 2の記憶手段を内蔵 した第 1及び第 2の内視鏡が選択的に接続され、前記第 1及び第 2の撮像素子により 撮像された画像データにおける対象画素値と周辺画素値の平均値との差分を導出 し、前記差分を所定の閾値と比較して、閾値以上であれば対象画素を周辺画素平均 値に置換する画像処理手段と、
周辺画素を画素値の大きい順力 単数或いは複数除外して、前記平均値を算出 する平均値算出手段と、
前記記憶手段における蓄積時間に関する情報に基づき、前記画像処理に関する 処理パラメータを変更する手段と、
を備えたことを特徴とする画像処理装置。
[0096] また、上記目的を達成するために、内視鏡装置は、以下の(g)〜 (k)の構成にして いる。
(g)蛍光観察に用いられる透過波長特性が異なるフィルタをそれぞれ有し、電荷を蓄 積する事によって被写体像を撮像する第 1及び第 2の撮像素子をそれぞれ内蔵した 第 1及び第 2の内視鏡と、
前記第 1及び第 2の内視鏡にそれぞれ設けられ、蓄積時間に関する情報をそれぞ れ記憶する第 1及び第 2の記憶手段と、
前記第 1又は第 2の内視鏡を経て被写体を照明光で照明する照明手段と、 前記第 1及び第 2の撮像素子により撮像された画像データにおける対象画素値と 周辺画素値の平均値との差分を導出し、前記差分を所定の閾値と比較して、閾値以 上であれば対象画素を周辺画素平均値に置換する画像処理装置とを有し、 前記画像処理装置は、周辺画素を画素値の大きい順に並べる並べ替え手段と、前 記並べ替え手段により設定された最大の画素値側のもの(単数或!ヽは複数)を除 ヽ て前記平均値を算出する平均値算出手段と、前記記憶手段における蓄積時間に関 する情報に基づき、前記画像処理に関する処理パラメータを変更する手段と、 を備えたことを特徴とする内視鏡装置。
[0097] (h)蛍光観察に用いられる透過波長特性が異なるフィルタをそれぞれ有し、電荷を 蓄積する事によって被写体像を撮像する第 1及び第 2の撮像素子をそれぞれ内蔵し た第 1及び第 2の内視鏡と、
前記第 1及び第 2の内視鏡にそれぞれ設けられ、蓄積時間に関する情報をそれぞ れ記憶する第 1及び第 2の記憶手段と、
前記第 1又は第 2の内視鏡を経て被写体を照明光で照明する照明手段と、 前記第 1及び第 2の撮像素子により撮像された画像データにおける対象画素値と 周辺画素値の平均値との差分を導出し、前記差分を所定の閾値と比較して、閾値以 上であれば対象画素を周辺画素平均値に置換する画像処理装置とを有し、 前記画像処理装置は、周辺画素を画素値の大き!、順から単数或いは複数除外して 、前記平均値を算出する平均値算出手段と、前記記憶手段における蓄積時間に関 する情報に基づき、前記画像処理に関する処理パラメータを変更する手段と、 を備えたことを特徴とする内視鏡装置。
[0098] (i) hにお 、て、前記処理パラメータは、前記ノイズ抑制手段における前記閾値である
(j) hにおいて、前記第 1及び第 2の記憶手段は、前記照明手段が照明する少なくとも 一つの照明光を照明した際に前記第 1又は第 2の撮像素子が蓄積する蓄積時間を それぞれ記憶する。
(k) hにおいて、前記第 1及び第 2の記憶手段は、前記照明手段が照明する、反射光 像を取得するための照明光を照明した際の、前記第 1及び第 2の撮像素子が蓄積す る蓄積時間をそれぞれ記憶する。
[0099] 図 27は、実施例 5の画像処理装置を備えた内視鏡装置 101Bの構成を示す。この 内視鏡装置 101Bは、第 1の電子内視鏡としての電子内視鏡 102Aと、図 28に示す 第 2の電子内視鏡としての電子内視鏡 102Bと、光源装置 103Bと、本実施例の画像 処理装置としてのビデオプロセッサ 104Bと、観察モニタ 5と力も構成される。なお、本 実施例における構成は、実施例 4の構成と類似しているため、実施例 4で説明した構 成要素と同じ構成要素には同じ符号を付け、その説明を省略する。
[0100] 電子内視鏡 102Aは、図 20に示した実施例 4に用いた電子内視鏡 102において、 その電子内視鏡 102Aの固有の識別情報を発生するスコープ ID発生回路 150を設 けた構成である。
また、図 28に示す第 2の電子内視鏡 102Bは、図 27に示す電子内視鏡 102Aにお いて、さらに通常観察用の撮像手段を備えた電子内視鏡である。
つまり、図 27に示す電子内視鏡 102Aは、 1つの CCD25Eにより、通常観察と蛍光 観察とを兼用して使用されるのに対し、図 28に示す電子内視鏡 102Bは、通常観察 は CCD25F、蛍光観察は CCD25Eを使用する。
この CCD25Fは、通常観察用であるため、対物レンズ 24Fの結像位置に、励起光 カットフィルタ 106が介在されない状態で配置されている。なお、対物レンズ 24Fは、 対物レンズ 24と同じ特性のものを採用できる。
[0101] また、 CCD25Eと CCD25Fとの出力信号は、モード切替スィッチ 20により接点が 切り替えられる切替スィッチ 151を介してビデオプロセッサ 104Bのプロセス回路 31 に入力される。なお、本実施例においては共通の CCDドライバ 29により CCD25Eと CCD25Fが駆動される構成として 、る。
また、電子内視鏡 102Aの CCD25Eの撮像面の前に配置されている励起光カット フィルタ 106と電子内視鏡 102Bの CCD25Eの撮像面の前に配置されている励起光 カットフィルタ 106Bとは、図 29 (A)及び図 29 (B)に示すようにその透過範囲が異な る特性に設定されている。
つまり、電子内視鏡 102Bにおいては、 CCD25Eは、蛍光観察専用に用いられる ため、励起光カットフィルタ 106Bは、図 29 (B)に示すように励起光 Exの波長帯とは 異なり、反射光像を得るために使用される G2及び R2の波長範囲を透過する特性に 設定されている。具体的には波長 λ 2から波長 R2より長波長の λ 0までの波長帯を 透過する。このえ 2の波長は、 G2の波長帯よりも少し短波長に設定されている。
[0102] これに対して、電子内視鏡 102Aは、通常観察と蛍光観察とを 1つの CCD25Eで 兼用しているので、この CCD25Eの撮像面の前に配置されている励起光カットフィル タ 106は、図 29 (A)に示すように波長 λ ΐから λ θの波長帯を透過する。この λ ΐの 波長は、 G2の波長帯よりもさらに短波長となり、 λ Κ λ 2に設定されている。
なお、図 29に示す励起光 Εχ、照明光 G2, R2は、蛍光観察モードの際に光源装 置 103Bから出射される面順次照明光の波長帯を示している。
なお、本実施例においては、蛍光観察を行う場合、第 1の電子内視鏡 102Aによる 第 1の蛍光像 lulは、狭帯域にしてその照明光強度を弱くした R2及び G2の照明光 のもとで撮像された第 1の反射光像 r 1 , g 1とビデオプロセッサ 104B内で合成されて 観察モニタ 5に表示される。同様に、蛍光観察を行う場合、第 2の電子内視鏡 102B による第 2の蛍光像 lu2は、狭帯域にしてその照明光強度を弱くした R2及び G2の照 明光のもとで撮像された第 2の反射光像 r2, g2とビデオプロセッサ 104B内で合成さ れて蛍光観察画像として観察モニタ 5で表示される。
[0103] この場合、第 1の反射光像 rlと r2とは、照明光 R2の波長帯における励起光カツトフ ィルタの透過率が第 1と第 2の電子内視鏡で同じであるため、同一被写体を撮像した 場合の信号レベルが同等となり、また同様に第 1の反射光像 glと g2とは、照明光 G2 の波長帯における励起光カットフィルタの透過率が第 1と第 2の電子内視鏡で同じで あるため、同一被写体を撮像した場合の信号レベルが同等となる。
また、上記励起光カットフィルタ 106は、通常観察の場合には、図 30 (A)に示すよう に広帯域の B1の照明光の一部を透過するように設定されており、この広帯域の B1 の照明光のもとで撮像した色信号を得られるようにしている。これに対して、上記励起 光カットフィルタ 106Bは、通常観察の場合には、図 30 (B)に示すように B1の照明光 を透過しないように設定されている。つまり、励起光カットフィルタ 106は、透過する波 長範囲が励起光カットフィルタ 106Bよりも広帯域に設定されている。
従って、共通の光源装置 103Bを用いて、同一被写体を蛍光観察モードで蛍光観 察を行うと、励起光カットフィルタ 106を用いた CCD25Eにより撮像される第 1の蛍光 像 lulの場合の方力 励起光カットフィルタ 106Bを用いた CCD25Eにより撮像され る第 2の蛍光像 lu2の場合における信号レベルより高くなる。つまり、共通の光源装置 103Bを用いて蛍光観察モードで蛍光観察を行うと、電子内視鏡 102Aの場合と 102 Bの場合とで、 CCD25Eの出力レベルに差が生じる。
[0104] このため、本実施例にお!、ては、後述するようにビデオプロセッサ 104B側で、蛍光 像の信号レベルに反射光像の信号レベルを合わせるための処理パラメータの変更 手段 (具体的には、撮像時間若しくは蓄積時間の変更手段)を設けた構成にし、励 起光カットフィルタの特性が異なる場合にも、 SZN低下を回避した良好な蛍光観察 画像を生成できるようにして 、る。
本内視鏡装置 101Bに使用される光源装置 103Bは、例えば実施例 1における光 源装置 3において、回転フィルタ 14における B2フィルタ 14b2の代わりに図 29 (A)等 に示した励起光 Exを発生する励起光フィルタを設けた回転フィルタ 14Cが採用され たものである。つまり、蛍光観察モード時には、光源装置 103Bは、 R2, G2,励起光 Exの照明光を順次出射し、通常観察モード時には Rl, Gl, B1の照明光を順次出 射する。
また、本内視鏡装置 101 Bに使用されるビデオプロセッサ 104Bは、図 20に示した 実施例 4のビデオプロセッサ 104の一部を変更した構成である。
[0105] 本実施例におけるビデオプロセッサ 104Bは、通常観察と蛍光観察とを 1つの CCD 25Eで兼用している電子内視鏡 102Aの場合にも、通常観察と蛍光観察とをそれぞ れ専用の CCD25F, CCD25Eを用いる電子内視鏡 102Bの場合にも、白傷ノイズ 等の画素欠陥を適切に補正し、ノイズの少な ヽ良好な画像を生成する画像処理を行 う。 このため、本実施例のビデオプロセッサ 104Bは、図 20のビデオプロセッサ 10 4において、さらに制御部 152を設け、この制御部 152は、スコープ ID発生回路 150 に書き込まれている反射光及び蛍光の蓄積時間に関する情報に応じて、 CCDドライ ノ 29とアドレス発生回路 119とを制御する。
例えば、制御部 152は、例えば蛍光観察モードへの最初の切替時 (この他に起動 時でも良い)に、スコープ ID発生回路 150から反射光及び蛍光の蓄積時間に関する 情報を読み出し、制御部 152内のメモリ 152aに格納する。
[0106] そしてユーザにより、蛍光観察モードが選択された場合、制御部 152は、メモリ 152 aから反射光像及び蛍光像の撮像時間 (より厳密には蓄積時間)に関する情報を読 み出し、 CCDドライバ 29に対して、処理パラメータとしての蓄積時間の制御、つまり C CD25Eによる電子シャツタの制御を行う。
図 27に示すように電子内視鏡 102Aが、ビデオプロセッサ 104Bに接続された場合 には、制御部 152は、 CCDドライバ 29に対して、 R2の照明光、 G2の照明光でそれ ぞれ照明した場合における (反射光像を撮像するときの)各撮像時間を trl, tglとな るように制御し、また励起光 Exを照射した場合 (蛍光像を撮像するとき)の撮像時間 を tblに制御する。
一方、図 28に示す電子内視鏡 102B力 ビデオプロセッサ 104Bに接続された場 合には、制御部 152は、 CCDドライバ 29に対して R2の照明光、 G2の照明光でそれ ぞれ照明した場合における各撮像時間を tr2 (<trl) , tg2 «tgl)となるように制御 し、また励起光 Exを照射した場合 (蛍光像を撮像するとき)の撮像時間を tb2 (=tbl )に制御する。
[0107] 上述のように、電子内視鏡 102A、 102Bの間では、蛍光の撮像に用いられる励起 光カットフィルタ 106、 106Bの特性が異なるため、同一被写体を撮像した場合に得ら れる蛍光像 lul、 lu2の信号レベル(明るさ)が異なるが、赤色帯などの照射による反 射光像 rl、 gl ;r2、 g2の信号レベル(明るさ)は同等である。このため、蛍光像と反射 光像を合成した場合の蛍光観察像における各像の信号レベル(明るさ)のバランスが 異なってしまう。
本実施例では、基準の被写体を撮像した場合の反射光像の信号レベル (明るさ)が 蛍光像の信号レベル (明るさ)に合うように、反射光撮像時の撮像時間を、内視鏡 (励 起光カットフィルタ)の特性に合わせて (スコープ ID発生回路 150に予め記録した蓄 積時間に関する情報に基づき)調整することで、各像の信号レベル(明るさ)を適切に ノ ランスさせるようにして ヽる。
[0108] また微弱な蛍光の撮像では、撮像時間を短縮しな 、ようにすることで、撮像時間の 短縮による蛍光像の SZN低下を抑制して 、る。
このように電子内視鏡 102A、 102Bの間では、蛍光撮像手段に用いられる励起光 カットフィルタ 106, 106の特性が異なるため、同一被写体を撮像した場合に得られ る蛍光像 lul、 lu2の明るさが異なるが、赤色帯などの照射による反射光像 rl, gl ;r2 , g2の明るさは同等である。このため、同じ処理状態で、蛍光像と反射光像を合成し た場合の各像の明るさのバランスが異なってしまう。
[0109] 本実施例では、蛍光像の明るさに反射光像を合わせる場合、反射光像の撮像では 、内視鏡 (励起光カットフィルタ)の特性に合わせて撮像素子の撮像時間を (スコープ ID発生回路 150に予め記憶した電子シャツタの情報に基づき)調整して、上記明るさ を適切にバランスさせるようにしている。
なお、上記においては、スコープ ID発生回路 150には、反射光及び蛍光の蓄積時 間に関する情報が書き込まれている場合を示したが、反射光の蓄積時間に関する情 報のみを書き込むようにしても良い。そして、制御部 152は、この反射光の蓄積時間 に関する情報をメモリ 152aに格納し、蛍光の蓄積時間に関する情報は、ビデオプロ セッサ 104Bに接続される電子内視鏡によらず、所定の蓄積時間を予めメモリ 152a に格納しておく構成にして良い。
[0110] また、スコープ発生回路 150は、励起光カットフィルタ 106若しくは 106Bの特性情 報を発生し、制御部 152は、その特性情報に応じた反射光及び蛍光の蓄積時間に 関する情報をメモリ 152a等に格納する構成にしても良!、。
[0111] さらに、スコープ ID発生回路 150は、単にスコープ HD情報を発生し、制御部 152は 、ビデオプロセッサ 104B側でそのスコープ IDの場合に使用される反射光及び蛍光 の蓄積時間に関する情報をメモリ 152a等に格納する構成にしても良い。
[0112] また、従来の画素欠陥補正の画像処理は、撮像時間に応じて変化する欠陥画素の 画素値を考慮した処理になっていな力つた為、適切に補正できなかった力 本実施 例では以下のように処理パラメータとしての閾値を変更設定して適切に補正できるよ うにしている。
[0113] 本実施例では蛍光観察モードの場合、この制御部 152は、アドレス発生回路 119 に対して、 R2, G2での反射光撮像と励起光 Exのもとで蛍光撮像した場合の撮像信 号が面順次で白傷ノイズ抑制回路 111の比較器 117に入力された場合、その比較 器 117の他方の入力端に閾値メモリ 118から読み出されて印加される 3つの閾値を 制御する。 図 27に示すように電子内視鏡 102A力 ビデオプロセッサ 104Bに接続 された場合には、比較器 117の一方に第 1の反射光像 rl, gl,蛍光像 lulに基づく 減算器 112の出力信号が順次入力される場合、比較器 117の他方に入力端に印加 される閾値を Thrl, Thgl, Thblとした場合、例えば Thbl >Thrl, Thbl >Thgl となるように制御部 152は制御する。
[0114] つまり、蛍光撮像を行う場合には、 CCD25Eの増幅率を反射光撮像の場合よりも 高く設定するため、その場合に白傷があるとその白傷による信号レベルも高くなる。こ れに対応して、蛍光撮像を行った場合の信号が比較器 117に入力された場合には、 その場合に対応する閾値 Thblが他の信号の場合の閾値 Thrl, Thglよりも高く設 定されるように制御部 152は制御する。
また、図 28に示す電子内視鏡 102Bの場合には、比較器 117に入力される上記閾 値として、 Thr2, Thg2, Thb2となる。この場合、例えば Thb2>Thr2, Thb2>Th g2となるように制御部 152は制御する。この場合も上記閾値 Thbl等の場合と同様に 設定される。
また、 CCD25Eに白傷が有る場合には、 CCD25Eの撮像時間が短いと、白傷によ る信号レベルがより低くなる。そこで、上述したように trl >tr2の設定に対応して、制 御部 152は Thrl >Thr2に設定する。同様に tgl >tg2の設定に対応して、制御部 152は Thgl >Thg2に設定する。
[0115] また、第 1の電子内視鏡 102Aと第 2の電子内視鏡 102Bとでは、蛍光撮像を行う場 合の CCD25Eの増幅率及び撮像時間を同じに設定するため、制御部 152は Thbl =Thb2の設定を行うようにして 、る。
[0116] ここで、アドレス発生回路 119Bは、制御部 152から入力されるメモリ 152aに格納さ れた反射光及び蛍光の蓄積時間に関する情報及び、制御電圧発生回路 107から出 力される制御電圧レベルに応じて、アドレス値を発生して、閾値メモリ 118から比較器 117に入力する閾値を切り替える。
[0117] なお、実施例 4においては、モード切替スィッチ 20を操作した場合、その出力信号 で光源装置 103の照明光の切替を制御する構成にしていた力 本実施例ではモー ド切替スィッチ 20による操作信号は制御部 152に入力される。
そして、制御部 152は、モード切替に対応して、光源装置 103Bの制御回路 16に モード切替の信号を送り、制御回路 16はこの信号に対応した制御を行う。
次に本実施例の作用を説明する。まず、光源装置 103B及びビデオプロセッサ 104 Bに第 2の電子内視鏡 102Bが接続されたとする。そして、電源が投入されると、この 制御部 152は起動時には通常観察モードで照明及び信号処理を行うように制御する 。 この通常観察モード時には、光源装置 103Bは、 Rl, Gl、 B1の照明光を順次 出射し、この照明光の状態で CCD25Fは撮像を行う。この場合には、制御部 152は 、制御電圧発生回路 107を動作させない。また、白傷ノイズ抑制回路 111も動作させ ない。従って、この場合には、ビデオプロセッサ 104B内の A/D変換回路 32の出力 信号は、白傷ノイズ抑制回路 111をスルーして同時ィ匕回路 45に入力される。
[0118] この場合の動作は、通常の面順次方式の電子内視鏡における通常観察モードと同 じ動作となる。一方、モード切替スィッチ 20が操作されて蛍光観察モードに切り替え られると、制御部 152は、スコープ ID発生回路 150から読み出した蓄積時間に関す る情報をメモリ 152aに格納し、このメモリ 152aに格納した蓄積時間の情報により、 C CD25Eの電子シャツタ時間、つまり上述した撮像時間 tr2, tg2の制御を行う。
また、この蛍光観察モードにおいては、制御部 152は、白傷ノイズ抑制回路 111を 動作させる。この場合、制御部 152は白傷ノイズ抑制回路 111内の比較器 117に印 カロされる閾値を、この比較器 117の一方の入力端に入力される第 2の反射光像 r2, g 2,蛍光像 lu2に基づく減算器 112の出力信号が順次入力される場合、比較器 117 の他方に入力端に印加される閾値を Thr2, Thg2, Thb2とし、この場合 Thb2>Th r2, Thb2>Thg2となるように制御部 152は制御する。
[0119] また、この第 2の電子内視鏡 102Bの代わりに第 1の電子内視鏡 102Aが光源装置 103B及びビデオプロセッサ 104Bに接続された場合にも、基本的に上記符号 lu2等 における数字 2を 1に置換したものと同様の動作となる。
この場合、上述したように第 1の電子内視鏡 102Aの場合と第 2の電子内視鏡 102 Bの場合とで、 trl >tr2等に設定するようにしているので、観察モニタ 5に第 1の蛍光 像 lul或いは第 2の蛍光像 lu2を表示する場合、それぞれ反射光像 rl, gl或いは r2 , g2とのカラーバランスを適切に保って表示することができる。
また、本実施例においては、電子内視鏡 102A或いは 102Bに対して設定される各 像の撮像時間に応じて、白傷ノイズ抑制を行う際の閾値を適切に設定することができ 、白傷ノイズを有効に抑制できる。
[0120] このように本実施例によれば、励起光カットフィルタの特性が異なる場合にも、適切 に白傷ノイズを抑制し、かつ良好な蛍光観察画像を得ることができる。
上述の説明においては、蛍光撮像を行う際の CCD25Eの増幅率を、反射光撮像 を行う際よりも高く設定する場合で説明したが、蛍光撮像時と反射光撮像時とで同じ 増幅率を設定する場合でも、各像の撮像時間に応じた閾値を用いることで、白傷ノィ ズ抑制を行うようにしても良 、。
また、蛍光撮像を行う際の CCD25Eの増幅率が第 1の電子内視鏡 102Aと第 2の 電子内視鏡 102Bとで異なる場合には、その増幅率に応じた、蛍光像に対して設定 される閾値を用いて、白傷ノイズ抑制を行うようにしても良 、。
[0121] さらに、上述の説明においては、通常観察モード時においては、白傷ノイズ抑制回 路 111の機能を用いない場合で説明したが、通常観察モード時においても、蛍光観 察モード時よりは小さい値に設定される閾値を用いて、白傷ノイズ抑制を行うようにし ても良い。この場合における閾値の情報は、例えばスコープ ID発生回路 150に格納 すれば良い。 なお、本実施例では、面順次で入力される撮像信号に対して、白傷ノ ィズ抑制回路 111により白傷ノイズの抑制を行っているが、図 31に示す変形例のよう に同時ィ匕回路 45で同時ィ匕した後に白傷ノイズ抑制回路 121で白傷ノイズの抑制を 行うようにしても良い。
[0122] 図 31に示す変形例の白傷ノイズ抑制回路 121は、実施例 4における図 20の白傷ノ ィズ抑制回路 111を図 23に示した変形例の白傷ノイズ抑制回路 121に変形したもの と基本的に同じ構成である。
図 31の白傷ノイズ抑制回路 121は、比較器 128に印加される閾値を、スコープ ID 発生回路 150のスコープ IDにより制御する点が図 23の白傷ノイズ抑制回路 121と異 なっている。図 31の場合には、第 1の電子内視鏡 102Aが接続された状態で示して おり、この場合には R成分用判定回路 122Rにおける比較器 128には閾値 Thrlが 印加される。
なお、明示していないが G成分用判定回路 122Gにおける比較器 128には閾値 Th glが印加されることになり、蛍光成分用(B成分用)判定回路 122Bにおける比較器 1 28には閾値 Thblが印加されることになる。
本変形例は、実施例 5の場合とほぼ同様の効果がある。
なお、上述した各実施例等を部分的に組み合わせる等して構成される実施例等も 本発明に属する。
産業上の利用可能性
内視鏡の撮像手段により撮像された体腔内の画像に対して、狭帯域光観察下のよ うに照明光量が十分でないような場合においても、ノイズを有効に抑制し、かつコント ラストの低下を軽減する画像処理を行!ヽ、診断に適した内視鏡画像を表示できるよう にする。
本出願は、 2005年 3月 22日に日本国に出願された特願 2005— 82544号を優先 権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の 範囲、図面に引用されるものとする。

Claims

請求の範囲
[1] 撮像手段により撮像された画像データに対して画像処理を行う画像処理装置にお いて、 前記画像データに対して、複数の空間フィルタによるフィルタ処理を行うフィ ルタ処理手段と、
前記画像データの局所領域における明るさを算出する明るさ算出手段と、 前記フィルタ処理手段の出力に対して、前記フィルタ処理手段の出力及び Z又は 前記明るさ算出手段の出力に応じた重み付けを行う重み付け手段と、
前記重み付け手段の出力に対して、処理画像データを生成するための逆フィルタ 処理を行う逆フィルタ処理手段と、
を備えたことを特徴とする画像処理装置。
[2] 前記重み付け手段は、前記フィルタ処理手段の出力が所定値よりも大きい場合に は、前記フィルタ処理手段の出力によらず所定の重み付け係数を用い、前記フィル タ処理手段の出力が所定値よりも小さい場合には、前記フィルタ処理手段の出力に 応じて重み付け係数を変更し、前記所定値は、前記明るさ算出手段の出力に応じて 変更することを特徴とする請求項 1に記載の画像処理装置。
[3] さらに前記明るさ算出手段の出力に応じて、前記画像データ及び前記逆フィルタ 処理手段の出力の加重平均を算出する加重平均算出手段を有することを特徴とす る請求項 1に記載の画像処理装置。
[4] 前記フィルタ処理手段は、直交基底を用いた直交変換処理手段であり、前記逆フィ ルタ処理手段は、逆直交変換処理手段であることを特徴とする請求項 1に記載の画 像処理装置。
[5] 前記フィルタ処理手段は、入力される画像データの色成分毎に異なるフィルタ係数を 用いてフィルタ処理することを特徴とする請求項 1に記載の画像処理装置。
[6] 前記フィルタ処理手段は、入力される画像データの色成分が異なる場合にも共通 のフィルタ係数を用いてフィルタ処理することを特徴とする請求項 1に記載の画像処 理装置。
[7] 前記重み付け手段は、前記画像データが前記明るさ算出手段に入力されるまでに 増幅する増幅器のゲイン値、撮像手段の種別、鮮鋭度補正処理の補正度の少なくと も 1つで重み付けする際の重み付け係数を変更することを特徴とする請求項 1に記載 の画像処理装置。
[8] 前記直交基底は、所定の画像データに対して算出した Karhunen-Loeve変換の基 底であることを特徴とする請求項 4に記載の画像処理装置。
[9] 前記直交基底は、離散コサイン変換の基底であることを特徴とする請求項 4に記載 の画像処理装置。
[10] 前記重み付け手段は、前記フィルタ処理手段の出力が所定値より小さい場合には 、前記フィルタ処理手段の出力によらず 0の重み付け係数を与える前記所定値を、前 記明るさ算出手段の出力に応じて変更することを特徴とする請求項 1に記載の画像 処理装置。
[11] 前記重み付け手段は、前記フィルタ処理手段の出力が第 1の所定値よりも大きい場 合には、前記フィルタ処理手段の出力によらず 1の重み付け係数とし、前記フィルタ 処理手段の出力が第 2の所定値よりも小さい場合には、前記フィルタ処理手段の出 力によらず 0の重み付け係数とし、前記フィルタ処理手段の出力が前記第 1及び第 2 の所定値の間においては、 0と 1との間の重み付け係数とする特性の重み付け係数と し、前記第 1の所定値及び前記第 2の所定値は、前記明るさ算出手段の出力に応じ て変更することを特徴とする請求項 1に記載の画像処理装置。
[12] 前記フィルタ処理手段は、処理対象画素を中心にして奇数 nとした n X n画素の小 領域の画像データに対して、 nX n個よりも少ないフィルタ数 rによりフィルタ処理を行 うことを特徴とする請求項 3に記載の画像処理装置。
[13] 前記フィルタ処理手段は、大きな固有値に対応するフィルタ係数のものを優先して 、前記フィルタ数 rを決定することを特徴とする請求項 12に記載の画像処理装置。
[14] 撮像手段を備えた内視鏡と、
前記撮像手段により撮像された画像データに対して、複数のフィルタを適用したフ ィルタ処理を行うフィルタ処理手段と、
前記画像データの局所領域における明るさを算出する明るさ算出手段と、 前記フィルタ処理手段の出力に対して、前記フィルタ処理手段の出力及び Z又は 前記明るさ算出手段の出力値に応じた重み付けを行う重み付け手段と、 前記重み付け手段の出力に対して、処理画像データを得るための逆フィルタ処理 を行う逆フィルタ処理手段と、
を備えたことを特徴とする内視鏡装置。
[15] 前記重み付け手段は、前記フィルタ処理手段の出力が所定値よりも大きい場合に は、前記フィルタ処理手段の出力によらず所定の重み付け係数を用い、前記フィル タ処理手段の出力が所定値よりも小さい場合には、前記フィルタ処理手段の出力に 応じて重み付け係数を変更し、前記所定値は、前記明るさ算出手段の出力に応じて 変更することを特徴とする請求項 14に記載の内視鏡装置。
[16] さらに前記明るさ算出手段の出力に応じて、前記画像データ及び前記逆フィルタ 処理手段の出力の加重平均を算出する加重平均算出手段を有することを特徴とす る請求項 14に記載の内視鏡装置。
[17] 前記フィルタ処理手段は、直交基底を用いた直交変換処理手段であり、前記逆フィ ルタ処理手段は、逆直交変換処理手段であることを特徴とする請求項 14に記載の内 視鏡装置。
[18] 前記フィルタ処理手段は、入力される画像データの色成分毎に異なるフィルタ係数 を用いてフィルタ処理することを特徴とする請求項 14に記載の内視鏡装置。
[19] 前記フィルタ処理手段は、入力される画像データの色成分が異なる場合にも共通 のフィルタ係数を用いてフィルタ処理することを特徴とする請求項 14に記載の内視鏡 装置。
[20] 前記重み付け手段は、前記画像データが前記明るさ算出手段に入力されるまでに 増幅する増幅器のゲイン値、撮像手段の種別、鮮鋭度補正処理の補正度の少なくと も 1つで重み付けする際の重み付け係数を変更することを特徴とする請求項 14に記 載の内視鏡装置。
[21] 前記直交基底は、所定の画像データに対して算出した Karhunen-Loeve変換の基 底であることを特徴とする請求項 17に記載の内視鏡装置。
[22] 前記直交基底は、離散コサイン変換の基底であることを特徴とする請求項 17に記 載の内視鏡装置。
[23] 前記重み付け手段は、前記フィルタ処理手段の出力が所定値より小さい場合には 、前記フィルタ処理手段の出力によらず 0の重み付け係数を与える前記所定値を、前 記明るさ算出手段の出力に応じて変更することを特徴とする請求項 14に記載の内視 鏡装置。
[24] 前記重み付け手段は、前記フィルタ処理手段の出力が第 1の所定値よりも大きい場 合には、前記フィルタ処理手段の出力によらず 1の重み付け係数とし、前記フィルタ 処理手段の出力が第 2の所定値よりも小さい場合には、前記フィルタ処理手段の出 力によらず 0の重み付け係数とし、前記フィルタ処理手段の出力が前記第 1及び第 2 の所定値の間においては、 0と 1との間の重み付け係数とする特性の重み付け係数と し、前記第 1の所定値及び前記第 2の所定値は、前記明るさ算出手段の出力に応じ て変更することを特徴とする請求項 14に記載の内視鏡装置。
[25] 前記フィルタ処理手段は、処理対象画素を中心にして奇数 nとした n X n画素の小 領域の画像データに対して、 nX n個よりも少ないフィルタ数 rによりフィルタ処理を行 うことを特徴とする請求項 16に記載の内視鏡装置。
[26] 前記フィルタ処理手段は、大きな固有値に対応するフィルタ係数のものを優先して 、前記フィルタ数 rを決定することを特徴とする請求項 25に記載の内視鏡装置。
PCT/JP2006/305709 2005-03-22 2006-03-22 画像処理装置及び内視鏡装置 WO2006101128A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US11/886,830 US8305427B2 (en) 2005-03-22 2006-03-22 Image processor and endoscope apparatus
CA002602906A CA2602906A1 (en) 2005-03-22 2006-03-22 Image processor and endoscope apparatus
AU2006225662A AU2006225662B2 (en) 2005-03-22 2006-03-22 Image processing device and endoscope
CN2006800083915A CN101142592B (zh) 2005-03-22 2006-03-22 图像处理装置及内窥镜装置
JP2007509302A JP4599398B2 (ja) 2005-03-22 2006-03-22 画像処理装置及び内視鏡装置
EP06729676.4A EP1862967A4 (en) 2005-03-22 2006-03-22 Image processing device and endoscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005082544 2005-03-22
JP2005-082544 2005-03-22

Publications (1)

Publication Number Publication Date
WO2006101128A1 true WO2006101128A1 (ja) 2006-09-28

Family

ID=37023788

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305709 WO2006101128A1 (ja) 2005-03-22 2006-03-22 画像処理装置及び内視鏡装置

Country Status (8)

Country Link
US (1) US8305427B2 (ja)
EP (1) EP1862967A4 (ja)
JP (1) JP4599398B2 (ja)
KR (1) KR100943109B1 (ja)
CN (1) CN101142592B (ja)
AU (1) AU2006225662B2 (ja)
CA (1) CA2602906A1 (ja)
WO (1) WO2006101128A1 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007300972A (ja) * 2006-05-08 2007-11-22 Olympus Medical Systems Corp 内視鏡用画像処理装置
EP1992275A1 (en) * 2006-03-03 2008-11-19 Olympus Medical Systems Corp. Endoscope device
JP2008293425A (ja) * 2007-05-28 2008-12-04 Olympus Corp ノイズ除去装置並びにプログラムおよび方法
WO2008146729A1 (ja) * 2007-05-28 2008-12-04 Olympus Corporation ノイズ除去装置並びにプログラムおよび方法
WO2009081709A1 (ja) * 2007-12-25 2009-07-02 Olympus Corporation 画像処理装置、画像処理方法、および、画像処理プログラム
JP2009212672A (ja) * 2008-03-03 2009-09-17 Sony Corp 信号処理装置および方法、並びにプログラム
JP2012000369A (ja) * 2010-06-21 2012-01-05 Olympus Corp 画像処理装置及びプログラム
WO2012114934A1 (ja) * 2011-02-21 2012-08-30 オリンパス株式会社 蛍光観察装置
JP2013258596A (ja) * 2012-06-13 2013-12-26 Denso Corp 撮像装置
JP2015198875A (ja) * 2014-04-10 2015-11-12 Hoya株式会社 内視鏡用画像処理装置および内視鏡システム
US9588046B2 (en) 2011-09-07 2017-03-07 Olympus Corporation Fluorescence observation apparatus
US9843703B2 (en) 2013-08-26 2017-12-12 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
JP2018089387A (ja) * 2017-12-28 2018-06-14 Hoya株式会社 内視鏡プロセッサおよび内視鏡システム
JP2018122155A (ja) * 2015-01-29 2018-08-09 富士フイルム株式会社 内視鏡システム
JP2020005844A (ja) * 2018-07-06 2020-01-16 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察装置
WO2020070832A1 (ja) * 2018-10-03 2020-04-09 オリンパス株式会社 内視鏡及び内視鏡システム
JP2022518364A (ja) * 2019-01-02 2022-03-15 ヘルシー.アイオー リミテッド 医療病状を評価するための画像分析の使用
JP7459342B2 (ja) 2019-03-15 2024-04-01 ソニー・オリンパスメディカルソリューションズ株式会社 画像処理装置、内視鏡システム、画像処理方法およびプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2602906A1 (en) * 2005-03-22 2006-09-28 Olympus Corporation Image processor and endoscope apparatus
JP2009071621A (ja) * 2007-09-13 2009-04-02 Panasonic Corp 画像処理装置及びデジタルカメラ
JP2009165553A (ja) * 2008-01-11 2009-07-30 Olympus Medical Systems Corp 医療用画像処理装置及び医療用撮像システム
JP5424570B2 (ja) * 2008-04-10 2014-02-26 Hoya株式会社 電子内視鏡用プロセッサ、ビデオスコープ及び電子内視鏡装置
JP2010142464A (ja) * 2008-12-19 2010-07-01 Panasonic Corp 画像処理装置および画像入力装置
JP4728450B2 (ja) * 2009-05-14 2011-07-20 オリンパスメディカルシステムズ株式会社 撮像装置
CN102053051A (zh) * 2009-10-30 2011-05-11 西门子公司 一种体液分析系统和用于体液分析的图像处理设备、方法
US9019345B2 (en) * 2010-07-02 2015-04-28 Intuitive Surgical Operations, Inc. Imaging mode blooming suppression
CN102970916B (zh) * 2010-07-26 2015-04-22 奥林巴斯医疗株式会社 内窥镜装置和内窥镜装置的控制方法
WO2012140970A1 (ja) * 2011-04-11 2012-10-18 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2013048694A (ja) * 2011-08-30 2013-03-14 Olympus Corp 内視鏡装置
CN103648364B (zh) * 2012-03-01 2016-05-25 奥林巴斯株式会社 摄像系统
US9014504B2 (en) * 2012-05-31 2015-04-21 Apple Inc. Systems and methods for highlight recovery in an image signal processor
US20140142383A1 (en) * 2012-11-22 2014-05-22 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Endoscope Camera Head Memory
JP2014198144A (ja) * 2013-03-29 2014-10-23 ソニー株式会社 画像処理装置、画像処理方法、情報処理プログラム、蛍光観察システム、および蛍光ナビゲーション・サージェリー・システム
JP6196900B2 (ja) * 2013-12-18 2017-09-13 オリンパス株式会社 内視鏡装置
JP6435275B2 (ja) 2013-12-20 2018-12-05 オリンパス株式会社 内視鏡装置
DE102014200833A1 (de) * 2014-01-17 2015-07-23 Olympus Winter & Ibe Gmbh Verfahren zur Steuerung einer Videobildverarbeitung, Bildverarbeitungssteuerungssoftware sowie Video-Endoskopiesystem
KR101816449B1 (ko) 2016-10-20 2018-01-08 현대자동차주식회사 다시점 카메라의 통합 노출 제어 장치, 그를 포함한 시스템 및 그 방법
WO2018079116A1 (ja) * 2016-10-27 2018-05-03 富士フイルム株式会社 内視鏡システム
JP7272670B2 (ja) * 2018-05-31 2023-05-12 i-PRO株式会社 カメラ装置、画像処理方法およびカメラシステム
KR102592605B1 (ko) * 2018-12-06 2023-10-24 삼성전자주식회사 이미지 신호 처리기, 이미지 신호 처리기의 동작 방법, 및 이미지 신호 처리기를 포함하는 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04314181A (ja) * 1991-04-12 1992-11-05 Olympus Optical Co Ltd 内視鏡画像の処理方法
JPH0785247A (ja) * 1993-09-13 1995-03-31 Fuji Photo Film Co Ltd エネルギーサブトラクション画像処理方法
JPH07282247A (ja) * 1994-04-06 1995-10-27 Ge Yokogawa Medical Syst Ltd 画像処理方法及び画像処理装置
JP2001309177A (ja) * 2000-04-21 2001-11-02 Sharp Corp 画像処理装置、画像読取装置および画像形成装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69125146T2 (de) * 1990-11-19 1997-10-09 Olympus Optical Co Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen
US5526446A (en) * 1991-09-24 1996-06-11 Massachusetts Institute Of Technology Noise reduction system
US5872597A (en) * 1994-08-26 1999-02-16 Kabushiki Kaisha Toshiba System for decoding moving picture signal multiplied and coded by DCT coefficient and additional data
KR100200628B1 (ko) 1996-09-30 1999-06-15 윤종용 화질 개선 회로 및 그 방법
JP3477603B2 (ja) * 1997-04-07 2003-12-10 株式会社日立製作所 画像処理方法、画像処理装置および画像処理プログラムを記録した記録媒体
US6941323B1 (en) * 1999-08-09 2005-09-06 Almen Laboratories, Inc. System and method for image comparison and retrieval by enhancing, defining, and parameterizing objects in images
EP1100260A1 (en) * 1999-11-12 2001-05-16 STMicroelectronics S.r.l. Spatio-temporal filtering method for noise reduction during pre-processing of picture sequences in video encoders
US6807300B1 (en) * 2000-07-20 2004-10-19 Eastman Kodak Company Noise reduction method utilizing color information, apparatus, and program for digital image processing
JP3583731B2 (ja) 2000-07-21 2004-11-04 オリンパス株式会社 内視鏡装置および光源装置
JP2002262094A (ja) * 2001-02-27 2002-09-13 Konica Corp 画像処理方法及び画像処理装置
DE10115502A1 (de) * 2001-03-29 2002-10-10 Promos Technologies Inc Raumfilterverfahren zur Fehleruntersuchung eines Geräts
CN1303570C (zh) 2002-02-12 2007-03-07 松下电器产业株式会社 图象处理装置和图象处理方法
JP2005006856A (ja) 2003-06-18 2005-01-13 Olympus Corp 内視鏡装置
EP1795004B1 (en) * 2004-10-01 2015-02-25 The Board Of Trustees Of The Leland Stanford Junior University Imaging arrangement and method therefor
JP2006129236A (ja) * 2004-10-29 2006-05-18 Sanyo Electric Co Ltd リンギング除去装置およびリンギング除去プログラムを記録したコンピュータ読み取り可能な記録媒体
CA2602906A1 (en) * 2005-03-22 2006-09-28 Olympus Corporation Image processor and endoscope apparatus
CA2606895A1 (en) * 2005-05-13 2006-11-16 Olympus Medical Systems Corp. Biological observation apparatus
CN101981911B (zh) * 2008-01-18 2016-06-29 快图有限公司 图像处理方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04314181A (ja) * 1991-04-12 1992-11-05 Olympus Optical Co Ltd 内視鏡画像の処理方法
JPH0785247A (ja) * 1993-09-13 1995-03-31 Fuji Photo Film Co Ltd エネルギーサブトラクション画像処理方法
JPH07282247A (ja) * 1994-04-06 1995-10-27 Ge Yokogawa Medical Syst Ltd 画像処理方法及び画像処理装置
JP2001309177A (ja) * 2000-04-21 2001-11-02 Sharp Corp 画像処理装置、画像読取装置および画像形成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1862967A4 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1992275A4 (en) * 2006-03-03 2013-09-11 Olympus Medical Systems Corp ENDOSCOPE DEVICE
EP1992275A1 (en) * 2006-03-03 2008-11-19 Olympus Medical Systems Corp. Endoscope device
JP2007300972A (ja) * 2006-05-08 2007-11-22 Olympus Medical Systems Corp 内視鏡用画像処理装置
JP2008293424A (ja) * 2007-05-28 2008-12-04 Olympus Corp ノイズ除去装置並びにプログラムおよび方法
WO2008146817A1 (ja) * 2007-05-28 2008-12-04 Olympus Corporation ノイズ除去装置並びにプログラムおよび方法
WO2008146729A1 (ja) * 2007-05-28 2008-12-04 Olympus Corporation ノイズ除去装置並びにプログラムおよび方法
JP2008293425A (ja) * 2007-05-28 2008-12-04 Olympus Corp ノイズ除去装置並びにプログラムおよび方法
WO2009081709A1 (ja) * 2007-12-25 2009-07-02 Olympus Corporation 画像処理装置、画像処理方法、および、画像処理プログラム
JP2009212672A (ja) * 2008-03-03 2009-09-17 Sony Corp 信号処理装置および方法、並びにプログラム
JP2012000369A (ja) * 2010-06-21 2012-01-05 Olympus Corp 画像処理装置及びプログラム
WO2012114934A1 (ja) * 2011-02-21 2012-08-30 オリンパス株式会社 蛍光観察装置
US9241139B2 (en) 2011-02-21 2016-01-19 Olympus Corporation Fluorescence observation device
JP6057890B2 (ja) * 2011-02-21 2017-01-11 オリンパス株式会社 蛍光観察装置
US9588046B2 (en) 2011-09-07 2017-03-07 Olympus Corporation Fluorescence observation apparatus
JP2013258596A (ja) * 2012-06-13 2013-12-26 Denso Corp 撮像装置
US9843703B2 (en) 2013-08-26 2017-12-12 Canon Kabushiki Kaisha Image processing apparatus and method of controlling the same
JP2015198875A (ja) * 2014-04-10 2015-11-12 Hoya株式会社 内視鏡用画像処理装置および内視鏡システム
JP2018122155A (ja) * 2015-01-29 2018-08-09 富士フイルム株式会社 内視鏡システム
JP2018089387A (ja) * 2017-12-28 2018-06-14 Hoya株式会社 内視鏡プロセッサおよび内視鏡システム
JP2020005844A (ja) * 2018-07-06 2020-01-16 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察装置
JP7171274B2 (ja) 2018-07-06 2022-11-15 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察装置
WO2020070832A1 (ja) * 2018-10-03 2020-04-09 オリンパス株式会社 内視鏡及び内視鏡システム
JP2022518364A (ja) * 2019-01-02 2022-03-15 ヘルシー.アイオー リミテッド 医療病状を評価するための画像分析の使用
JP7459342B2 (ja) 2019-03-15 2024-04-01 ソニー・オリンパスメディカルソリューションズ株式会社 画像処理装置、内視鏡システム、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US8305427B2 (en) 2012-11-06
KR20070106641A (ko) 2007-11-02
CN101142592A (zh) 2008-03-12
US20090021578A1 (en) 2009-01-22
EP1862967A1 (en) 2007-12-05
JP4599398B2 (ja) 2010-12-15
CA2602906A1 (en) 2006-09-28
JPWO2006101128A1 (ja) 2008-09-04
EP1862967A4 (en) 2017-04-26
AU2006225662A1 (en) 2006-09-28
CN101142592B (zh) 2010-07-07
KR100943109B1 (ko) 2010-02-18
AU2006225662B2 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
JP4599398B2 (ja) 画像処理装置及び内視鏡装置
US8237783B2 (en) Image processing device for endoscope and endoscope apparatus
US8451328B2 (en) Image processing device, imaging device, computer-readable device, and image processing method for processing a fluorescence image
JP5214853B2 (ja) 内視鏡装置
JP5864880B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP4868976B2 (ja) 内視鏡装置
JP4996773B2 (ja) 内視鏡装置
WO2006025334A1 (ja) 内視鏡装置
US20110157340A1 (en) Fluorescent image apparatus and method for acquiring fluorescent image
JP2006218283A (ja) 内視鏡装置
JP2004321244A (ja) 電子内視鏡システム
JP5041936B2 (ja) 生体観測装置
US7822247B2 (en) Endoscope processor, computer program product, endoscope system, and endoscope image playback apparatus
JPH11313247A (ja) 内視鏡装置
JP5856943B2 (ja) 撮像システム
JP2012034934A (ja) 電子内視鏡用プロセッサ
JP2004313413A (ja) 内視鏡装置
JP2005323758A (ja) 電子内視鏡装置
JP5331863B2 (ja) 内視鏡装置
WO2022038803A1 (ja) プロセッサ装置、プロセッサ装置の作動方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680008391.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007509302

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006225662

Country of ref document: AU

Ref document number: 2006729676

Country of ref document: EP

Ref document number: 2602906

Country of ref document: CA

Ref document number: 11886830

Country of ref document: US

Ref document number: 1020077021978

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2006225662

Country of ref document: AU

Date of ref document: 20060322

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 2006225662

Country of ref document: AU

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006729676

Country of ref document: EP